검색 본문
사이버문학광장 문장 웹진 webzine.munjang.or.kr/ 사이버 문화광장 제공 문학웹진, 신작, 연재모음 제공. 이유미 브런치스토리 brunch.co.kr/@yumileewyky 브런치스토리 오늘도 쓴 카피> <카피 쓰는 법> <편애하는 문장들> <요즘 사는 맛2(공저)> <일기를 문장군 store.kakao.com/doorgeneral 톡스토어 문장군에서 다양한 상품을 둘러보세요. 사이트 더보기
100.daum.net 백과사전 문장 생각이나 감정을 말과 글로 표현할 때 완결된 내용을 나타내는 언어단위. | 내용 문(文) 또는 월이라고도 한다. 문장이라는 용어에는 두가지 개념이 있다. 하나는 문자언어로 표현된 수사학적 단위라는 개념이고, 다른 하나는 문법학적 단위라는 개념이다.... 백과사전 검색 더보기 출처: 한국민족문화대백과사전 namu.wiki 문장 - 나무위키 되었다. 지금도 과거 쓰는 법이 남아서 글을 잘 쓰는 사람을 문장가(文章家)라고 한다. 더 간결하게는 문장(文章) 자체로 글 잘 쓰는 사람이라는 뜻으로 쓰기도 했다. "한퇴지는 당송팔대가의 이름난 문장이었다... 文章 紋章 사이버문학광장 문장 2023.08.25 웹문서 검색 더보기 나라문장 - 나무위키 문장황태후 - 나무위키
cafe.daum.net *여성시대* 차분한 20대들의 알흠다운 공간 갤럭시 업데이트되고나서 너무 신기한 번역+문장 다듬기 AI 기능 11 버튼(맨 왼쪽 빛나는 표시) 누르면 이렇게 뜨는데 대화 번역 누르면 카톡 실시간으로 번역해줌 심지어 이전에 보냈던 카톡 내용들도 다 번역해줌 또 신기한건 문장 스타일 기능 내가 빡대가리처럼 말해도 이렇게 다듬어줌 소셜버전 어이없지만ㅋㅋㅋㅋㅋㅋㅋㅋ 전문적 편안 공손 기타 기능이 있음 그리고 맞춤법 검사도... This is the best. What? I don't know what this is. I did it today, too. That's amazing. I want to try it, too. It's so fascinating. 더보기 2024.04.07 카페 검색 더보기 이 문장을 자기 말투로 적어보시오. 다들 좋아하는 K-POP 가사 한문장씩 말해보자 .twt dandora-90.tistory.com Dandora.Blog.Ninety 문장 Vector 작업 13 □ Vector 화 작업 : 텍스트 문장을 숫자 벡터로 변환하는 과정을 말함. 자연어 처리에서 텍스트 데이터를 다룰 때, 컴퓨터가 이해할 수 있는 형태로 변환해야하며 이를 위해 텍스트를 숫자로 표현하는 여러 가지 방법이 있음. ○ BOW (Bag of Words) - CountVectorizer는 Python의 scikit-learn 라이브러리에 포함된... one hot encoding 문장 vector 작업 vector화 bow 란 tfidf란 tf-idf란 tf란 idf란 keras 벡터화 데이터 sequences화 2024.05.01 블로그 검색 더보기 cafe.daum.net 소울드레서 (SoulDresser) 제일 좋아하는 영어 문장이나 영화 대사 말해봐요 2 소울드레서는 우리가 만들어가는 소중한 공간입니다. 댓글 작성 시 타인에 대한 배려와 책임을 다해주세요. 저는 You had me at hello. 제리 맥과이어에 나온 대사 제일 좋아해요 다들 출처도 써주세요! Just do it - nike ㅋㅋ I like just as you are. 왕겜 What do we say to the God of Death? Not today shall i compare thee to a summer's day? You complete me 더보기 2024.03.15 다들 좋아하는 K-POP 가사 한 문장씩 말해보자 [bl 비엘] 24년도에 재밌게 읽은 소설의 첫 문장 써보기 table.cafe.daum.net 다양한 분야 정보 공유하기 문장을 깔끔하게 쓰는 9가지 팁 1. 지긋지긋한 접속사, '및' 문장을 고치면서 가장 많이 접하는 단어 중 단연 1등은 '및'이라는 접속사다. 이를테면 다음과 같다. (나쁜 예) 타부서 및 타기관의 요청에 대하여 신속 및 정확한 대응 및 방안을 제시한다. 무슨 말인지 대략 알겠는데, 여러 번 읽어봐야 정확한 뜻이 들어오는 문장이다. '및'을 남발했기 때문이다. '~와(과)'나 '~하고'라고 하면 될 문장에 '및'을 여러... 2024.04.15 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 갓기획 커리어 분야 크리에이터 보고서의 문장부호 제대로 쓰기 보고서 문장을 쓰다 보면 내가 설명하고자 하는 내용이 지나치게 길어져서 이해하기도 어렵고 복잡해 지는 경우가 있습니다. 이때 글자 대신 기호를 활용해 보는 것도 좋은 방법이 됩니다. 보고서에 등장하는 기호 표현은 여러 가지가 있지만, 간결한 문장을 쓰기 위해서 통상적으로 많이 쓰이는 기호는 → (화살표... 브런치북 보고서의 문장들 보고서 문장 기호 2024.05.05 브런치스토리 검색 더보기 deepdata.tistory.com 통계학 세상 문장 생성의 성능평가 지표2 - bleu score 1. precision과 recall의 문제점 정답문장에 대해 2개의 모델로 예측문장을 얻었다고 해보자. 두번째 모델로 만든 문장의 경우 모든 단어가 정답문장 단어와 매칭이 되는데 순서가 전혀 맞지 않는다는 것이 문제다. 그럼에도 불구하고 precision과 recall은 100% 때로는 언어에서 순서는 매우 중요한데 단어만 맞췄다고 완벽한 번역이라고 볼수있을까? precision과 recall, f-measure는 계산방식으로부터 알 수 있겠지만 오직 부합하는 단어의 수에만 집중하기 때문에 순서정보를 전혀 반영하지 않는다는 것이 문제다. 2. introduction bleu score는 순서를 반영하지 않는다는 precision과 recall의 문제점을 개선하고자 등장했다. 기계번역의 결과와 사람이 번역한 결과가 얼마나 유사한지 측정하고자 도입했다. precision을 더 중요시했다. ‘I love this movie very much’를 번역하면 ‘나는 이 영화를 정말 많이 사랑한다’가 정확한 번역인데 ‘정말’을 없애 ‘나는 이 영화를 많이 사랑한다’로 번역해도 사람들은 충분히 만족한다. precision 관점에서 100%, recall 관점에서 5/6 3. 정의 기계 번역 결과와 정답 문장 사이에 N-gram 겹치는 단어의 수를 count하여 기계 번역한 단어의 수로 나눈 precision_N N은 1부터 4까지 전부 구한다. 4까지 구하는 이유는 처음 논문에서 제안한 것으로 사람들이 자기들이 생각하기에 번역 결과를 평가하는데 최대 n-gram의 수는 N=4라고 생각해서 그런것 같다. 그런데 직관적으로도 N이 매우 크면 정답 문장과 기계 번역 결과 사이에 겹칠 확률이 급격히 낮아져 구할 필요가 없어진다. 그리고 precision이 맞춘 단어의 수를 예측 문장의 길이로 나눈다는 점에서 예측 4. 예시로 이해하는 계산하는 방법 2-gram의 경우 어떻게 계산하는지 생각해보자. 2개의 연속된 단어쌍을 prediction 1 문장에서 구해보면 (half,as) , (as,my), (my,heart), (heart,is), (is,in), (in,obama), (obama,ooh),(ooh,na)로 8개 정답 문장에서 2-gram을 구해보면 (half,of) , (of,my), (my,heart), (heart,is), (is,in), (in,havana), (havana,ooh),(ooh,na),(na,na) 9개 예측문장에서 정답문장과 비교할때 일치하는 g 5. BLEU의 단점 일단 위 예시에서 1-gram이 100%인데 score로 0을 준다는 것은 분명 아쉬운 부분 BLEU가 오직 n-gram사이 정확히 매칭되는 경우만 count한다는 점이 하나의 아쉬운 부분이다. 위에서도 언급했지만 ‘i love this movie very much’를 번역하여 ‘나는 이 영화를 정말 많이 좋아한다.’와 ‘나는 이 영화를 너무 많이 좋아한다.’로 할 수 있다. 그런데 (‘정말’,’많이’)와 (‘너무’,’많이’)는 어느정도 비슷하다고 볼 수 있는데 다르다고 count해버리면 아쉬운 부분이다. 이것에 주목하여 유사도를 6. BLEU score 다른 설명 논문에서 처음 제안한 식은 위에서 배운 식과는 조금 다르다. 구하는 precision 방식도 다르다. 가장 먼저 위에서 배운 precision은 단순 unigram precision인데 예측문장과 정답문장사이 순서에 무관하게 매칭된 단어의 수를 예측문장의 길이로 나눈것이다. The primary programming task for a BLEU implementor is to compare n-grams of the candidate with the n-grams of the reference translation and count 9 기계 번역 결과와 정답 문장 사이에 N-gram 겹치는 단어의 수를 count하여 기계 번역한 단어의 수로 나눈 precision_N N은 1부터 4까지 전부 구한다. 4까지 구하는 이유는 처음 논문에서 제안한 것으로 사람들이 자기들이 생각하기에 번역 결과를 평가하는데 최대 n-gram의 수는 N=4라고 생각해서 그런것 같다. 그런데 직관적으로도 N이 매우 크면 정답 문장과 기계 번역 결과 사이에 겹칠 확률이 급격히 낮아져 구할 필요가 없어진다. 그리고 precision이 맞춘 단어의 수를 예측 문장의 길이로 나눈다는 점에서 예측 recall NLP precision 자연어 평가지표 N-gram bleu 딥러닝 기계번역 Unigram 2024.04.24 티스토리 검색 더보기 story.kakao.com 우표포털 우표포털 - 카카오스토리 5 싶다." - 손현녕 '이토록 안타까운 나에게' ============================= 몇 년 전 읽은 책 속의 문장인데 다시 읽어도 좋네요. 책을 읽고 울림이 있는 문장들을 저장해두는 편인데, 하나씩 소개해 드릴까 해요... 2024.04.30 카카오스토리 검색 더보기 커리어 크리에이터 보기
문장 영화배우 Wen Zhang 출생 1984년 6월 26일, 중국 시안 가족 배우자 마이리 학력 북경 중앙연극학원 졸업 프로필관리 인물정보 더보기 활동정보 영화 방송 측황인 2021. 팻 에이전트 2020.01.23. 1945 항일전쟁 2020. 미인어 2017.02.22. 봉신연의: 영웅의 귀환 2016.09.22. 양귀비 : 왕조의 여인 2016.03.03. 육요지마리 감독, 각본/스텝 2016. 불이신탐 왕부얼 역 2015.03.05. 서유기 : 모험의 시작 진현장 역 2015.02.05. 길 위에서 특별출연 2014. 더보기 사십구일·제 일본관군 역 2014. 초사남사 시즌 3 출연 2014. 소파파 우과 역 2013. 나혼시대 유역양 역 2011. 애재일월담 맹정 역 2009. 분투 샹난 역 2007.
서비스 안내 Kakao가 운영하는 책 서비스 입니다. 다른 사이트 더보기 안데르센, 잔혹동화 속 문장의 기억(Andersen, Memory of Sentences) 저자 안데르센 출간 2024.5.7. 도서 16,920원 버지니아 울프, 문장의 기억(양장본 초판 버지니아 사인 인쇄본) 출간 2024.1.15. 도서 15,750원 죽음이 물었다, 어떻게 살 거냐고 저자 한스 할터 출간 2023.12.25. 도서 16,020원 e북 11,250원 그대 늙어가는 것이 아니라 익어가는 것이다 저자 오평선 출간 2022.12.21. 도서 14,220원 e북 9,900원 초등 문해력 한 문장 정리의 힘 1: 초등 2~3학년 저자 메가스터디 초등국어교... 출간 2021.5.31. 도서 8,910원 무기가 되는 스토리 저자 도널드 밀러 출간 2018.9.30. 도서 13,320원 e북 9,330원 꽃길이 따로 있나, 내 삶이 꽃인 것을 저자 오평선 출간 2024.3.22. 도서 15,120원 e북 10,530원 다산, 어른의 하루 저자 조윤제 출간 2022.11.2. 도서 18,000원 내 문장이 그렇게 이상한가요? 저자 김정선 출간 2016.1.24. 도서 10,800원 e북 7,560원 좋은 문장 표현에서 문장부호까지! 저자 이수연 출간 2024.2.15. 도서 16,200원 e북 14,580원 더보기 (주)카카오는 상품판매의 당사자가 아닙니다.법적고지 안내 (주)카카오는 통신판매중개자로서 통신판매의 당사자가 아니며 상품의 주문 배송 및 환불 등과 관련한 의무와 책임은 각 판매자에게 있습니다.
사이트
뉴스
장소
이미지
쇼핑
오늘의 숏
- 00:39[이 시각 세계] 문장 입력하면 영상 '뚝딱'‥중국 판 영상 생성 AI
- 00:57한 문장만 말하고 26년 동안 돈을 받는 남자
- 00:50지금 힘들다면 꼭 필요한 인생 문장
- 00:42한국인 국룰 레전드 문장
- 00:57이동진 평론가의 문장 뽑는 비결
- 01:22두 문장으로 영상 뚝딱 AI 전쟁의 시작, 전 세계 자금 빨아들이는 AI
- 00:43아이폰_단축어로 긴 문장 빠르게 보내기
- 01:06송바오가 곧 떠날 푸바오에게 쓴 미공개 편지.. 모두를 눈물짓게 한 '마지막 한 문장' #푸바오 #판다 #송바오
- 00:581억을 모을 수 있게 해준 책 속의 문장 #세이노의가르침 #돈의속성