검색 본문
blog.naver.com 나무다듬터 연애편지 _ 사랑을 학습하다 "함께 누우면 언제나 나는 당신에게 말했지요, '다른 사람들도 우리처럼 서로 어여삐 여기고 사랑할까요? 남들도 정말 우리 같을까요?'" 16세기에 안동 유생 이응태의 부인 '원이 어머니'가 남편 무덤에 넣은 한글 편지의 한 구절이다. 산 사람에게 보낸 것이라면 연애편지라고 하겠지만, 죽은 사람에게 보낸 편지이니... 2024.05.31 블로그 검색 더보기 namu.wiki 習 - 나무위키 習은 '익힐 습'이라는 한자로, '익히다', '배우다', '버릇' 등을 뜻한다. 간체자 习 개요 상세 용례 유의자 상대자 모양이 비슷한 한자 2024.04.11 웹문서 검색 더보기 기간트(만화) - 나무위키 라틴어 - 나무위키 blog.naver.com 이화여자대학교 블로그 [이화여대] 유아교육과 교수인솔 해외학습 프로그램, 영국에서 유아 언어교육을 학습하다! 18 안녕하세요, 이화인 여러분! 이화에서는 이화인들의 글로벌 역량 강화를 위해 #이화HUAP, #이화글로벌프론티어, #교수인솔해외학습프로그램 등 다양한 글로벌 프로그램이 진행되고 있습니다. 특히, '교수인솔 해외학습 프로그램'은 재학생과 전공 교수님이 방학 동안 해외 대학과 기관 등을 방문하여, 다양한 수업과... 2024.04.08 gall.dcinside.com mgallery aoegame 기술의 특이점... 출시하지 않은 게임을 ai가 학습하다 해당게임은 출시하기도 전에 피규어가 먼저 나와서 큰 논란이 되었다 2024.05.09 전체보기 우으 슾부이 램학습하다 뒤진거같음 바이오스조차못들어가 - dc official App 학습하다보니 그냥 귀 달린 구라 나오네 https://www.twitch.tv/niniaovo Twitch Twitch is the world's leading video platform and community for gamers. www.twitch.tv 구라임 blog.naver.com 읽고 쓰고 상상하는 창구 학습을 학습하다 오랜만에 책을 집어들었다. 유럽여행을 다녀온 후 2주의 시간동안 방황하였다. 나는 어떻게 살아야하나. 어떤 방향이 손해를 덜 보는 방향일까. 결국 머리가 맑아질 때까지 스스로를 힘들게 했지만 마음을 다잡고 앞을 바라보기로 했다. 원래의 루틴으로 돌아오게 된 것이다. 돌아오면서 다짐했다. 다시 하루에 30... 2024.01.26 blog.naver.com 수학여우 1권역 수학을 언어로 학습하다. 10 안녕하세요! 수학여우 입니다 수학을 언어로 학습하다. “수학은 숫자가 아닌 언어다.” 특별한 수학이 특별한 결과를 만드는 곳, 수학여우입니다. 수학여우의 수학은 특별합니다. 수학을 공식으로 암기하는 것이 아닌, 언어로써 학습합니다. 수학을 언어로 학습하는 그 중심에는 수학여우만의 독보적인 콘텐츠가... 2023.12.13 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 이재훈 IT 분야 크리에이터 빅테크 기업의 침략으로부터 나라를 지켜라 : 소버린AI 이 과정에서 AI 모델에 서구의 가치관이 내재화되어 다양성이 부족해질 우려가 있는데요. 최근에는 이를 극복하기 위해 오히려 다양성을 강조하여 학습하다 보니, 구글이나 메타 등에서 생산된 이미지들 중 일부는 역사를 왜곡하거나 실존 인물의 인종을 바꾸는 등의 다양성 과잉에 따른 이슈가 발생하기도 했습니다... AI 독점 IT 2024.03.11 브런치스토리 검색 더보기 yooniverse1007.tistory.com yooniverse [SK TECH SUMMIT 2023] LLM 적용 방법인 RAG VS PEFT, Domain 적용 승자는? 2. 사내 적용 시 Challenge Point 23년 2분기 ChatGPT 활용 PoC 사례 ✅ 2Q Azure 환경에서 ChatGPT에 RAG 아키텍처 적용해 사내 데이터 연동할 수 있는지 PoC 진행 ✅ 발견했던 문제는 크게 4가지 1️⃣ Fine Tuning 하기에는 상대적 cost가 큼 2️⃣ Hallucination 현상 방지하기 위해 prompt 잘 꾸미는 방법밖에 없음 3️⃣ 대부분 한국어로 답변 잘하는데, 가끔 영문으로 답변하는 사례 4️⃣ 최신 데이터 학습 못했기 때문에, ChatGPT가 알고 있는 정보의 특정 시점에 대한 한계 존재 ➡️ 해당 모델 외, 도메인 3. PEFT VS RAG PoC 소개 ✅ PoC 접근 방식 크게 2가지 1️⃣ Fine-Tuning 기반 PEFT 2️⃣ 검색 기반 RAG PoC 활용 내부 데이터 소개 ✅ (활용 데이터) 고객 상담원들이 업무 참고자료(매뉴얼)로 활용하는 데이터✅ (원천 데이터 크기) 원천 + 첨부 파일: 90GB ✅ (텍스트 정제) HTML 1.2만개를 텍스트, 표 , 이미지로 나눔✅ (학습 데이터) 텍스트, 표 정보만 별도 추출 ✅ 텍스트, HTML 활용해 RAG에서 활용할 chunk, PEFT에서 사용할 instruction 생성1️⃣ 각 데이터에서 텍스트, 테이블( PoC 활용 모델 소개 1️⃣ KoAlpaca ✅ sLLM 한국어 모델 중, 거의 baseline 격으로 많이 활용되고 있는 모델 2️⃣ KoVicuna ✅ sLLM에서 영어모델들까지 포함했을 때, 성능 가장 뛰어난 모델 ✅ KoAlpaca, KuLLM과 비교했을 때, 파라미터 수 상대적으로 적어 동등하게 비교하는 것은 의미 없을 것 같아 검토 단계에서 제외 3️⃣ KuLLM ✅ 고려대학교에서 개발한 모델 ✅ Polyglot-ko 기반으로 LoRA 기법으로 PEFT로 파인튜닝해 학습한 모델 PEFT? Fine-Tuning? ✅ 모델이 가지고 있는 전체 파 4. 결론 및 향후 계획 ✅ sLLM 모델과 RAG 아키텍처 결합해 어떻게 하면 성능 향상할 수 있는지 확인할 수 있는 PoC ✅ PoC 단계에서는 12.8B를 사용했는데, 추후 사내 적용에는 70B 등 큰 모델을 활용해 PoC 고려하고 있음 ✅ Instruction 품질 굉장히 중요. 데이터를 많이 타는 모델인 만큼 좋은 데이터가 있어야지 좋은 모델 나올 수 있음 ✅ RAG 아키텍처에서도 prompt 보강, embedding 모델에서 나오는 결과물과 질문에 대한 검색 알고리즘 보완해 추후 개선 계획 34 23년 2분기 ChatGPT 활용 PoC 사례 ✅ 2Q Azure 환경에서 ChatGPT에 RAG 아키텍처 적용해 사내 데이터 연동할 수 있는지 PoC 진행 ✅ 발견했던 문제는 크게 4가지 1️⃣ Fine Tuning 하기에는 상대적 cost가 큼 2️⃣ Hallucination 현상 방지하기 위해 prompt 잘 꾸미는 방법밖에 없음 3️⃣ 대부분 한국어로 답변 잘하는데, 가끔 영문으로 답변하는 사례 4️⃣ 최신 데이터 학습 못했기 때문에, ChatGPT가 알고 있는 정보의 특정 시점에 대한 한계 존재 ➡️ 해당 모델 외, 도메인 ai LLM PEFT RAG 업무효율화 2024.05.02 티스토리 검색 더보기 story.kakao.com sdb sdb - 카카오스토리 막내 학교에서체험학습하다. 다침 ㅠㅠ 2024.05.28 카카오스토리 검색 더보기 IT 크리에이터 보기
Studying the Planet objectfinder.tistory.com/ 티스토리 행성 '지구'를 학습하다. 트위터 @objectfinder 해피스터디 blog.naver.com/seeksiyeong 네이버 블로그 내아이 학습하다 웅진씽크빅에 푹 빠져버린 중2,초6 엄마입니다♡