검색 본문
gall.dcinside.com mgallery thesingularity 한국 과학자 검증-논문 제목 선정적이니 가짜일듯ㅋㅋㅋ 멘트가 예술적ㅋㅋㅋ 2023.08.06 웹문서 검색 더보기 유학생 위붕이 졸업논문 작성 완료... 손글씨 숫자 이미지 데이터 (MNIST)의 분류 정확도가 약 94%로 cafe.daum.net 명지대학교 통합치료대학원 예술심리치료학과 2024-1 논문졸업예정자(3학차) 지도교수 선정 안내 않고 있사오니 꼭 해당 게시글에 댓글로 신청해주시기 바랍니다. *이 글은 논문지도교수 선정에 대한 안내이며 , 3월 4일 오전 10시에 ‘논문지도교수 선정 선착순 모집’ 라는 제목으로 새 글을 업로드 예정입니다. 해당 게시물에 댓글 신청 바랍니다. 논문졸업에 관하여 궁금한 사항이 있으신 분들은 학과사무실(02... 2024.02.23 카페 검색 더보기 2023-2 논문졸업예정자(3학차부터) 지도교수 선정 안내 2022-1 논문졸업예정자(3학차) 지도교수 선정 안내 blog.naver.com GoTee Note [논문 작성법] 1. 논문 작성 시작하기 : 주제 선정, 제목 선정 주제를 선정해야만 후에 글을 쓸때 어려움이 없다. 2.위의 주제를 명확하게 나타낼 주제 문장 설정하기(제목) 이렇게 선정한 주제문장은 잘 다듬어 논문의 제목으로 선정한다. 3.독창성 있는 주제를 선정하기 (대회 등에 제출해야 하는 글이라면) 대학을 포함한 다양한 기관에서 주최하는 경진대회인 경우 독창성... 2023.12.31 블로그 검색 더보기 namu.wiki 논문 - 나무위키 2 내용 선정하기 과정에서는 실제로 주관적이면서도 사회문화적 맥락속에서 실현이 가능해야 하며, 그것을 뒷받침하는 근거는 객관적이며, 타당성이 있어야 한다. 주제와 통일성과 응집성 등 주장과 근거의 필수적... 개요 설명 통상적으로 적용되는 규칙 형식 분량 공동연구 (Co-work) 논문의 종류 교육과정별 특징 2024.05.14 전체보기 서울대학교 표절 논문 CVPR 투고 사건 - 나무위키 논문/쓰는 법 - 나무위키 blog.naver.com 우당탕탕 으니몬 중국어로 논문 쓰기 3 (논문 제목 선정) 간단하게 다시 정리하면 1. 먼저 비교적 광범위한 연구 방향을 정한 다음, 천천히 범위를 축소시킨다. 2. 타당성이 있는 논제, 마지막으로 선정된 논제를 바탕으로 논문 제목(표)을 작성한다.(标题、题名) 3. 선택 문제가 너무 광범위해서는 안 되며, 가능한 한 구체적인 작은 문제를 선택하여 연구를 진행하도록... 2022.08.22 yeonjinj.tistory.com yeonjin [리뷰 논문] 리뷰 논문(review paper) 읽는 법 논문들을 정리해 놓은 것임으로 최근 것이 좋고, 영향력 지수(Impact Factor)가 높은 저널에 게재된 논문일수록 좋습니다. 논문 정하는 법 논문의 제목과 Abstract를 보며 연구 분야에 알맞은 논문을 선정, 논문의 제목을 복사 구글에 sci-hub을 검색해서 사이트에 접속 후, 복사한 논문의 제목을 붙여 넣기 한 뒤 Save... 논문 논문읽기 논문읽는법 리뷰논문 2024.04.02 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 fornewchallenge.tistory.com 인공지능 활용 정보 공유 [AI 논문] 올해의 한국어 LLM에 선정된 야놀자 언어 모델, EEVE 어휘 확장 방법 이 논문에서 제안한 어휘 확장 방법은 다음과 같은 주요 내용과 동작 원리를 갖추고 있습니다: 파라미터 동결 (Parameter Freezing): 기존 영어 중심 언어 모델(Solar10.7B, Phi-2)의 일부 파라미터를 학습 과정에서 고정시킴으로써 새로운 한국어 토큰을 효과적으로 학습할 수 있도록 돕습니다. 특정한 파라미터 그룹의 가중치 갱신을 멈추게 함으로써 해당 파라미터를 학습의 대상에서 제외시키므로써, 이전 언어에 대한 간섭과 손상을 최소화하고, 모델의 안정성을 유지하며, 새로운 언어의 특징을 충분히 학습할 수 있도록 돕 다단계 학습과정 다단계 학습 과정은 EEVE-Korean-10.8B-v1.0 모델의 어휘 확장을 위한 방법론을 제시합니다. 다음 그림에서 🔥와 ❄️ 이모지는 각각 훈련 가능한 파라미터와 동결된 파라미터를 나타냅니다. EEVE의 다단계 학습과정 1단계 (새로운 입력 임베딩): 새로 추가된 토큰의 입력 임베딩을 학습합니다. "입력 임베딩을 학습한다"는 말은 모델이 텍스트 데이터를 이해하고 처리할 수 있도록 단어를 벡터 형식으로 변환하는 과정을 의미합니다. 다른 모든 모델 매개변수를 동결시키고 새로운 토큰의 입력 임베딩만 학습합니다. 모델이 새로운 토큰 성능평가 결과 야놀자 언어 모델은 Open LLM Leaderboard에서 다양한 작업에 대해 평가되었으며, 각 작업에 대한 성능 지표가 포함되어 있습니다. 최신 결과는 다음과 같습니다. 측정 데이터셋 설명 값 평균 모든 평가 작업에 대한 평균 성능입니다. 66.48 AI2 Reasoning Challenge (25-Shot) 초등학교 수준 과학 시험 문제들을 포함하는 객관식 문항 응답 데이터셋으로, 25번의 학습을 통해 모델의 성능을 측정합니다. 64.85 HellaSwag (10-Shot) 95%이상의 정확도로 일반적인 사람들이 답 Benchmarks 비교 Benchmarks에서는 EEVE-Korean 모델의 성능을 평가하기 위해 KoBEST 벤치마크를 채택합니다. 이 벤치마크는 한국어로 번역된 언어 이해 과제를 제공하는데, 그중에는 불리언 질문 답변 (BQ), 상식적 인과 추론 (CP), 문맥에 민감한 단어 이해 (WIC), 상식적 추론 (HS), 그리고 감정 부정 인식 (SN)이 포함됩니다. EEVE-Korean-10.8B-v1.0은 유사한 크기의 사전 훈련 모델들보다 평균 성능이 우수합니다. 특히 EEVE-Korean은 영어 성능을 희생하지 않고 한국어 성능을 개선한 유일한 경우 GGUF 파일 다운로드 먼저, 아래 허깅페이스 모델페이지에서 ggml-model-Q4_K_M.gguf 파일(6.5GB)을 다운로드합니다. Q5 버전도 있지만 더 많은 시스템 리소스를 요구하므로 본인의 컴퓨터 사양에 맞게 다운로드하면 됩니다. https://huggingface.co/heegyu/EEVE-Korean-Instruct-10.8B-v1.0-GGUF/tree/main heegyu/EEVE-Korean-Instruct-10.8B-v1.0-GGUF at main huggingface.co EEVE-Korean-10.8B 허깅페이스 모델페이지 Modelfile 작성 다음은 모델파일 작성단계입니다. 이 파일은 모델의 청사진으로, 가중치, 매개변수, 프롬프트 템플릿 등을 지정하는 역할을 합니다. Ollama 윈도우 버전이 설치된 상태에서 아래 내용을 복사해서 파일이름을 Modelfile로 설정하고 위 단계에서 EEVE 모델을 다운로드한 디렉토리에 저장합니다. FROM ./ggml-model-Q4_K_M.gguf TEMPLATE """[INST] {{ .System }} {{ .Prompt }} [/INST]""" PARAMETER stop "[INST]" PARAMETER stop "[/INST] Ollama 로컬 언어 모델 생성 다음은 전단계에서 만든 모델 파일을 이용해서 Ollama 로컬 언어 모델을 생성하는 단계입니다. 윈도우 명령어 프롬프트에서 "ollama create modelname -f Modelfile"를 입력하여 로컬 언어 모델을 생성합니다. modelname은 원하는 이름으로 설정할 수 있습니다. 저는 모델이름을 "EEVE-Korean-10.8B"으로 설정하였습니다. Ollama 로컬 언어 모델 생성 모델 생성이 완료되면 아래 화면과 같이 "ollama list" 명령을 통해 확인할 수 있으며, "ollama run EEVE-Korean- Ollama UI, LM Studio 대화 다음은 Ollama UI 및 LM Studio를 통해 EEVE-Korean-10.8B와 대화를 해보겠습니다. 먼저, Ollama UI는 크롬 브라우저 확장기능을 활용한 오프라인 대화 인터페이스로 아래 이전 포스트를 참고하시면 설치방법을 확인하실 수 있습니다. 2024.04.10 - [대규모 언어모델] - Dolphin 2.8: 무엇이든 대답하는 무검열 Mistral 최신 모델과 오프라인 대화(크롬 브라우저 Ollama UI Dolphin 2.8: 무엇이든 대답하는 무검열 Mistral 최신 모델과 오프라인 대화(크롬 브라우저 Oll 15 이 논문에서 제안한 어휘 확장 방법은 다음과 같은 주요 내용과 동작 원리를 갖추고 있습니다: 파라미터 동결 (Parameter Freezing): 기존 영어 중심 언어 모델(Solar10.7B, Phi-2)의 일부 파라미터를 학습 과정에서 고정시킴으로써 새로운 한국어 토큰을 효과적으로 학습할 수 있도록 돕습니다. 특정한 파라미터 그룹의 가중치 갱신을 멈추게 함으로써 해당 파라미터를 학습의 대상에서 제외시키므로써, 이전 언어에 대한 간섭과 손상을 최소화하고, 모델의 안정성을 유지하며, 새로운 언어의 특징을 충분히 학습할 수 있도록 돕 대규모 언어 모델 LM Studio 야놀자 EEVE 한국어 LLM 다단계 학습 Ollama UI 2024.04.13 티스토리 검색 더보기 story.kakao.com 이준원 이준원 - 카카오스토리 7 클래스는 사실은 대단히 어려운 시간들이었습니다. 왜냐하면 학생들이 각자 자신이 쓰고 싶은 논문제목을 선정해야했고- 이것부터 어려웠던 ㅠ 그에 따라 연관된 책과 논문들을 읽고 무엇보다 실제적으로 자신의... 2023.12.14 카카오스토리 검색 더보기 brunch.co.kr 라우드소싱 [아이디어 공모전] 생명평화아시아연구논문 공모 3 활동가, 비정규교수) 또는 재학증명서(대학생, 대학원생) - 연구계획서 * 분량: A4 3매 이내 * 내용: 제목, 연구목적, 잠정목차, 참고문헌 포함 ※ 서류 보낼 곳...사항] - 심사 결과 적합한 연구계획서가 없을 경우 선정하지 않을 수 있다. - 선정된 연구논문을 학술지에 게재할 경우 사단법인 생명평화아시아의 지원을... 공모전 연구논문 공모 2024.04.03 브런치스토리 검색 더보기