검색 본문
namu.wiki 논문 - 나무위키 2 고쳐쓰기' 순서로 진행된다. 대학 학부과정의 리포트랑 구성이 흡사하다. 한 마디로 대학의 리포트는 논문의 기초를 다지는 것이다. 주장 내용 선정하기 과정에서는 실제로 주관적이면서도 사회문화적 맥락속에서... 개요 설명 통상적으로 적용되는 규칙 형식 분량 공동연구 (Co-work) 논문의 종류 교육과정별 특징 2024.05.24 웹문서 검색 더보기 송유근 논문 표절 사건 - 나무위키 존 마크 램지어 위안부 논문 게재 논란/학문적 진실성 위반 - 나무위키
cafe.daum.net *여성시대* 차분한 20대들의 알흠다운 공간 돈 없고 나가기 귀찮고 교양 쌓고 싶을 때 전 논문 읽어요 로판논문 게이논문도 있다구요 14 출처 : 여성시대 극세사사 제목만 보고 도망가지마 제발 진짜 생각보다 재밌는 논문 개많단말야 돈 없고 책 읽기 싫을 때 침대에 누워서 재밌는거 보는 법 알려줌 일단 riss 들어가 아는 사람은 알겠지만 학술자료들 탑재되는 곳이야 요기요기가 아주 보물단지임 이렇게 내가 관심있는 키워드 검색하면 관련 논문들이... 와 진짜 흥미돋…! 이따 읽어봐야지 와 ㅋㅋㅋㅋㅋ 재밌겠다 고마워! ㅋㅋㅋ시간잘가겟다 고마워ㅐ 대박 이렇게 다양하게... 신기하다 완전 흥미로워 고마워 ㅋㅋㅋㅋ 나 전기가오리랑 리스 같이 시작했다… 양질의 출퇴근 시간 활용이다 진짜 고마워!!!! 더보기 2024.02.25 카페 검색 더보기 dalpo0814.tistory.com deeep [논문 리뷰] LLaVA, LLaVA-1.5 20 paper들이 조금씩 나오고 있답니다. 그 중 가장 많이 알려져있으며 활발히 연구 활동을 이어가고 있는 University of Wisconsin-Madison의 LLaVA, LLaVA 1.5 논문을 소개해드리려고 합니다. 일단 몇 개 샘플 먼저 확인해볼까요? 사용한 모델은 현재 LLaVA demo page 에서 확인할 수 있는 가장 최신 모델인 llava-v1.6... 논문리뷰 Multimodal LLaVA llava-1.5 llava-next visual language model chatgpt-4o 2024.05.29 블로그 검색 더보기 [논문 리뷰] KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents v.daum.net 경남도민일보 영산대, 조리학회 학술대회 우수논문상 - 콘텐츠뷰 총장 부구욱·와이즈유)는 외식경영학과 학부생들이 한국조리학회 춘계학술대회에서 우수논문상 2편, 장려상 2편 등 논문상 4개를 받았다고 30일 밝혔다. 영산대는 더 많은 학생이 전문성을 키워 역량을 인정받을... 2024.05.30 hyeon827.tistory.com Data Science Study [X:AI] Taskonomy 논문 리뷰 23 Taskonomy: Disentangling Task Transfer Learning 논문 원본 : https://arxiv.org/abs/1804.08328 발표 자료 Taskonomy: Disentangling Task Transfer Learning Do visual tasks have a relationship, or are they unrelated? For instance, could having surface normals simplify estimating the depth of an image... 2024.05.21 [X:AI] Mask R-CNN 논문 리뷰 [X:AI] EfficientNet 논문 리뷰 aigaeddo.tistory.com 이게또오류 [논문 리뷰] Mask R-CNN Instance segmentation segmentation기법에는 semetic segmentation과 Instance segmentation가 있습니다. sementic segmentation은 객체의 카테고리 자체를 구분하지만 객체의 Instance 자체는 구분하지 않습니다. Instance segmentation은 객체의 종류뿐만 아니라 Instance까지 구분합니다. 예를들어 sementic segmentation은 cube 3개를 하나로 묶어 segmentation하지만 instance segmentation은 같은 종류의 cube라도 각각의 객체로 분 Mask R-CNN Mask R-CNN은 Object instance segmentation task에 일반적으로 사용한다고 합니다. 메인 아이디어는 Faster R-CNN에 segmentation mask를 예측하는 mask branch를 추가한 것입니다. 이로서 Faster R-CNN의 바운딩 박스 단위의 디텍팅을 좀 더 정교하게 fixel 단위로 잘라 객체를 탐지합니다. 1. Mask branch 아래 그림은 Faster R-CNN의 구조입니다. 다시 간단히 Faster R-CNN 구조에 대해 되짚어보자면 원본 이미지를 받아 pre-trained 모델을 거쳐 feature map을 생성합니다. 해당 feature map은 3x3 conv 층을 거친 후 1x1 conv층을 거쳐 각 classifiaction에 훈련될 feature map과 bounding box regressor에 훈련될 feature map으로 나누고 Region proposal를 진행합니다. 이 region proposal은 ROI pooling되어 Fas 2. RoIAlign 기존 Faster R-CNN에서의 RoIPooling에서의 동작을 보면 CNN을 통과한 feature map에서 sub-samping ratio 된 region을 projection해주고 얻어낸 RoI를 Pooling해줘 원하는 크기의 feature map을 얻어냅니다. 아래의 그림에서 보면 16x16 feature map에 200x145의 region을 뽑아내고 sub -sampling ratio을 32로 줘서 4.53, 6.25로 만들어 주었습니다. 다만 1픽셀 단위에서 소수점은 픽셀 이하 값이므로 분할이 불가해 4.53, 6. 3. Loss Function Faster R-CNN과 동일하게 Multi-task loss형태입니다. 다만 Lmask 로스가 추가되었습니다. Lmask는 binary cross entropy loss입니다. feature map의 각 cell에 sigmoid function을 적용한 후 loss를 구합니다. 여기서 softmax 가 아닌 sigmoid를 적용한 이유는 Lcls에서 객체의 종류에 대해 loss를 진행하고 분류하기 때문에 mask에서는 객체의 유무에 대한 이진분류만 처리하면 되기 때문입니다. 4. Backbone network Mask R-CNN은 Backbone으로 ResNet-FPN 모델를 사용했습니다. 5. Training Mask R-CNN 전체적인 구조는 Faster R-CNN을 기반으로 합니다. 하지만 FPN이 추가되었고 이미지, feature map에 대한 전처리, 후처리를 진행한다고 합니다. 1) input image preprocessing 이미지에 대한 전처리입니다. target size의 디폴트값은 800, maximum size 는 1333 입니다. 원본이미지의 width, height 중 짧은 쪽이 target size로 resize되고 큰 사이즈는 ratio rate로 조절됩니다. 만약 긴쪽이 maximun size보다 큰 경우 maximun size 7. 결과 RseNeXt-101-FPN을 backbone network로 사용하고, COCO 데이터셋을 학습에 사용하면서 AP값이 37.1까지 보였다고 합니다. 이는 당시 성능이 가장 좋았던 ResNet-101-C5-dilated backbone을 사용한 FCIS+++ +OHEM 모델보다 2.5%가 더 높은 결과입니다. 25 segmentation기법에는 semetic segmentation과 Instance segmentation가 있습니다. sementic segmentation은 객체의 카테고리 자체를 구분하지만 객체의 Instance 자체는 구분하지 않습니다. Instance segmentation은 객체의 종류뿐만 아니라 Instance까지 구분합니다. 예를들어 sementic segmentation은 cube 3개를 하나로 묶어 segmentation하지만 instance segmentation은 같은 종류의 cube라도 각각의 객체로 분 2024.05.13 [논문 리뷰] Faster R-CNN [논문 리뷰] Fast R-CNN 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 노이의 유럽일기 라이프 분야 크리에이터 논문 주제는 게임입니다 3 주다. 화요일의 노을 © 2024 noi 이번 주는 정말 학생으로서 바쁜 한 주였다. 지난 학기도 바쁘고, 과제도 많았지만, 이번 학기가 유난히 새롭게 느껴지는 건 아마 논문 때문인 것 같다. 이번 주는 3일 연속 논문을 위한 콜로키움 수업이 있었다. 각자 자기 논문에 대한 계획을 짧게 발표하고 자유롭게 토론하거나 교수... 브런치북 두번째 학사는 독일에서 논문 게임 유학 2024.04.14 브런치스토리 검색 더보기 dangingsu.tistory.com 단깅수 기술 블로그 MT-DNN 논문 리뷰 [2] Tasks 다음은 Task입니다. MT-DNN은 총 9가지의 GLUE Task에 대해 학습을 진행했습니다. 9가지의 GLUE Task를 크게 4가지로 또 분류하였고 그 4가지가 아래 사진의 왼쪽에 나와 있는 4 항목입니다. 2-1. Single-Sentence Classification Task1. Single-Sentence Classification 첫 번째로 Single-Sentence Classification을 수행했는데 이는 하나의 문장이 주어졌을 때 문장의 Class를 분류하는 Task입니다. 대표적으로 COLA, SST-2 Ta [3] Model Architecture MT-DNN Model Architecture 다음은 모델 Architecture & Training 부분입니다. MT-DNN은 크게 Shared Layers와 Task Specific Layers로 구성되어 있습니다. 모델 학습 시에는 무작위로 특정 Task의 Data를 Batch로 뽑아서 학습시켜주었고 이렇게 된다면 아래에 있는 Shared Layers는 계속 반복해서 학습이 되겠죠. 이러한 발상은 스키를 잘타는 사람이 그렇지 않은 사람보다 보드를 잘 탈 가능성이 높다는 생각으로 이렇게 했다고 합니다. 그리고 추가적으로 Lexi [4] Experiments Experiment1. GLUE Score 다음은 실험 부분입니다. 첫 번째 실험은 MT-DNN이 9가지 GLUE Task에 대해 학습을 시켰다고 위에서 얘기했습니다. 그에 대한 성능 평가이고 전체 총 Score는 BERT보다 약 2.2% 상승했구요. 이 표에서 검은색 Bold체로 표시되어 있는 부분은 당시 SOTA를 달성한 분야이고, 파란색 Bold체로 표시되어 있는 부분은 인간보다 더 뛰어난 성능을 보여준 분야입니다. 사실 사람보다 더 좋은 성능을 냈다는 게 이번 논문 발표를 준비하면서 가장 신기했던 부분인데,,, 아무튼 그렇습 [5] Conclusions MT-DNN은 Multi-Task DNN의 약자로 다양한 Task의 Supervised Dataset을 활용해 학습을 진행 특정 Task가 아닌 다양한 Task의 Dataset을 활용하기 때문에 데이터 양을 충당할 수 있었음 '스키를 잘 타는 사람이 보드도 잘 탈 것이다!' 라는 생각에서 이 아이디어가 비롯됨 9개의 GLUE Task 유형을 학습시켰고, 이를 또 다시 4개의 Task로 나누어서 학습을 진행 Pairwise Text Classification Task에서 SAN(Stochastic Answer Network) [6] References https://www.youtube.com/watch?v=wyQnuXmXOAs https://y-rok.github.io/nlp/2019/05/20/mt-dnn.html https://arxiv.org/abs/1901.11504 https://www.youtube.com/watch?v=v7diENO2mEA&t=1971s 10 Experiment1. GLUE Score 다음은 실험 부분입니다. 첫 번째 실험은 MT-DNN이 9가지 GLUE Task에 대해 학습을 시켰다고 위에서 얘기했습니다. 그에 대한 성능 평가이고 전체 총 Score는 BERT보다 약 2.2% 상승했구요. 이 표에서 검은색 Bold체로 표시되어 있는 부분은 당시 SOTA를 달성한 분야이고, 파란색 Bold체로 표시되어 있는 부분은 인간보다 더 뛰어난 성능을 보여준 분야입니다. 사실 사람보다 더 좋은 성능을 냈다는 게 이번 논문 발표를 준비하면서 가장 신기했던 부분인데,,, 아무튼 그렇습 논문 NLP AI Bert 자연어처리 딥러닝 DNN rnn 논문리뷰 MT-DNN 2024.05.23 티스토리 검색 더보기 story.kakao.com 글로빛 논문컨설팅 글로빛 논문컨설팅 - 카카오스토리 안녕하세요 논문컨설팅 글로빛 입니다! 점심 맛있게 드셨을까요? 오늘부터 비가 오기시작해서 다음주는 기온이 확 떨어진다네요 ㅠㅠ 여러분들 건강관리 유의하시면서 논문작성 하셨으면 좋겠습니다^^ 오늘은... 2024.01.24 카카오스토리 검색 더보기 라이프 크리에이터 보기
서비스 안내 Kakao가 운영하는 책 서비스 입니다. 다른 사이트 더보기 제대로 알고 쓰는 논문 통계분석: SPSS & AMOS 21 저자 노경섭 출간 2014.2.7. 도서 24,000원 법과 등대 (판례와 논문 개정판) 저자 법학박사 이성철 출간 2021.11.11. 도서 24,700원 딱! 30일 만에 논문 작성하기 저자 김진수 출간 2020.12.5. 도서 16,910원 e북 16,020원 논문 작성 연습 저자 이윤진 출간 2019.5.30. 도서 16,150원 한번에 통과하는 논문 세트(전3권) 저자 히든그레이스 논문통계팀 출간 2021.1.8. 도서 76,500원 논문자료 탐색과 논문작성법 저자 노영희, 박양하 출간 2015.8.30. 도서 25,000원 논문쓰기 절대 매뉴얼 저자 최은주, 권두순 출간 2014.9.1. 도서 9,900원 e북 6,600원 법학논문작성법 저자 홍영기 출간 2016.2.20. 도서 16,000원 박사학위(논문) 가이드 기술사 합격 방법서 저자 이성몽, 인포레버컨설팅 출간 2013.6.7. 도서 17,820원 철학에 대한 민주주의의 우선성(서양 철학의 논문들 3) 저자 리처드 로티 출간 2017.11.10. 도서 8,910원 더보기 (주)카카오는 상품판매의 당사자가 아닙니다.법적고지 안내 (주)카카오는 통신판매중개자로서 통신판매의 당사자가 아니며 상품의 주문 배송 및 환불 등과 관련한 의무와 책임은 각 판매자에게 있습니다.
장소
- 02-3444-0988
- 070-5103-1017