검색 본문
서비스 안내 Kakao가 운영하는 책 서비스 입니다. 다른 사이트 더보기 Spatial Reasoning Tests - The Ultimate Guide to Passing Spatial... 출간 2014.7.5. 도서 18,920원 Reasoning 저자 Daniel C Kr... 출간 2018.1.16. 도서 49,000원 Reasoning 저자 Laden Antho... 출간 2012.9.5. 도서 56,700원 Reasoning 저자 Adler Jonat... 출간 2008.5.31. 도서 140,340원 Reasoning 저자 Jonathan E ... 출간 2018.7.27. 도서 91,880원 Reasoning 저자 Overton 출간 1995.11.12. A Legal-Political Model for Indirect Consequentialist Reasoning 저자 Johnson Con... 출간 2009.3.12. 도서 38,400원 비트겐슈타인처럼 사고하고 버지니아 울프처럼 표현하라 저자 에드워드 코벳, 로사... 출간 2011.11.30. 도서 13,500원 MCAT Critical Analysis and Reasoning Skills Review 2019-2020 저자 Kaplan Test... 출간 2018.7.1. 도서 43,500원 Reasoning Web 저자 Pan Jeff Z ... 출간 2017.2.26. 도서 77,770원 더보기 (주)카카오는 상품판매의 당사자가 아닙니다.법적고지 안내 (주)카카오는 통신판매중개자로서 통신판매의 당사자가 아니며 상품의 주문 배송 및 환불 등과 관련한 의무와 책임은 각 판매자에게 있습니다.
blog.outta.ai OUTTA AI Tech Blog [2024-1] 박태호 - Chain-of-Thought Reasoning Without Prompting Abstract LLM의 decoding 과정에서 CoT path를 찾음으로써 프롬프트 없이 효과적을 추론할 수 있다 decoding path에 CoT path 가 존재할 경우, 답변에 대한 신뢰도가 높아짐 다양한 reasoning benchmark에서 뛰어난 성능을 보임 Introduction 기존의 LLM은 다양하고 복잡한 Reasoning Benchmarks에서 성능을 입증 Chain-of-Thought (CoT) Chain-of-Thought (CoT)는 LLM의 추론을 유도하는 일반적인 방법 문제 해결의 중간 단계를 프롬프트로 제공해 Reasoning Path를 전달 결과적으로 LLM의 Reasoning Ability 향상 일반적으로 LLM의 Reasoning Ability를 향상 시키기 위해서는 Prompt 기법을 활용한 Intermediate step의 예시를 보여주는 few-shot prompting Inte Chain-of-Thought (CoT) Decoding 프롬프트 없이 LLM에 내제된 Reasoning Ability를 이끌어내는 방법 답을 도출하는 Decoding process에만 집중하는 방법론 기존의 Greedy decoding 대신, Top-k decoding 방식을 적용 Decoding추론 과정에 따른 Context를 입력으로 받아 사용자가 이해할 수 있는 단어로 변환하는 과정Greedy decoding특정 시점에서 가장 확률이 높은 후보를 다음 토큰으로 선택시간 상에서 복잡하지 않다는 장점최종 정확도가 높지 않다는 단점 (1등과 2등의 차이가 적다면 2등 후보가 정답일 가능 Experiments Experiment Setup 본 논문에서 사용한 Reasoning Benchmarks GSM8K초등학교 수준 수학 문제로 수학적 추론 & 문제 해결 능력 측정 Year Parity유명인의 이름을 랜덤으로 제공해 해당 인물이 태어난 연도를 even, odd 추론 Coin FlipCoin을 여러 차례 뒤집은 후 현재 상태 추론 Input format Question-Answer (QA) Top-k의 k=10으로 고정 Model PaLM-2 families : "So the answer is" 이후를 answer로 간주 M Conclusion and Discussion CoT 프롬프트를 사용하지 않고 디코딩 과정에서 CoT reasoning path를 찾는 CoT-decoding 방식 제안 CoT-decoding 방법은 최종 answer의 신뢰도 증가와 상관관계가 있음 디코딩 경로를 탐색하는 데 추가비용이 발생하므로, 모든 토큰에서 분기를 탐색해 경로를 찾는 경우 너무 비싸짐-> 때문에 추후 적절한 효율을 고려하여 branching 시점을 선택하는 연구가 진행되면 좋을 것 8 LLM의 decoding 과정에서 CoT path를 찾음으로써 프롬프트 없이 효과적을 추론할 수 있다 decoding path에 CoT path 가 존재할 경우, 답변에 대한 신뢰도가 높아짐 다양한 reasoning benchmark에서 뛰어난 성능을 보임 2024.05.11 블로그 검색 더보기 younhaxyz.tistory.com 데이터 분석 일지 [Paper Review] COT: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 17 arithmetic, commonsense reasoning, simbolic reasoning과 같이 단순한 모델의 scaling up만으로 성능이 향상되지 않는 task들을 잘 수행하기 위해 본 논문은 Chain-of-Thought를 제시한다. Chain-of-Thought는 natural language task의 결과를 도출하기 위한 추론 단계를 의미한다. 1. Introduction 당시까지는 모델을... Cot paper review Few-shot Prompting Chain-of-Thought reasoning ability arithmetic reasoning commonsense reasoning symbolic reasoning cot reasoning 11시간전 jik9210.tistory.com Memorize STaR: Self-Taught ReasonerBootstrapping Reasoning With Reasoning 4 STaR에 대해서 정리를 해보려고 한다. 쉽진않아.. Generating step-by-step "chain-of-thought" rationales improves language model performance on complex reasoning tasks like mathematics or commonsense question-answering. However, inducing language model rationale generation currently requires either... 직장인 STAR 인공지능 대학원 스터디 논문 SSL 논문발표 NLP 주말공부 2024.05.01 Chain-of-Thought Prompting Elicits Reasoning in Large Language Models lovemyfeather.tistory.com 少年と海 240510 크로스 스카우트·인텔리전스 / Reasoning 풀돌 후기 12 있더라고요 고마워요 프로듀서들 덕분에 언제나 외롭지 않아요 다음엔 누구 나오나 보자 (1/2)【スカウト予告】 5月10日 15時〜 『クロススカウト・インテリジェンス/Reasoning』を開催予定🔍 クロステーマスカウトは2連続開催され、どちらも5月15日から開催されるイベントでイベントボーナス効果を発揮します✨#あんスタ... 2024.05.10 minji-rose.tistory.com kim씨표류기 UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question Answering Over Knowledge Graph 1. Introduction 보통의 KGQA 방식 (IR방식) Retrieval: 질문과 관련된 상대적으로 작은 subgraph을 retrieve 한 후, Reasoning: subgraph에서 reasoning을 통해 answer entity를 알아냄. 기존의 방식은 Retrieval과 Reasoning 방식의 연관성을 무시하고, 각각 훈련 시킴 (Retrieval 후 Reasoing) ⇒ UniKGQA: 모델 구조와 파라미터 학습에서 retrieval과 reasoning을 합침 모듈 구조 semantic matching 모듈: question-rel 2. Approach 2.1. General Input Formuation Retrievla 단계에서의 G_q abstract node(같은 relation을 가진 노드를 합친 것)을 가진 abstract subgrpah Reasoning 단계에서의 G_q abstract node 없이, retrieval 단계에서 retrieved된 subgraph를 바탕으로 생성됨. 2.2. Semantic Matching (SM) 질문 q와 triple <e', r, e>의 semantic matching feature를 생성함. PLM으로 질문 q와 rel 3. Model Training 같은 구조를 가진 Retrieval 모델과 Reasoning 모델이 각각 존재함 Retrieval 단계를 위한 모델 파라미터: Reasoning 단계를 위한 모델 파라미터: 3.1. Pre-training with Question-Relation Matching (QRM) $\Theta_p$를 question-relation matching으로 pre-training 함. PLM의 파라미터를 학습 Retrieval과 reasoning 단계의 두 개의 PLM 파라미터를 같다고 처리함. contrastive pre-training을 4. Experiment 4.1. Settings (1) Datasets MetaQA WebQSP Complex WebQuestions 1.1 (CWQ) (2) Evaluation Protocol Retrieval 성능 측정 answer coverage rate(%): retrieved subgraphs가 최소 한 개의 answer를 포함하는 질문의 비율 Reasoning 성능 측정 Hits@1: ranking된 후보 entity 중 top-1개의 답이 정답인지 측정 F1: 복수 정답을 가진 질문의 경우가 있으므로 (3) Baselines Reaso 5. Related Works 5.1. Multi-hop KGQA Multi-hop KGQA 질문 q와 연관된 subgraph를 retrieve하여 검색 공간을 줄임 Retrieve된 subgraph에 multi-hop reasoning을 함. ⇒ Retrieve and then reasoing을 한 것이 전체 subgraph에서 곧바로 reasoning하는 것 보다 훨씬 더 성능 우수 Retrieval stage 정답 entity를 포함하는 상대적으로 작은 subgraph 추출 단계 기존 방법 topic entity로부터 가까운 hop 수에 있는 entit 6. Conclusion Major contribution UniKGQA: retrieval과 reasoning 두 가지 단계 모두를 위한 PLM을 기반으로 한 unified model 구조를 소개시킴. (semantic matching module과 matching information propagation module로 이루어짐) Retrieval단계에서 abstract subgraph를사용하여서 검색해야 하는 노드수를 줄임. Unified 구조를 위한 pre-trainining과 fine-tuning strategies 제안 20 2.1. General Input Formuation Retrievla 단계에서의 G_q abstract node(같은 relation을 가진 노드를 합친 것)을 가진 abstract subgrpah Reasoning 단계에서의 G_q abstract node 없이, retrieval 단계에서 retrieved된 subgraph를 바탕으로 생성됨. 2.2. Semantic Matching (SM) 질문 q와 triple <e', r, e>의 semantic matching feature를 생성함. PLM으로 질문 q와 rel kgqa 논문리뷰 2024.04.25 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 Mobiinside 커리어 분야 크리에이터 네이버 Cue: 파헤치기 – 기능과 특징, 변화까지 네이버 Cue:란? 출처: 네이버 Cue: 네이버 Cue: (네이버 큐)란? 네이버에서 새롭게 선보인 AI 검색 서비스로, 하이퍼클로바X를 검색 서비스에 특화 시킨 AI 생성 서비스입니다. ‘Cue:’는 언제 어디서든 대화할 준비가 되어 있는 프롬프트 신호, 맞춤과 추천의 큐레이션(curation), 호기심과 큐리오시티(curiosity)를 포함해 호기심 많고 창의적인 맞춤 검색 어드바이저라는 의미가 담겨있습니다. 네이버는 AI 기술이 집약된 Cue:를 통해 새로운 검색 경험을 선보이고자 하는데요. 어떤 검색어로 입력해야 할지 고민하지 않고 사람에게 네이버 Cue:의 기능 및 사용법 네이버 Cue:는 언어 모델에 추론(reasoning), 검색 계획(planning), 도구 사용(tool usage), 검색 기반 생성(retrieval-augmented generation) 기술을 녹여내어 네이버 검색과 결합해 네이버 버티컬의 정보를 요약하여 효과적인 검색 결과를 문장형으로 제공하며, 새로운 인터페이스를 통해 확장된 검색 경험을 사용자에게 제공합니다. Cue:는 하나의 대형 언어 모델을 사용하는 것이 아닌, 크기가 다르고 기능들이 각각 다른 다수 언어 모델들을 사용하는데요. 이런 언어 모델들을 합쳐서 모듈화된 네이버 Cue:의 경쟁력 및 한계 새롭게 출시된 네이버 Cue:, 현재 존재하는 챗GPT(ChatGPT), 구글바드(Google Bard), 빙챗(Bing Chat)과 같은 다양한 생성형 AI와 무엇이 다르고 어떤 경쟁력을 가지고 있을까요? 출처: 네이버 Cue: 네이버 Cue:는 쇼핑, 위치, 검색 등 네이버 생태계 내의 여러 서비스로 자연스럽게 연결할 수 있다는 가장 큰 특징이 있습니다. 제품을 찾기 위해 검색했다면 구매까지 연결할 수 있고, 여행 숙소를 찾기 위해 검색했다면 네이버 예약 서비스를 이용하여 예약까지 완료할 수 있습니다. 탐색부터 쇼핑, 예약까지 네이버 Cue:로 인한 변화 혹시 10월 20일부터 네이버 검색 서비스가 달라진 것 눈치채셨나요? 네이버는 검색 서비스의 사용자 환경・경험(UI・UX)을 생성형 AI 기능에 맞춰 최적화했습니다. 그 이유는 바로 11월부터 통합 검색에 Cue:를 적용할 예정이기 때문인데요. 이번 검색페이지 변화는 Cue:와의 통합검색 결합에 앞서서 단순한 탐색 수단의 검색이 아니라, 콘텐츠 소비 채널로 영역을 넓혀 노출 방식을 구조화하기 위해서 진행되었습니다. 이번 변화에서 가장 달라진 지점은 검색 결과의 노출 방식입니다. 사용자의 관심사를 기반으로 맞춤형 검색 결과를... 네이버 Cue:는 언어 모델에 추론(reasoning), 검색 계획(planning), 도구 사용(tool usage), 검색 기반 생성(retrieval-augmented generation) 기술을 녹여내어 네이버 검색과 결합해 네이버 버티컬의 정보를 요약하여 효과적인 검색 결과를 문장형으로 제공하며, 새로운 인터페이스를 통해 확장된 검색 경험을 사용자에게 제공합니다. Cue:는 하나의 대형 언어 모델을 사용하는 것이 아닌, 크기가 다르고 기능들이 각각 다른 다수 언어 모델들을 사용하는데요. 이런 언어 모델들을 합쳐서 모듈화된 네이버 성형 2024.05.13 브런치스토리 검색 더보기 story.kakao.com henry kwak henry kwak - 카카오스토리 much like a child's. While not deserving of blame, it appears somewhat frustrating and naive. It gives a feeling that one should think more deeply, cultivate rational reasoning, and imagination... 2024.05.23 카카오스토리 검색 더보기 커리어 크리에이터 보기
A life of reasoning 추리하는 삶 prosecution.tistory.com/ 신청자 작성 티스토리 추리 / 법률 / 사회 풍자를 좋아합니다. "모든 접촉은 흔적을 남긴다." - 에드몽 로카르. iTherapist itherapist.tistory.com/ 티스토리 ICF, EBP, Clinical Reasoning, PNF, 일상이야기 수록. Reasoning word meaning and definition reasoning.wordmeanings.org/ 웹수집 Meaning of the word Reasoning with word definition and statistical analyze of the Reasoning word... 사이트 더보기