검색 본문
서비스 안내 Kakao가 운영하는 책 서비스 입니다. 다른 사이트 더보기 Spatial Reasoning Tests - The Ultimate Guide to Passing Spatial... 출간 2014.7.5. 도서 18,920원 Reasoning 저자 Daniel C Kr... 출간 2018.1.16. 도서 49,000원 Reasoning 저자 Laden Antho... 출간 2012.9.5. 도서 56,700원 Reasoning 저자 Adler Jonat... 출간 2008.5.31. 도서 140,340원 Reasoning 저자 Jonathan E ... 출간 2018.7.27. 도서 91,880원 Reasoning 저자 Overton 출간 1995.11.12. A Legal-Political Model for Indirect Consequentialist Reasoning 저자 Johnson Con... 출간 2009.3.12. 도서 38,400원 비트겐슈타인처럼 사고하고 버지니아 울프처럼 표현하라 저자 에드워드 코벳, 로사... 출간 2011.11.30. 도서 13,500원 MCAT Critical Analysis and Reasoning Skills Review 2019-2020 저자 Kaplan Test... 출간 2018.7.1. 도서 43,500원 Reasoning Web 저자 Pan Jeff Z ... 출간 2017.2.26. 도서 77,770원 더보기 (주)카카오는 상품판매의 당사자가 아닙니다.법적고지 안내 (주)카카오는 통신판매중개자로서 통신판매의 당사자가 아니며 상품의 주문 배송 및 환불 등과 관련한 의무와 책임은 각 판매자에게 있습니다.
blog.outta.ai OUTTA AI Tech Blog [2024-1] 박태호 - Chain-of-Thought Reasoning Without Prompting Abstract LLM의 decoding 과정에서 CoT path를 찾음으로써 프롬프트 없이 효과적을 추론할 수 있다 decoding path에 CoT path 가 존재할 경우, 답변에 대한 신뢰도가 높아짐 다양한 reasoning benchmark에서 뛰어난 성능을 보임 Introduction 기존의 LLM은 다양하고 복잡한 Reasoning Benchmarks에서 성능을 입증 Chain-of-Thought (CoT) Chain-of-Thought (CoT)는 LLM의 추론을 유도하는 일반적인 방법 문제 해결의 중간 단계를 프롬프트로 제공해 Reasoning Path를 전달 결과적으로 LLM의 Reasoning Ability 향상 일반적으로 LLM의 Reasoning Ability를 향상 시키기 위해서는 Prompt 기법을 활용한 Intermediate step의 예시를 보여주는 few-shot prompting Inte Chain-of-Thought (CoT) Decoding 프롬프트 없이 LLM에 내제된 Reasoning Ability를 이끌어내는 방법 답을 도출하는 Decoding process에만 집중하는 방법론 기존의 Greedy decoding 대신, Top-k decoding 방식을 적용 Decoding추론 과정에 따른 Context를 입력으로 받아 사용자가 이해할 수 있는 단어로 변환하는 과정Greedy decoding특정 시점에서 가장 확률이 높은 후보를 다음 토큰으로 선택시간 상에서 복잡하지 않다는 장점최종 정확도가 높지 않다는 단점 (1등과 2등의 차이가 적다면 2등 후보가 정답일 가능 Experiments Experiment Setup 본 논문에서 사용한 Reasoning Benchmarks GSM8K초등학교 수준 수학 문제로 수학적 추론 & 문제 해결 능력 측정 Year Parity유명인의 이름을 랜덤으로 제공해 해당 인물이 태어난 연도를 even, odd 추론 Coin FlipCoin을 여러 차례 뒤집은 후 현재 상태 추론 Input format Question-Answer (QA) Top-k의 k=10으로 고정 Model PaLM-2 families : "So the answer is" 이후를 answer로 간주 M Conclusion and Discussion CoT 프롬프트를 사용하지 않고 디코딩 과정에서 CoT reasoning path를 찾는 CoT-decoding 방식 제안 CoT-decoding 방법은 최종 answer의 신뢰도 증가와 상관관계가 있음 디코딩 경로를 탐색하는 데 추가비용이 발생하므로, 모든 토큰에서 분기를 탐색해 경로를 찾는 경우 너무 비싸짐-> 때문에 추후 적절한 효율을 고려하여 branching 시점을 선택하는 연구가 진행되면 좋을 것 8 LLM의 decoding 과정에서 CoT path를 찾음으로써 프롬프트 없이 효과적을 추론할 수 있다 decoding path에 CoT path 가 존재할 경우, 답변에 대한 신뢰도가 높아짐 다양한 reasoning benchmark에서 뛰어난 성능을 보임 2024.05.11 블로그 검색 더보기 younhaxyz.tistory.com 데이터 분석 일지 [Paper Review] COT: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 17 arithmetic, commonsense reasoning, simbolic reasoning과 같이 단순한 모델의 scaling up만으로 성능이 향상되지 않는 task들을 잘 수행하기 위해 본 논문은 Chain-of-Thought를 제시한다. Chain-of-Thought는 natural language task의 결과를 도출하기 위한 추론 단계를 의미한다. 1. Introduction 당시까지는 모델을... Cot paper review Few-shot Prompting Chain-of-Thought reasoning ability arithmetic reasoning commonsense reasoning symbolic reasoning cot reasoning 2024.05.27 lovemyfeather.tistory.com 少年と海 240510 크로스 스카우트·인텔리전스 / Reasoning 풀돌 후기 12 있더라고요 고마워요 프로듀서들 덕분에 언제나 외롭지 않아요 다음엔 누구 나오나 보자 (1/2)【スカウト予告】 5月10日 15時〜 『クロススカウト・インテリジェンス/Reasoning』を開催予定🔍 クロステーマスカウトは2連続開催され、どちらも5月15日から開催されるイベントでイベントボーナス効果を発揮します✨#あんスタ... 2024.05.10 jik9210.tistory.com Memorize 13. STaR: Self-Taught ReasonerBootstrapping Reasoning With Reasoning 4 STaR에 대해서 정리를 해보려고 한다. 쉽진않아.. Generating step-by-step "chain-of-thought" rationales improves language model performance on complex reasoning tasks like mathematics or commonsense question-answering. However, inducing language model rationale generation currently requires either... 직장인 STAR 인공지능 대학원 스터디 논문 SSL 논문발표 NLP 주말공부 2024.05.01 18. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models minji-rose.tistory.com kim씨표류기 UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question Answering Over Knowledge Graph 1. Introduction 보통의 KGQA 방식 (IR방식) Retrieval: 질문과 관련된 상대적으로 작은 subgraph을 retrieve 한 후, Reasoning: subgraph에서 reasoning을 통해 answer entity를 알아냄. 기존의 방식은 Retrieval과 Reasoning 방식의 연관성을 무시하고, 각각 훈련 시킴 (Retrieval 후 Reasoing) ⇒ UniKGQA: 모델 구조와 파라미터 학습에서 retrieval과 reasoning을 합침 모듈 구조 semantic matching 모듈: question-rel 2. Approach 2.1. General Input Formuation Retrievla 단계에서의 G_q abstract node(같은 relation을 가진 노드를 합친 것)을 가진 abstract subgrpah Reasoning 단계에서의 G_q abstract node 없이, retrieval 단계에서 retrieved된 subgraph를 바탕으로 생성됨. 2.2. Semantic Matching (SM) 질문 q와 triple <e', r, e>의 semantic matching feature를 생성함. PLM으로 질문 q와 rel 3. Model Training 같은 구조를 가진 Retrieval 모델과 Reasoning 모델이 각각 존재함 Retrieval 단계를 위한 모델 파라미터: Reasoning 단계를 위한 모델 파라미터: 3.1. Pre-training with Question-Relation Matching (QRM) $\Theta_p$를 question-relation matching으로 pre-training 함. PLM의 파라미터를 학습 Retrieval과 reasoning 단계의 두 개의 PLM 파라미터를 같다고 처리함. contrastive pre-training을 4. Experiment 4.1. Settings (1) Datasets MetaQA WebQSP Complex WebQuestions 1.1 (CWQ) (2) Evaluation Protocol Retrieval 성능 측정 answer coverage rate(%): retrieved subgraphs가 최소 한 개의 answer를 포함하는 질문의 비율 Reasoning 성능 측정 Hits@1: ranking된 후보 entity 중 top-1개의 답이 정답인지 측정 F1: 복수 정답을 가진 질문의 경우가 있으므로 (3) Baselines Reaso 5. Related Works 5.1. Multi-hop KGQA Multi-hop KGQA 질문 q와 연관된 subgraph를 retrieve하여 검색 공간을 줄임 Retrieve된 subgraph에 multi-hop reasoning을 함. ⇒ Retrieve and then reasoing을 한 것이 전체 subgraph에서 곧바로 reasoning하는 것 보다 훨씬 더 성능 우수 Retrieval stage 정답 entity를 포함하는 상대적으로 작은 subgraph 추출 단계 기존 방법 topic entity로부터 가까운 hop 수에 있는 entit 6. Conclusion Major contribution UniKGQA: retrieval과 reasoning 두 가지 단계 모두를 위한 PLM을 기반으로 한 unified model 구조를 소개시킴. (semantic matching module과 matching information propagation module로 이루어짐) Retrieval단계에서 abstract subgraph를사용하여서 검색해야 하는 노드수를 줄임. Unified 구조를 위한 pre-trainining과 fine-tuning strategies 제안 20 2.1. General Input Formuation Retrievla 단계에서의 G_q abstract node(같은 relation을 가진 노드를 합친 것)을 가진 abstract subgrpah Reasoning 단계에서의 G_q abstract node 없이, retrieval 단계에서 retrieved된 subgraph를 바탕으로 생성됨. 2.2. Semantic Matching (SM) 질문 q와 triple <e', r, e>의 semantic matching feature를 생성함. PLM으로 질문 q와 rel kgqa 논문리뷰 2024.04.25 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 카카오 정책산업 연구 IT 분야 크리에이터 이용자의 안전과 데이터 보호를 우선하는 자율주행 10 만들어 왔습니다. 현실적으로 세상의 모든 경우의 수를 사전에 학습하는 것은 불가능하기에 rule-based algorithm(규칙 기반 알고리즘) 과는 다른 AI 추론(reasoning)으로 판단하는 방법도 연구되고 있지만 아직 만족할 만한 성과를 내지는 못하고 있습니다. 다만, 아직은 성능이 rule-based algorithm(규칙 기반... 주행 차량 2024.05.28 브런치스토리 검색 더보기 story.kakao.com henry kwak henry kwak - 카카오스토리 much like a child's. While not deserving of blame, it appears somewhat frustrating and naive. It gives a feeling that one should think more deeply, cultivate rational reasoning, and imagination... 2024.05.23 카카오스토리 검색 더보기 IT 크리에이터 보기
A life of reasoning 추리하는 삶 prosecution.tistory.com/ 신청자 작성 티스토리 추리 / 법률 / 사회 풍자를 좋아합니다. "모든 접촉은 흔적을 남긴다." - 에드몽 로카르. iTherapist itherapist.tistory.com/ 티스토리 ICF, EBP, Clinical Reasoning, PNF, 일상이야기 수록. Reasoning word meaning and definition reasoning.wordmeanings.org/ 웹수집 Meaning of the word Reasoning with word definition and statistical analyze of the Reasoning word... 사이트 더보기