검색 본문
서비스 안내 Kakao가 운영하는 책 서비스 입니다. 다른 사이트 더보기 모두의 딥러닝(2판) 저자 조태호 출간 2020.1.27. 도서 21,600원 케라스로 구현하는 딥러닝과 강화학습(acorn+Packt 시리즈) 저자 안토니오 걸리, 수짓 팔 출간 2017.11.23. 도서 27,000원 인공지능과 창작, 딥러닝 GAN과 강화학습 기술동향 저자 편집부 출간 2017.11.6. 도서 270,000원 미술관에 GAN 딥러닝 실전 프로젝트 저자 데이비드 포스터 출간 2019.11.15. 도서 28,800원 e북 25,600원 코딩셰프의 3분 딥러닝, 케라스맛 저자 김성진 출간 2018.1.1. 도서 27,000원 핵심 딥러닝 입문: RNN, LSTM, GRU, VAE, GAN 구현 저자 아즈마 유키나가 출간 2020.12.9. 도서 25,200원 e북 20,160원 파이썬 날코딩으로 알고 짜는 딥러닝 저자 윤덕호 출간 2019.7.15. 도서 40,500원 e북 32,400원 Do it! 딥러닝 교과서 저자 윤성진 출간 2021.10.18. 도서 25,200원 e북 16,200원 머신 러닝 교과서 with 파이썬, 사이킷런, 텐서플로 저자 세바스찬 라시카, 바... 출간 2021.3.31. 도서 39,600원 e북 31,680원 골빈해커의 3분 딥러닝 텐서플로맛 저자 김진중 출간 2017.9.25. 도서 19,800원 e북 13,860원 더보기 (주)카카오는 상품판매의 당사자가 아닙니다.법적고지 안내 (주)카카오는 통신판매중개자로서 통신판매의 당사자가 아니며 상품의 주문 배송 및 환불 등과 관련한 의무와 책임은 각 판매자에게 있습니다.
jaylala.tistory.com Innov_AI_te [딥러닝 with Python] 조건부 GAN / CGAN / Conditional GAN 11 [본 포스팅은 "만들면서 배우는 생성 AI 2탄" 을 참조했습니다] 이번에 알아볼 내용은 조건부 GAN (CGAN / Conditional GAN) 입니다. 기존에 알아본 GAN 모형 (DC GAN, WGAN-GP)들은 훈련 세트와 유사한 사실적인 이미지를 재현해낼 수 있었지만, 생성하려는 이미지의 유형(남성 얼굴 또는 여성 얼굴, 벽돌의 크기 등)을... GAN conditional GAN CGAN 조건부 gan 생성적 적대신경망 2024.06.04 블로그 검색 더보기 [딥러닝 with 파이썬] GAN (Generative Adversarial Networks) / 생성적 적대 신경망 / MNIST 데이터로 구현 [딥러닝 with Python] (WGAN) 와서스테인 GAN - 그레이디언트 페널티(WGAN-GP) eaz-coding.tistory.com eaz_coding 딥러닝 정리하기 : GAN(Generative Adverarial Network) 7 그 클래스들을 구분할 수 있는 바운더리를 학습하는 것이다. 출처 : 동빈나 - GAN: Generative Adversarial Networks (꼼꼼한 딥러닝 논문 리뷰와 코드 실습) GAN은 그럼 이미지에만 활용되나? 아니다. GAN의 활용 범위는 다양하다. GAN은 2014년에 이언 굿펠로가 고안해 낸 뒤로, 엄청난 인기를 끌었고, 지금까지 관련... 인공지능 비전공자 딥러닝 GAN cs공부 2024.02.16 beomsun0829.tistory.com META_BS의 블로그 모개숲 딥러닝 스터디 - 1. VAE & GAN & Diffusion model 27 노이즈를 생성하고, 이를 신경망을 활용해 Denoising하는 과정. 정방향에는 딥러닝이 쓰이지 않음 재매개변수화(reparameterization) 트릭 • 확산 과정을 𝛽기반...인코딩하고, 해당 평균과 분산으로 만든 표준 분포 내에서 샘플링한 벡터로 생성하는 메커니즘 GAN (Generative Adversarial Networks) - 낮은 다양성... 2024.03.10 sikaro.tistory.com 시카로의 공부방 [언어지능 딥러닝] 38일차 - 딥러닝의 역사~GAN 까지 + 코드 LinearRegression - tensorflow Cost(W,b) Cost함수) grdient decent cose 함수의 기울기가 0이 되는 지점을 찾는다. 기울기가 크면 클수록 많이 보정(learning rate)해서 빼주고, 작으면 작을수록 적게 보정해서 빼준다. W <= W- alpha(a/aw * cost(W)) alpha 값을 잘 조절해서 쓴다. adam은 2차원 미분이라 이미지에 특화되어 있다. import tensorflow as tf import numpy as np # 데이터 정의 x_data = np.array([[1,1],[2,2],[3,3]], dtype 이진 분류 모델 예시는 선형 회귀 모델을 넣었다고 했을 때 나오는 이진 분류 모델의 함수이다. Cost(W,b)는 한마디로 mse 선형 모델에서는 Gradient Descent Method가 사용될 수 있다. 왜냐면 Cost(W,b)가 convex(local minimum이 global minumum)하기 때문이다. convex는 볼록한 함수라는 뜻이다. 임의의 두 점을 선택했을 때 그 두점을 연결하는 선 위의 모든 점들이 해당 함수의 값보다 작거나 같다. 하지만 이진 분류 모델은 Cost(W,b)에 넣었을 때 non-convex) 하다. 그렇기에 이진 분류의 코드 -tensorflow import tensorflow as tf import numpy as np # 데이터 정의 x_train = np.array([[1,2],[2,3],[3,4],[4,5],[6,2]], dtype=np.float32) y_train = np.array([[0],[0],[0],[1],[1]], dtype=np.float32) # 가중치 및 편향 초기화 w = tf.Variable(tf.random.normal([2,1])) b = tf.Variable(tf.random.normal([1])) # 이진 분류 모델 정의 def mo Softmax Classification 이론 다중 분류에서 각각에 대한 sigmoid를 하게 되면, 비율이 맞지 않는 문제가 생긴다. 그렇기에 확률적인 계산을 통해 전체가 1이 되도록 만든다. tensorflow로는 tf.nn의 softmax_cross_entropy를 쓴다. import tensorflow as tf import numpy as np x_train = np.array([[1,1,1,1,1],[2,2,2,2,2],[3,3,3,3,3],[4,4,4,4,4],[5,5,5,5,5],[1,2,3,4,5],[5,4,3,2,1],[1,0,0,0,1],[0,0,0,0,0 ANN(인공신경망) 이론 Application to Ligic Gate Design AND gate = 인공신경망 레이어 1개 당, 선을 하나씩 긋는다. 하나씩 그으면서 해당 차원을 이동시켜서 XOR 문제를 해결할 수 있는 방법으로 만들어진다. 실제로 ANN을 solving 하는 방법 (x1,x2) =(0,0) (0,0) * (5,5) + -8 = -8, y1=sigmoid(-8) ~=0(시그모이드에 -값이 들어왔으므로, 무조건 0.5보다 작다) (0,0) * (-7,-7) + 3 = 3, y2=sigmoid(3) ~=1 (y1,y2) * (-11,-11) RNN 시퀀스 데이터에 제일 좋다. 전의 단어에 대한 고려를 해서, 다음 단어가 나온다. 그렇기에 전의 값에 대한 고려를 후의 단어로 이어지게 해야 한다. ANN,CNN은 이게 불가능하다. 혼자 Input이 아니라, 전 시간의 신경망도 Input이 들어와야 한다. 즉, x0->은닉층1 ->y0가 나왔다면, 은닉층 1과 x1이 은닉층 2로 들어가서 y1이 나온다. 그렇게 영향력 있도록 행사한다. 즉, input이 2개가 들어가는 함수인 것이다. 그런데 이 input이 실현되려면, 결국 W의 가중치 벡터를 곱해줘야 하고, 해당 코스트 함수에 Interpolation과 NN training Y는 결국 함수의 계수이다. 딥 강화학습의 개념. State와 결과의 매칭이다. 데이터가 적으면 매핑이 안된다. Funtional Approximation이다. 함수의 관계를 만들기 위해서 결국 신경망을 만드는 것. 그래서 딥러닝은 데이터가 많을수록 성능이 안 좋을 수가 없다. 11 Y는 결국 함수의 계수이다. 딥 강화학습의 개념. State와 결과의 매칭이다. 데이터가 적으면 매핑이 안된다. Funtional Approximation이다. 함수의 관계를 만들기 위해서 결국 신경망을 만드는 것. 그래서 딥러닝은 데이터가 많을수록 성능이 안 좋을 수가 없다. 2024.04.16 [언어지능 딥러닝] 39일차 - 강화학습(Q-Learning),LLM,RFRL [에이블스쿨] 미니프로젝트 4차(1)- 차량 파손 여부 이미지 분류하기(sub-gan, Sam 등) blog.naver.com Pixelwizard의 IT 기록 블로그 [AI] 이미지 색상화를 위한 AI 기술 - 딥 러닝 아키텍처 비교 연구(GAN) 11 2/Project.AI--ColorQuest---AI-s-Journey-in-Reviving-WWII-Imagery: 이미지 색상화를 위한 AI 기술 - 딥 러닝 아키텍처 비교 연구(GAN) 이미지 색상화를 위한 AI 기술 - 딥 러닝 아키텍처 비교 연구(GAN). Contribute to pixelwizard2/Project.AI--ColorQuest---AI-s-Journey-in-Reviving-WWII-Imagery development by... 2024.01.08 gnidinger.tistory.com 고양이 두 잔 생성적 적대 신경망(Generative Adversarial Network, GAN) 4 부족한 결과를 내놓기도 한다. 또한, 고품질의 결과를 생성하기 위해서는 많은 양의 데이터와 계산 리소스가 필요하다. Conclusion 생성적 적대 신경망(GAN)은 딥러닝 분야에서 가장 매력적인 발전 중 하나로 자리 잡았다. 실제 데이터와 구분할 수 없는 새로운 데이터를 생성할 수 있는 능력은 많은 산업 분야에서 혁신... 인공지능 생성자 신경망 GaN 딥러닝 생성적 적대 신경망 데이터 생성 판별자 대립적 학습 학습 메커니즘 2024.04.11 딥러닝에서의 최적화: 하강법과 경사하강법 딥러닝 학습 방법: 지도학습부터 강화학습까지 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 여행하는 기획자 IT 분야 크리에이터 딥페이크가 무엇이길래 5 같은 문제도 발생시키고 있다. 위의 푸틴 사례는 대표적인 딥페이크 사례인데 딥페이크는 딥러닝과 페이크의 합성어이다. 인공지능을 활용하여 특정 인물의 눈...분간하기가 어려워 사람들이 속이기가 쉽다. 딥페이크는 생성형 적대 신경망 GAN 모델을 중심으로 제작을 한다. 두 개의 신경망이 서로 경쟁하며 더 나은... 페이크 AI 인공지능 2024.04.13 브런치스토리 검색 더보기 story.kakao.com 박기원 박기원 - 카카오스토리 개요 인공지능의 정의와 범위 머신러닝의 개념과 방법론 딥러닝과 신경망의 기본 원리 2장 생성 모델의 이해 생성 모델의 정의와 특징 주요 생성 모델(GAN, VAE, Transformer 등) 생성 모델의 학습 방법 3... 2024.05.18 카카오스토리 검색 더보기 IT 크리에이터 보기
딥러닝과 머신러닝 이야기 bluediary8.tistory.com/ 티스토리 빅데이터, AI, 머신러닝, 강화학습, GAN 관련 이론과 R programming 테크토크 ( IT 트랜드 & 이슈 ) fingerdev.tistory.com/ 티스토리 IT 트랜드 & 이슈 ) AI (인공지능), 머신러닝, 딥러닝, ChatGPT, GAN, 핀테크, 블록체인, 빅데이터... AI한스푼 ai-onespoon.tistory.com/ 티스토리 Machine Learning, 딥러닝, 머신러닝, Computer Vision, 컴퓨터 비전, Segmentation, GAN, 생성모델