검색 본문
eaz-coding.tistory.com eaz_coding 딥러닝 정리하기 : GAN(Generative Adverarial Network) 그 클래스들을 구분할 수 있는 바운더리를 학습하는 것이다. 출처 : 동빈나 - GAN: Generative Adversarial Networks (꼼꼼한 딥러닝 논문 리뷰와 코드 실습) GAN은 그럼 이미지에만 활용되나? 아니다. GAN의 활용 범위는 다양하다. GAN은 2014년에 이언 굿펠로가 고안해 낸 뒤로, 엄청난 인기를 끌었고, 지금까지 관련... 인공지능 비전공자 딥러닝 GAN cs공부 2024.02.16 블로그 검색 더보기 beomsun0829.tistory.com META_BS의 블로그 모개숲 딥러닝 스터디 - 1. VAE & GAN & Diffusion model Auto Encoder - Encoder : 데이터(이미지)를 잠재 공간(latent space)으로 인코딩 - Decoder : 잠재 벡터를 데이터(이미지)로 디코딩 x와 x' 간 픽셀 차이를 최소화 하는 방향으로 학습 GAN (Generative Adversarial Networks) 두 신경망의 경쟁 구도를 통해 학습되는 메커니즘 : Generator(생성자) vs Discriminator(판별자) Generator는 Discriminator를 속이려 하고, Discriminator는 Generator가 생성한 이미지를 잘 구분할 수 있도록 경쟁학습 후속 연구에서는 task에 따라 다양한 시도 (추가 네트워크 적용, 손실 함수 제안, 입출력 확장 등)가 이루어짐 - 생성 이미지 제어 (conditional GAN, cGAN), 랜덤 노이즈에 원핫벡터를 부여하여 생성 결과를 제어 - 네트워크 확장 (Deep Co Diffusion Model 현존 최고의 이미지 생성 모델 열역학의 확산에서 영감을 받아 영상을 생성하는 메커니즘을 구성함 • 여러 단계에 걸쳐 영상에 노이즈를 일정 비율로 섞어 노이즈 공간으로 확산시킴 • 신경망 기반의 노이즈 제거 과정을 거쳐 영상을 생성함 일정 비율로 점들을 확산시킴 픽셀을 확산시켜 랜덤노이즈를 생성하고, 이를 신경망을 활용해 Denoising하는 과정. 정방향에는 딥러닝이 쓰이지 않음 재매개변수화(reparameterization) 트릭 • 확산 과정을 𝛽기반으로 표현하면 모든 수식 단계를 거쳐야 해서 메모리와 계산량 필요량이 많아짐 Summary VAE (Variational Auto Encoder) - 낮은 품질 이미지를 평균과 분산으로 인코딩하고, 해당 평균과 분산으로 만든 표준 분포 내에서 샘플링한 벡터로 생성하는 메커니즘 GAN (Generative Adversarial Networks) - 낮은 다양성 Generator와 Discriminator의 경쟁 구도를 통해 ‘진짜같은’ 이미지를 생성하는 방향으로 학습되는 생성 모델 DM (Diffusion Model) - 느린 속도 이미지를 노이즈로 확산시킨 후, 서서히 노이즈를 제거하며 재생성하는 메커니즘. 제거 과정에서 27 현존 최고의 이미지 생성 모델 열역학의 확산에서 영감을 받아 영상을 생성하는 메커니즘을 구성함 • 여러 단계에 걸쳐 영상에 노이즈를 일정 비율로 섞어 노이즈 공간으로 확산시킴 • 신경망 기반의 노이즈 제거 과정을 거쳐 영상을 생성함 일정 비율로 점들을 확산시킴 픽셀을 확산시켜 랜덤노이즈를 생성하고, 이를 신경망을 활용해 Denoising하는 과정. 정방향에는 딥러닝이 쓰이지 않음 재매개변수화(reparameterization) 트릭 • 확산 과정을 𝛽기반으로 표현하면 모든 수식 단계를 거쳐야 해서 메모리와 계산량 필요량이 많아짐 2024.03.10 sikaro.tistory.com 시카로의 공부방 [언어지능 딥러닝] 38일차 - 딥러닝의 역사~GAN 까지 + 코드 LinearRegression - tensorflow Cost(W,b) Cost함수) grdient decent cose 함수의 기울기가 0이 되는 지점을 찾는다. 기울기가 크면 클수록 많이 보정(learning rate)해서 빼주고, 작으면 작을수록 적게 보정해서 빼준다. W <= W- alpha(a/aw * cost(W)) alpha 값을 잘 조절해서 쓴다. adam은 2차원 미분이라 이미지에 특화되어 있다. import tensorflow as tf import numpy as np # 데이터 정의 x_data = np.array([[1,1],[2,2],[3,3]], dtype 이진 분류 모델 예시는 선형 회귀 모델을 넣었다고 했을 때 나오는 이진 분류 모델의 함수이다. Cost(W,b)는 한마디로 mse 선형 모델에서는 Gradient Descent Method가 사용될 수 있다. 왜냐면 Cost(W,b)가 convex(local minimum이 global minumum)하기 때문이다. convex는 볼록한 함수라는 뜻이다. 임의의 두 점을 선택했을 때 그 두점을 연결하는 선 위의 모든 점들이 해당 함수의 값보다 작거나 같다. 하지만 이진 분류 모델은 Cost(W,b)에 넣었을 때 non-convex) 하다. 그렇기에 이진 분류의 코드 -tensorflow import tensorflow as tf import numpy as np # 데이터 정의 x_train = np.array([[1,2],[2,3],[3,4],[4,5],[6,2]], dtype=np.float32) y_train = np.array([[0],[0],[0],[1],[1]], dtype=np.float32) # 가중치 및 편향 초기화 w = tf.Variable(tf.random.normal([2,1])) b = tf.Variable(tf.random.normal([1])) # 이진 분류 모델 정의 def mo Softmax Classification 이론 다중 분류에서 각각에 대한 sigmoid를 하게 되면, 비율이 맞지 않는 문제가 생긴다. 그렇기에 확률적인 계산을 통해 전체가 1이 되도록 만든다. tensorflow로는 tf.nn의 softmax_cross_entropy를 쓴다. import tensorflow as tf import numpy as np x_train = np.array([[1,1,1,1,1],[2,2,2,2,2],[3,3,3,3,3],[4,4,4,4,4],[5,5,5,5,5],[1,2,3,4,5],[5,4,3,2,1],[1,0,0,0,1],[0,0,0,0,0 ANN(인공신경망) 이론 Application to Ligic Gate Design AND gate = 인공신경망 레이어 1개 당, 선을 하나씩 긋는다. 하나씩 그으면서 해당 차원을 이동시켜서 XOR 문제를 해결할 수 있는 방법으로 만들어진다. 실제로 ANN을 solving 하는 방법 (x1,x2) =(0,0) (0,0) * (5,5) + -8 = -8, y1=sigmoid(-8) ~=0(시그모이드에 -값이 들어왔으므로, 무조건 0.5보다 작다) (0,0) * (-7,-7) + 3 = 3, y2=sigmoid(3) ~=1 (y1,y2) * (-11,-11) RNN 시퀀스 데이터에 제일 좋다. 전의 단어에 대한 고려를 해서, 다음 단어가 나온다. 그렇기에 전의 값에 대한 고려를 후의 단어로 이어지게 해야 한다. ANN,CNN은 이게 불가능하다. 혼자 Input이 아니라, 전 시간의 신경망도 Input이 들어와야 한다. 즉, x0->은닉층1 ->y0가 나왔다면, 은닉층 1과 x1이 은닉층 2로 들어가서 y1이 나온다. 그렇게 영향력 있도록 행사한다. 즉, input이 2개가 들어가는 함수인 것이다. 그런데 이 input이 실현되려면, 결국 W의 가중치 벡터를 곱해줘야 하고, 해당 코스트 함수에 Interpolation과 NN training Y는 결국 함수의 계수이다. 딥 강화학습의 개념. State와 결과의 매칭이다. 데이터가 적으면 매핑이 안된다. Funtional Approximation이다. 함수의 관계를 만들기 위해서 결국 신경망을 만드는 것. 그래서 딥러닝은 데이터가 많을수록 성능이 안 좋을 수가 없다. 11 Y는 결국 함수의 계수이다. 딥 강화학습의 개념. State와 결과의 매칭이다. 데이터가 적으면 매핑이 안된다. Funtional Approximation이다. 함수의 관계를 만들기 위해서 결국 신경망을 만드는 것. 그래서 딥러닝은 데이터가 많을수록 성능이 안 좋을 수가 없다. 2024.04.16 [언어지능 딥러닝] 39일차 - 강화학습(Q-Learning),LLM,RFRL [에이블스쿨] 미니프로젝트 4차(1)- 차량 파손 여부 이미지 분류하기(sub-gan, Sam 등) jaylala.tistory.com Innov_AI_te [딥러닝 with 파이썬] GAN (Generative Adversarial Networks) / 생성적 적대 신경망 / MNIST 데이터로 구현 7 생성적 적대 신경망에 대해서 알아보겠습니다. 1. GAN이란? - GAN은 Generative Adversarial Network의 약자로, 생성적 적대 신경망으로 불립니다. - 이는 딥러닝을 기반으로 한 모델로서, 이름에서 알 수 있듯이 생성, 즉 기존에 없던 것을 만들어내는 모델입니다. - GAN의 핵심 아이디어 * GAN의 핵심 아이디어는... GAN MNIST 생성적적대신경망 생성AI GAN이란 MNIST데이터란 GAN설명 2023.09.25 [딥러닝 with Python] SRGAN이란? / Super Resolution GAN (1/2) / SRGAN의 개념 [딥러닝 with 파이썬] 분류(Classification) / MNIST 데이터 사용 blog.naver.com Pixelwizard의 IT 기록 블로그 [AI] 이미지 색상화를 위한 AI 기술 - 딥 러닝 아키텍처 비교 연구(GAN) 11 2/Project.AI--ColorQuest---AI-s-Journey-in-Reviving-WWII-Imagery: 이미지 색상화를 위한 AI 기술 - 딥 러닝 아키텍처 비교 연구(GAN) 이미지 색상화를 위한 AI 기술 - 딥 러닝 아키텍처 비교 연구(GAN). Contribute to pixelwizard2/Project.AI--ColorQuest---AI-s-Journey-in-Reviving-WWII-Imagery development by... 2024.01.08 gnidinger.tistory.com 고양이 두 잔 생성적 적대 신경망(Generative Adversarial Network, GAN) 4 부족한 결과를 내놓기도 한다. 또한, 고품질의 결과를 생성하기 위해서는 많은 양의 데이터와 계산 리소스가 필요하다. Conclusion 생성적 적대 신경망(GAN)은 딥러닝 분야에서 가장 매력적인 발전 중 하나로 자리 잡았다. 실제 데이터와 구분할 수 없는 새로운 데이터를 생성할 수 있는 능력은 많은 산업 분야에서 혁신... 인공지능 생성자 신경망 GaN 딥러닝 생성적 적대 신경망 데이터 생성 판별자 대립적 학습 학습 메커니즘 2024.04.11 딥러닝에서의 최적화: 하강법과 경사하강법 딥러닝 학습 방법: 지도학습부터 강화학습까지 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 여행하는 기획자 IT 분야 크리에이터 딥페이크가 무엇이길래 5 같은 문제도 발생시키고 있다. 위의 푸틴 사례는 대표적인 딥페이크 사례인데 딥페이크는 딥러닝과 페이크의 합성어이다. 인공지능을 활용하여 특정 인물의 눈...분간하기가 어려워 사람들이 속이기가 쉽다. 딥페이크는 생성형 적대 신경망 GAN 모델을 중심으로 제작을 한다. 두 개의 신경망이 서로 경쟁하며 더 나은... 페이크 AI 인공지능 2024.04.13 브런치스토리 검색 더보기 story.kakao.com 고영희 고영희 - 카카오스토리 포레스트, SVM, K-means 등 딥러닝 (Deep Learning): 인공 신경망(Artificial Neural Networks)을 기반으로...RNN (Recurrent Neural Networks), LSTM (Long Short-Term Memory), GAN (Generative Adversarial... 2023.08.16 카카오스토리 검색 더보기 IT 크리에이터 보기
서비스 안내 Kakao가 운영하는 책 서비스 입니다. 다른 사이트 더보기 모두의 딥러닝(2판) 저자 조태호 출간 2020.1.27. 도서 21,600원 케라스로 구현하는 딥러닝과 강화학습(acorn+Packt 시리즈) 저자 안토니오 걸리, 수짓 팔 출간 2017.11.23. 도서 27,000원 인공지능과 창작, 딥러닝 GAN과 강화학습 기술동향 저자 편집부 출간 2017.11.6. 도서 270,000원 미술관에 GAN 딥러닝 실전 프로젝트 저자 데이비드 포스터 출간 2019.11.15. 도서 28,800원 e북 25,600원 코딩셰프의 3분 딥러닝, 케라스맛 저자 김성진 출간 2018.1.1. 도서 27,000원 핵심 딥러닝 입문: RNN, LSTM, GRU, VAE, GAN 구현 저자 아즈마 유키나가 출간 2020.12.9. 도서 25,200원 e북 20,160원 파이썬 날코딩으로 알고 짜는 딥러닝 저자 윤덕호 출간 2019.7.15. 도서 40,500원 e북 32,400원 Do it! 딥러닝 교과서 저자 윤성진 출간 2021.10.18. 도서 25,200원 e북 16,200원 골빈해커의 3분 딥러닝 텐서플로맛 저자 김진중 출간 2017.9.25. 도서 19,800원 e북 13,860원 텐서플로 2와 케라스로 구현하는 딥러닝 저자 안토니오 걸리 외 출간 2020.4.29. 도서 38,700원 더보기 (주)카카오는 상품판매의 당사자가 아닙니다.법적고지 안내 (주)카카오는 통신판매중개자로서 통신판매의 당사자가 아니며 상품의 주문 배송 및 환불 등과 관련한 의무와 책임은 각 판매자에게 있습니다.
딥러닝과 머신러닝 이야기 bluediary8.tistory.com/ 티스토리 빅데이터, AI, 머신러닝, 강화학습, GAN 관련 이론과 R programming 테크토크 ( IT 트랜드 & 이슈 ) fingerdev.tistory.com/ 티스토리 IT 트랜드 & 이슈 ) AI (인공지능), 머신러닝, 딥러닝, ChatGPT, GAN, 핀테크, 블록체인, 빅데이터... AI한스푼 ai-onespoon.tistory.com/ 티스토리 Machine Learning, 딥러닝, 머신러닝, Computer Vision, 컴퓨터 비전, Segmentation, GAN, 생성모델