검색 본문
blog.naver.com 도당구르르 대부도 당일치기 ヽ♡ϵ‘✿*: .。.ノ 크랜베리 치킨 당근 라페(HALF) 4,900원 헬씨 루꼴라 햄치즈 샌드위치(HALF) 5,900원 아이스아메리카노 4,500원 커피번 3,900원 넘모 잘 자르는 나 ㅋ ㅎ ϵ( ‘Θ’ )϶✂️ 야무지죠 ? ㅎ ㅔ ㅎ ㅔ ♥️ 망케는 다음날 먹은 사딘임니둥 ㅎㅎ 저 망고가 진쨔 미쳤구요,,, 🥭💛 시트안에는 망고 거의 없구 빵만 ,, ㅎ ㅎ... 2024.06.11 블로그 검색 더보기 blog.naver.com 응징의 블로그 ϵ( ‘Θ’ )϶ 40 ϵ( ‘Θ’ )϶ . . . 안녕하세요 여러분, 일상 응징 줄여서 '일징' 이은진입니다 블로그를 3주째 쓰다 보니 너무 귀찮네요 하하! 이전까지는 일주일 치를 몰아서 한꺼번에 쓰다가 저의 기억력 이슈로 이번 주는 매일매일 저장하면서 써봤는데 어떤 방법이든 귀찮은 건 똑같네요 헝 초등학교 다닐 때 밀린 방학... 2024.04.21 blog.naver.com 추억을 모아모아 그냥저냥ϵ( 'Θ' )϶ 71 요즘 자꾸 라이즈 소희가 눈에 밟혀버려,, 4/30 정말정말정말졍말 오랜만에 해민이 만났다-! 용용선생 갔다가 하민이도 껴서 셋이서 꼴목 가서 술 마셨다 나 그때 꽤나 죽었었을지도... 5/1 나 서울 숲 처음 가본 거였는데 너무너무넘좋았다.날씨도 화창하고 기분 좋고 가게들도 아기자기하고 근데 가격은 예쁘지 않은... 2024.05.28 blog.naver.com 5300252 울지말고지금은빵에집중해ϵ( 'Θ' )϶ 38 저번 글과 이어집니다••• 240601-03 커햄집 도착 >.,< 카페 갔다가 넘 맛있었다면서 포장해오는 이런 행위,,, 이거 사랑이야 이게 사랑이 아니면 사랑이 먼데 저 브륄레버터바(?)가 하 진짜 미띤놈 너무 마힛다 또 먹자 얘드라 아참 샴푸 플러팅의 결과 알려드릴게여 : 햄이네 집에서 또 깔꼼하게 샤워하고 샴푸... 2024.06.06 blog.naver.com EUNBlog ʕ•̫͡•ʔ♡*:.✧ 오뚜기! : 오래도록 뚜벅뚜벅 기쁨기쁨 ϵ( 'Θ' )϶ 78 별안간 사진 폭발이지만.. 가끔 그럴 때 있지 않아? 그냥 내 일상 사진들이 너무 귀엽고 소중한 때••🌀 ::0421 “양은비 안들어오고 뭐해!” “네잎클로버 찾아,,” 미피걸들과 함께 보물찾기 성공🗯️ ㄴ“언니 이제 와서 저랑 양파까요” : 넌 무슨 양파 까잔 말을 출근 전에 하니💬 ::0422 그리구 그런 날 있자나... 2024.05.04 blog.naver.com 病の名前は恋 ϵ( 'Θ' )϶ 52 안뇽하세요... 벌써 날이 더워지고 있네요 더위조심 ㅠ.ㅠ 꼬질꼬질한 크록스.. 걸어서 출근을 해준딥댜 연장 안 하니깐... 이상하당 걸어서 출근하면 꽃도 보고 고양이도 볼 수 있어서 좋음.. 그치만 요즘 덥다 맥날이 너무 먹고 싶어서... 집에서 혼자 시켜먹음 치킨 텐더가 제일 맛있듬니다 ㅇㅈ? 저 머리 짱 많이... 2024.04.19 통합웹 더보기
서비스 안내 스토리의 글을 대상으로 검색결과를 제공합니다. 자세히보기 hi-lu.tistory.com lu의 머신러닝 개발자로 살아남기 [paper] Meta Imagine Flash 논문 리뷰 1. Introduction 이미지 생성 분야인 Denoising Diffusion Models(DMs)에서 문제점은 시간과 cost가 많이 드는 과정이란 거다. '시간' 측면에서, denoising 스텝 수와 스텝별 latency가 시간을 많이 걸리게 하는 두 주범이다. 그렇기에 sampling process, 스텝 수를 줄이는 연구들이 있었고 가장 많이 줄인 건 5 step까지 진전을 보였다. 하지만 이미지 퀄리티를 유지하면서 스텝 수를 줄이는 건 쉽지 않다. main contribution은 다음과 같으며, 본 논문에서는 스텝 수를 3까지 줄이면서 Emu 2. Related Work 다음은 Diffusion Model에서 성능은 유지하면서 추론 속도는 향상하는 태스크들에 대한 소개다. solvers and curvature rectification 추론 속도 향상을 위한 초기 아이디어다. 이 분야에서는 추론 path를 선형화하고 큰 스텝 사이즈를 허용해서, 추론 step 수를 줄이는 연구들이 있다. 다만 추론 스텝 사이즈가 커진다는 것은 생성 이미지 퀄리티를 어느 정도 버리는 것과 같다. Reducing model size 모델 백본 사이즈를 아예 줄여버려서 추론 속도를 향상시켰다. 모델이 작으니 per-ste 3. Background on Diffusion Models diffusion 모델을 크게 두 부분으로 나누면 forward(encoder)와 backward(decoder)가 될 것이다. forward에서는 멀쩡한 input 이미지 데이터(x_0)에 T번동안 계속해서 가우시안 noise를 주입해서 이미지를 아예 노이즈 데이터(x_t)로 만드는 것이 목표다. 아래 식의 입실론 ϵ가 noise다. Eq 1. diffusion forward 분홍색 계수는 signal-to-noise ratio(SNR)로, noise를 얼마나 주입할 건지를 나타낸다. (variance preserving을 썼으나 4. Method 본 논문에서 쓰이는 용어부터 정리해 보자. Φ : teacher model. pretrained diffusion model이다. ^ϵ : 측정된 noise Θ: student model. 즉 Imagine Flash는 Emu와 같은 teacher model Φ에서 knowledge distillation(KD)를 통해 sampling step을 줄일 수 있는 student model Θ을 얻는 것이 목적이다. Backward Distillation diffusion background 설명의 forward에서 나왔던 SNR(α와 5. Experiments 재밌거나 핵심 실험 결과들만 정리한다. 실험 백본은 EMU을 사용했고, 비교군 ADD실험 땐 StyleGAN-T discriminator를 사용했다. 정량적 결과는 FID와 CLIP, CompBench score를 사용했다. FID, CLIP score는 이미지 퀄리티와 prompt 간의 유사성을 평가한다. CompBench는 생성된 이미지의 색, 모양, 생성 오브젝트들 간의 퀄리티를 평가한다. 아래 표를 보면 Imagine Flash가 적은 step으로도 유의미한 결과를 내는 것을 확인했다. 참고로 backward distill 19 diffusion 모델을 크게 두 부분으로 나누면 forward(encoder)와 backward(decoder)가 될 것이다. forward에서는 멀쩡한 input 이미지 데이터(x_0)에 T번동안 계속해서 가우시안 noise를 주입해서 이미지를 아예 노이즈 데이터(x_t)로 만드는 것이 목표다. 아래 식의 입실론 ϵ가 noise다. Eq 1. diffusion forward 분홍색 계수는 signal-to-noise ratio(SNR)로, noise를 얼마나 주입할 건지를 나타낸다. (variance preserving을 썼으나 논문 리뷰 generative ai meta diffusion paper efficient diffusion imagen flash paper 2024.06.06 티스토리 검색 더보기 brunch.co.kr Qscar Understanding Diffusion Models |Intro 이번에 리뷰할 논문은 'Understanding Diffusion Models: A Unified Perspective'입니다. 구체적으로 이미지 생성과 관련된 기본적인 사항에 대해서 수식적으로 잘 정리된 논문이어서 가져왔습니다. 이번 포스팅에서는 자체적으로 코드를 작성하는 것보다는 수식 전개를 살펴보고, 그 개념을 이해하는 것에 초점을 맞춰 진행해보고자 합니다. 또한 해당 논문의 수식과 관련된 코드를 찾아, 분석한 사항에 맞는지 확인하고 잘못된 점이 있다면 수정한 뒤 결과를 살펴보도록 하겠습니다. 본 논문은 이미지 생성 모델(Di |Background : ELBO, VAE, HVAE 생성 모델을 이해하는 첫 단계는 바로 생성 모델의 핵심 개념을 이해하는 것입니다. Diffusion 기반의 생성 모델을 포함한 모든 종류의 생성 모델은 입력을 통해 출력이 결정되며, 이를 위해 입력한 값을 낮은 차원의 Latent vector로 embedding했다가 다시 원상복구시키는 과정을 학습함으로써 적절한 Latent Vector를 입력하는 것만으로 우리가 원하는 결과물을 생성할 수 있게 됩니다. 이러한 과정은 기존의 VAE(Variational AutoEncoder)와 동일한 방식입니다. 모델의 구조 자체는 encoder와 |Variational Diffusion Models 우리는 이전가지 생성 모델의 근간이 되는 ELBO와 VAE, 그리고 MHVAE를 적용하는 과정을 통해 수집가능한 데이터로부터 생성 모델을 구현할 수 있는 가능성을 확인할 수 있었습니다. 그렇다면 다음 단계는 바로 이렇게 구현한 수식을 기반으로 추가적인 구체화 및 목적함수화를 진행하는 것입니다. |3 Key Restrictions(Assumptions) Variational Diffusion Model(VDM)은 우리가 위에서 살펴본 MHVAE에 세 가지 제약(restrictions)가 추가됨으로써 구현되며 이는 각각 다음과 같습니다 |Score-based Generative Models VDM(Variational Diffusion Model)을 최적화하는 세 가지 방법 중 마지막 에너지 함수에 기반한 설명은 다소 모호할 수 있습니다. 구체적으로 스코어 함수를 예측함으로써 VDM이 최적화될 수 있음은 확인했지만, 이게 다른 방법들과의 차이는 무엇이고 그 자체적으로 어떤 의미가 있는지 알 수는 없었습니다. 때문에 이를 보다 직관적으로 설명할 수 있는 다른 모델을 통해서 추가적으로 설명이 가능한데요, 그것은 바로 Score-Based Generative Model(여러 종류가 있습니다)입니다. Score-based G |Guidance 마지막 챕터입니다. 여태까지 우리가 진행한 사항을 간단히 요약해보면 우리는 이미지에 노이즈를 적용한 뒤, 이를 재구성하는 과정이 수식적으로 가능한 것인가를 증명했습니다. 그 결과로써 (가우시안 분포 등의 가정이 필요하긴 했지만) 우리는 크게 세 가지 방법을 통해 원본 이미지를 재생성하는 것이 가능하다는 것을 확인할 수 있었습니다. 세 가지 방법은 결국 우리가 신경망을 통해 무엇을 예측하도록 학습하는지를 정의하는 것으로, 첫 번째는 원본 이미지 x0를, 두 번째는 원본 노이즈 ϵ0를 예측하는 것이고, 마지막은 바로 |Reference [1] Calvin Luo. Understanding Diffusion Models: A Unified Perspective. https://arxiv.org/abs/2208.11970 [2] ImcommIT. 생성이랑 확률이 뭔 상관? https://www.youtube.com/watch?v=ENMtsWy52WA&list=LL&index=3 [3] 서울대학교 컴퓨터공학부 Club Gauss. 정보이론과 머신러닝-엔트로피. https://cse.snu.ac.kr/sites/default/files/node--notice/ 머신러닝- 60 마지막 챕터입니다. 여태까지 우리가 진행한 사항을 간단히 요약해보면 우리는 이미지에 노이즈를 적용한 뒤, 이를 재구성하는 과정이 수식적으로 가능한 것인가를 증명했습니다. 그 결과로써 (가우시안 분포 등의 가정이 필요하긴 했지만) 우리는 크게 세 가지 방법을 통해 원본 이미지를 재생성하는 것이 가능하다는 것을 확인할 수 있었습니다. 세 가지 방법은 결국 우리가 신경망을 통해 무엇을 예측하도록 학습하는지를 정의하는 것으로, 첫 번째는 원본 이미지 x0를, 두 번째는 원본 노이즈 ϵ0를 예측하는 것이고, 마지막은 바로 생성모델 수식 통계 2024.05.16 브런치스토리 검색 더보기 story.kakao.com 지원 지원 - 카카오스토리 ϵ( 'Θ' ) 2023.10.23 카카오스토리 검색 더보기
ϵ( 'Θ' )϶ blog.naver.com/yi_sowon 네이버 블로그 ϵ( 'Θ' )϶ blog.naver.com/dodyd1523 네이버 블로그 (*´꒳`*) ϵ( 'Θ' )϶ blog.naver.com/0happyonion0 네이버 블로그 삐로통통하게 살기★彡 사이트 더보기