생성4 Variational Autoencoder (VAE)와 ELBO, KL Divergence 이해하기 Variational Autoencoder(VAE)는 생성 모델 중 하나로, 데이터의 잠재 표현(latent representation)을 학습하면서 데이터를 재구성하는 모델입니다. VAE를 학습하기 위해 중요한 개념인 Evidence Lower Bound (ELBO)와 KL Divergence에 대해 자세히 알아보겠습니다. 목록1. VAE의 기본 개념2. Evidence Lower Bound (ELBO)3. KL Divergence의 형태 유도4. MNIST 데이터를 활용한 VAE 구현 예제 (PyTorch)5. 결론 1. VAE의 기본 개념VAE는 두 가지 네트워크로 구성됩니다.인코더(Encoder): 입력 데이터 $x$로부터 잠재 변수 $z$의 근사 분포 $q(z|x)$ (보통 정규 분포의 평균 .. 2025. 2. 13. [논문 리뷰] DreamFusion 간단 정리 SDS loss Scoring distillation sampling (SDS) loss를 처음 제안한 논문인 DreamFusion에 대해 정리하겠습니다.논문 arxiv, project pageIntroductionSDS loss를 제안하게 된 배경은 2D diffusion model을 이용해서 text-to-3D를 하기 위함입니다. 기존의 text-to-2D diffusion model은 사용자의 입력 text에 맞게 2D 이미지를 잘 생성합니다. 이러한 2D diffusion model의 prior를 이용하여 3D 생성에도 이용해보고자 합니다. SDS loss를 이용하여 NeRF의 MLP를 학습하는 방법에 대해 알아봅시다.Method프레임워크 이미지를 바로 보면 이해가 되지 않아 아래의 동영상을 순서대로 보시면 어떻.. 2025. 1. 11. ControlNet 논문 자세한 정리 ControlNetControlNet로 유명한 논문 Adding Conditional Control to Text-to-Image Diffusion Models에 대한 정리입니다. ControlNet에 대한 짧은 정리는 다음 게시물을 참고해 주세요.5분 안에 이해하는 ControlNet 간단 정리 자료 5분 안에 이해하는 ControlNet 간단 정리 자료ControlNet 무엇을 할 수 있을까?기존의 StableDiffusion은 유저가 입력한 text로부터 이미지를 생성합니다. Bird라는 text에 맞게 새 (bird) 이미지를 생성할 수 있지만, 내가 원하는 포즈를 하고 있는 새 (bgrow-up-by-coding.tistory.com ControlNet 논문 arxiv 주소: https://a.. 2024. 9. 4. ControlNet 학습하기, huggingface 코드 ControlNet이란?ControlNet은 Stable Diffusion의 text prompt 이외 추가적인 condition을 통해 내가 원하는 이미지를 생성할 수 있게 해주는 network입니다. 자세한 내용은 다음의 링크를 참고해 주세요!논문, 짧은 정리, 자세한 정리 ControlNet 학습하기ControlNet을 학습하기 위해 제가 사용해 볼 코드는 다음과 같습니다.https://github.com/huggingface/diffusers/blob/main/examples/controlnet/train_controlnet.py diffusers/examples/controlnet/train_controlnet.py at main · huggingface/diffusers🤗 Diffusers:.. 2024. 8. 30. 이전 1 다음