전체 글 78

[TIL] DCGAN 이용해 Fashion MNIST 이미지 생성하기

[주절주절] StyleGAN, StarGAN 코드를 보려는데 파일은 왜 이렇게 여러 개며, 함수, class는 왜 이리 많은지..? 4~5일을 제자리걸음 하며 방황했다. 이해를 한다 하더라도 사용할 때 내가 짠 코드가 아니라서 분명 버벅거릴 거 같아서 사실상 참고해서 직접 '구현'을 해야 하지 않을까.. 생각! (팀원들은 아닌 것 같지만) 곰곰이 생각해보니 기본 중의 기본 DCGAN도 혼자 구현해보라고 하면 못할 거 같아서, (DCGAN과 StyleGAN의 거리는 꽤나 있어 보이지만) DCGAN부터 다시 하나씩 해보자는 마음으로 끄적대기 시작했다. [Today I Learned] # 변수 이름 잘 짓기 파이썬은 기본적으로 내장된 함수가 많아서, 함수 이름과 같은 이름의 변수를 짓고 사용하게 되면 내장 함..

도메인과 스타일, 모두 잡았다! StarGAN v2

https://arxiv.org/abs/1912.01865 StarGAN v2: Diverse Image Synthesis for Multiple Domains A good image-to-image translation model should learn a mapping between different visual domains while satisfying the following properties: 1) diversity of generated images and 2) scalability over multiple domains. Existing methods address either of the iss arxiv.org StarGAN v2 논문을 정리한 글입니다! 오역한 부분이나 자연스러운 표..

공부방/Vision 2020.03.23

진짜 같은 고화질 가짜 이미지 생성하기, StyleGAN

https://towardsdatascience.com/explained-a-style-based-generator-architecture-for-gans-generating-and-tuning-realistic-6cb2be0f431 Explained: A Style-Based Generator Architecture for GANs - Generating and Tuning Realistic… NVIDIA’s novel architecture for Generative Adversarial Networks towardsdatascience.com towards data science의 위 글을 번역한 글입니다! 오역한 부분이나 자연스러운 표현을 위해 의역한 부분이 있을 수 있습니다. 별(*)로 시작하는..

공부방/Vision 2020.03.15

GAN과 확률분포(probability distribution)

들어가기에 앞서... GAN 이론을 공부하다 보면, '확률분포(probability distribution)' 개념이 계속 등장합니다. 하지만 올해로 통계학과 2학년이나 다름없는 저에게는 선뜻 이해하기 어려운 개념이었습니다.😥 대부분의 글, 발표자료 역시 자세한 설명 없이 넘어가고 있어, 공부 내용을 정리할 겸 글을 작성하게 되었습니다. 제가 공부하고 이해한 선에서 글을 적다 보니, 잘못된 내용이나 표현이 있을 수 있습니다. 그런 부분에 대한 지적은 댓글로 남겨주시면 감사하겠습니다. :) 확률분포 딥러닝 이야기를 꺼내기 전에 확률분포가 무엇인지를 알아보도록 하겠습니다! '확률분포(probability distribution)'는 확률 변수가 특정한 값을 가질 확률을 나타내는 함수를 의미합니다. 가장 쉬운..

공부방/Vision 2020.03.13

CycleGAN을 만든 사람이 한국인이라고? CycleGAN 논문 뜯어보기

https://arxiv.org/abs/1703.10593 Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks Image-to-image translation is a class of vision and graphics problems where the goal is to learn the mapping between an input image and an output image using a training set of aligned image pairs. However, for many tasks, paired training data will not be a arxiv.org Cycle GAN 논문을 정리 및..

공부방/Vision 2020.03.04

2020년 상반기 계획 그리고 다짐

내일이면 벌써 3월이다. 올해는 2월이 하루 더 있는 해니 작년 같으면 오늘이 3월이다.(이건 무슨 계산법이람?) 개강이 미뤄진지는 꽤 되어서 방학 마음가짐 그대로. 전혀 새롭게 무언갈 시작하는 기분이 안 난다. 지난 몇 달은 소모하지 못한 감정을 혼자 쏟아내고, 또 혼자 위로하며 감정을 추스르는 데에 초점을 두고 살았다. 이번 겨울에 쓴 글들을 쭉 살펴보는데, 힘들었던게 그대로 드러나더라. (몇 번째 다짐인지 모르겠다만) 이젠 정말 툴툴 털고 일어날 때, 아니 앞으로 나아갈 때이다! 🏃‍♀️ 작년 여름 데이터 분석 공부를 처음 시작해서 꼭 8개월차. 물론 아직 컴린이고, 또 데린이지만 지금까지는 이 쪽 분야가 꽤나 재미가 있어서 공부를 계속해보려고 한다. 순수하게 학교는 4학기를 더 다녀야하고, 휴학 ..

Pytorch(파이토치) DCGAN 튜토리얼, 함께 따라해요!

https://pytorch.org/tutorials/beginner/dcgan_faces_tutorial.html DCGAN Tutorial — PyTorch Tutorials 1.4.0 documentation Note Click here to download the full example code DCGAN Tutorial Author: Nathan Inkawhich Introduction This tutorial will give an introduction to DCGANs through an example. We will train a generative adversarial network (GAN) to generate new celebrities af pytorch.org 파이토치 공식 홈..

공부방/Vision 2020.02.27

이론부터 실습까지, Word2Vec의 (아마 거의) 모든 것

Contents 1. 임베딩 2. Word2Vec 모델의 기본 구조 2-1. CBOW 2-2. Skip-gram 3. Word2Vec 모델의 학습 최적화 3-1. Negative sampling 3-2. Subsampling 4. 영화 리뷰를 이용한 실습 1. 임베딩 자연어 처리(NLP, Natural Language Processing) 분야에서 '임베딩'이란, 사람이 쓰는 자연어를 기계가 이해할 수 있는 벡터로 바꾼 결과 (혹은 그 과정)을 의미합니다. 임베딩은 크게 단어 임베딩과 문장 임베딩으로 나뉘는데, 오늘 공부할 Word2Vec은 이름에서도 알 수 있듯이 단어 임베딩에 속합니다. 따라서 Word2Vec의 결과는 아래 표와 같이, 단어를 기준으로 나타나게 됩니다. 사과 0.3 1.92 -0.68..

공부방/NLP 2020.02.24