컴린이 탈출기/NLP
2020. 2. 24.
이론부터 실습까지, Word2Vec의 (아마 거의) 모든 것
Contents 1. 임베딩 2. Word2Vec 모델의 기본 구조 2-1. CBOW 2-2. Skip-gram 3. Word2Vec 모델의 학습 최적화 3-1. Negative sampling 3-2. Subsampling 4. 영화 리뷰를 이용한 실습 1. 임베딩 자연어 처리(NLP, Natural Language Processing) 분야에서 '임베딩'이란, 사람이 쓰는 자연어를 기계가 이해할 수 있는 벡터로 바꾼 결과 (혹은 그 과정)을 의미합니다. 임베딩은 크게 단어 임베딩과 문장 임베딩으로 나뉘는데, 오늘 공부할 Word2Vec은 이름에서도 알 수 있듯이 단어 임베딩에 속합니다. 따라서 Word2Vec의 결과는 아래 표와 같이, 단어를 기준으로 나타나게 됩니다. 사과 0.3 1.92 -0.68..