자연어 처리에서 단어 임베딩과 문맥 인식1. 텍스트 데이터의 특징문장은 단어들로 구성됨.단어는 문맥 내에서 의미를 가짐.2. 단어 임베딩(1) One-hot Encoding단어를 벡터로 변환하는 가장 기초적인 방법.단점: 벡터 크기가 커지고, 단어 간 유사성을 측정할 수 없음.(2) Word2Vec아이디어: “비슷한 문맥에서 등장하는 단어는 비슷한 의미를 가진다.”방법: 신경망을 활용하여 단어를 저차원 벡터로 변환.Skip-gram 모델: 중심 단어로 주변 단어를 예측하는 방식.내적 연산을 통해 단어 간 의미적 유사성 계산 가능.단점: 정해진 윈도우 크기 내에서만 문맥을 고려하여 학습됨.(3) GloVe통계 기반 (Count-based) 방법 사용.전체 코퍼스의 단어 분포를 고려하여 학습.Common C..