Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- 딥러닝
- deeplearning
- AndroidStudio를활용한안드로이드프로그래밍
- 한빛아카데미
- 밑바닥부터시작하는딥러닝2
- 머신러닝
- Crawling
- CBOW
- 비지도학습
- attention
- 생활코딩
- 가비아
- 프로그램새내기를위한자바언어프로그래밍
- 논문리뷰
- Lamp
- aws
- 밑바닥부터시작하는딥러닝
- word2vec
- image
- jupyter
- 예제중심HTML&자바스크립트&CSS
- 컴파일설치
- 소스설치
- Apache
- 셀레니움
- 수동설치
- 한빛미디어
- Selenium
- MySQL
- 크롤링
Archives
- Today
- Total
목록통계 기반 기법 (1)
안녕, 세상!

CBOW 모델을 확률 관점에서 살펴보겠습니다. (1) CBOW 모델과 확률 확률 표기법 동시 확률 : P(A , B) - A와 B가 동시에 일어날 확률 사후 확률 : P(A | B) - B(라는 정보)가 주어졌을 때 A가 일어날 확률 말뭉치를 w1,w2, ... ,wr 처럼 단어로 표기한다면 특정 단어와 그 단어에 대한 윈도우 크기가 1인 맥락을 다음과 같이 표현할 수 있습니다. 그렇다면 W(t-1) 과 W(t+1)이 주어졌을 때 Wt의 확률은 다음과 같이 표현할 수 있습니다. 이 식을 이용하여 CBOW 모델의 손실함수를 나타낼 수 있습니다. 앞서 Cross-entropy를 사용했으므로 교차 엔트로피식으로 생각해보겠습니다. 교차 엔트로피 식은 과 같습니다. tk와 yk 모두 one-hot-encoding..
It공부/Deep learning
2021. 1. 18. 13:09