Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- AndroidStudio를활용한안드로이드프로그래밍
- deeplearning
- 셀레니움
- Apache
- jupyter
- Crawling
- 컴파일설치
- 가비아
- 한빛아카데미
- Selenium
- image
- 크롤링
- 소스설치
- 한빛미디어
- MySQL
- 비지도학습
- 생활코딩
- 딥러닝
- CBOW
- 밑바닥부터시작하는딥러닝
- 머신러닝
- 예제중심HTML&자바스크립트&CSS
- attention
- word2vec
- 프로그램새내기를위한자바언어프로그래밍
- aws
- 수동설치
- 논문리뷰
- 밑바닥부터시작하는딥러닝2
- Lamp
Archives
- Today
- Total
목록deeplearning (5)
안녕, 세상!
transformer
transformer은 워낙 유명한 모델이며 현재 다양한 분야에서 응용되어 사용되고 있습니다. 그리하여 기본적인 작동에 대한 설명이 잘 되어 있는 글은 정말 많습니다. 제 글은 transformer에서 특정 구조의 설계에 대한 이유, 무슨 의도로 다음과 같이 구성을 하였는지에 대한 설명을 중점으로 기술하였습니다. (1) Seq2seq의 한계와 attention의 발전 Attention seq to seq의 문제점은 context vector가 고정된 크기로 되었다는 것입니다. 입력 data의 문장의 길이와 상관없이 context vector가 고정되었다는 것은 긴 문장들의 경우에 과도하게 정보를 압축하게 되므로 정보의 손실이 발생되며 효율적이지 못한 방법입니다. 사람이 문장을 번역할 때 '어떤 단어'에 ..
It공부/Deep learning
2021. 6. 30. 11:34