[Paper Review] Transformer - Attention is All You Need
ยท
๐ฌ ML & Data/๐ ๋
ผ๋ฌธ & ๋ชจ๋ธ ๋ฆฌ๋ทฐ
๋ถ๋ช
๋ด๊ฐ ๋ฅ๋ฌ๋์ ์
๋ฌธํ์ ๋๋ Transformer๊ฐ ๊ฐ๊ด๋ฐ๊ณ ์์๋๋ฐ ์์ง๊น์ง๋ Transformer๊ฐ ๊ฐ๊ด๋ฐ๊ณ ์๋ค. ์ธ์์ ๋ณํ๋๋ฐ... ์ฐธ ์์ฉ๋๋ ๋๊ณ ์ฑ๋ฅ์ด ์ข์ ๋ชจ๋ธ์์ ํ๋ฆผ์๋ค.์์ ์ ๊ณต๋ถํด๋ณธ๋ฐ ์์ง๋ง ๊ฒฝํ์น๊ฐ ์์ธ ์ง๊ธ ์ข ๋ ์ง์์ ๊ณต๊ณ ํํ ๊ฒธ ์ ๋ฆฌํด๋ดค๋ค. ๊ธ๋ก ์ฎ๊ธฐ๊ธฐ ๊ท์ฐฎ์์ ์๊ธ์จ ์ฌ์ง์ผ๋ก ๋์ฒดํ๋ค. 1. Attention ๊ฐ๋
์ดํดํ๊ธฐ2. Self-Attention์ด๋?3. Transformer ๊ตฌ์กฐ4. Transformer์ Query, Key, Value ๊ตฌํด๋ณด๊ธฐ5. Multi-head Attention6. Encoder์ Decoder์์ Self-Attention์ ๋์7. Masked Self Attention8. ๊ธฐํ ๊ฐ๋
๋ฐ ๊ธฐ๋ฒ8.1. Feed Forward8.2..