๐Ÿ“š ์Šคํ„ฐ๋””

๐Ÿ“š ์Šคํ„ฐ๋””/CS224N

[CS224N] 2. Neural Classifiers

CS224N 2๋ฒˆ์งธ ๊ฐ•์˜๋ฅผ ์ˆ˜๊ฐ•ํ•˜๊ณ  ์ •๋ฆฌ ๋ฐ ์ง€์‹ ๊ณต์œ ๋ฅผ ์œ„ํ•ด ๋ธ”๋กœ๊ทธ๋ฅผ ์“ด๋‹ค. ์ฐธ๊ณ ๋กœ ๋ณธ์ธ์€ 2021 Winter ๋ฒ„์ „์„ ์ˆ˜๊ฐ•ํ–ˆ๋‹ค. Review: Main idea of Word2Vec & Negative Sampling ์ง€๋‚œ๋ฒˆ ๋ธ”๋กœ๊ทธ์—์„œ Word2Vec์— ๊ด€ํ•ด ์ •๋ฆฌํ–ˆ๋‹ค. ๊ฐ„๋‹จํ•˜๊ฒŒ ๋ณต๊ธฐํ•ด ๋ณด์ž. ์šฐ์„  Word2Vec์—๋Š” CBOW, Skip-gram์ด๋ผ๋Š” ๋‘ ๊ฐ€์ง€ ์•Œ๊ณ ๋ฆฌ์ฆ˜์ด ์“ฐ์ธ๋‹ค. 1. CBOW ๋งฅ๋ฝ ๋ฒกํ„ฐ๊ฐ€ ์ž…๋ ฅ, ์ค‘์‹ฌ ๋ฒกํ„ฐ๊ฐ€ ์ถœ๋ ฅ์ธ ๊ฒฝ์šฐ๋ฅผ CBOW ์•Œ๊ณ ๋ฆฌ์ฆ˜์ด๋ผ๊ณ  ํ•œ๋‹ค. CBOW์˜ ์ „์ฒด์ ์ธ ๊ตฌ์กฐ๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค: ๊ณผ์ •์„ ์š”์•ฝํ•˜์ž๋ฉด, 1. ์ง€์ •ํ•œ ์œˆ๋„์šฐ ํฌ๊ธฐ์˜ 2๋ฐฐ ํฌ๊ธฐ์˜ ๋ฒกํ„ฐ๊ฐ€ one-hot encoding์œผ๋กœ ํ‘œํ˜„๋˜์–ด input์œผ๋กœ ๋“ค์–ด๊ฐ„๋‹ค. 2. ๊ฐ๊ฐ์˜ input๋งˆ๋‹ค ์ฒซ ๋ฒˆ์งธ ๊ฐ€์ค‘์น˜ W์™€ ๊ณฑํ•ด์ง€๊ณ , ๊ทธ..

๐Ÿ“š ์Šคํ„ฐ๋””/NLP

[Word2Vec์— ๊ด€ํ•˜์—ฌ] - CBOW, Skip-gram

์ง€๋‚œ CS224N ๊ฐ•์˜๋ฅผ ์ˆ˜๊ฐ•ํ•˜๊ณ , Word2Vec์— ๊ด€ํ•ด ์กฐ๊ธˆ ๋” ๊ฐœ๋…์„ ํ™•๋ฆฝํ•˜๊ณ ์ž ๊ณต๋ถ€ํ•˜๊ฒŒ ๋˜์—ˆ๋‹ค. ์ด๋ฒˆ ๋ธ”๋กœ๊ทธ๋Š” ์œ„ํ‚ค๋…์Šค ๋ฅผ ์ฐธ๊ณ ํ•˜์—ฌ ๋งŒ๋“ค์—ˆ๋‹ค. Word2Vec word2vec์€ word vector๋“ค์˜ ํ•™์Šต์„ ์œ„ํ•ด ๋งŒ๋“ค์–ด์ง„ ํ”„๋ ˆ์ž„์›Œํฌ์ด๋‹ค. ํ•ด๋‹น ํ”„๋ ˆ์ž„์›Œํฌ์˜ ํ•ต์‹ฌ์€ text๋ฅผ ์ปดํ“จํ„ฐ๊ฐ€ ์ธ์‹ํ•  ์ˆ˜ ์žˆ๋„๋ก ์ˆซ์ž ํ˜•ํƒœ์˜ vector ๋˜๋Š” ํ–‰๋ ฌ๋กœ ๋ณ€ํ™˜ํ•˜๋Š” ๊ฒƒ์ด๋‹ค. ์ด๋Š” ๋Œ€๋ถ€๋ถ„ ๋Œ€ํ‘œ์ ์œผ๋กœ ๋‹ค์Œ ๋‘ ๊ฐ€์ง€ ๊ณผ์ •์œผ๋กœ ์ด๋ฃจ์–ด์ง„๋‹ค: One Hot Encoding (Sparse representation) Word Embedding (Dense representation) One Hot Encoding์€ ๋‹จ์–ด ๋ฒกํ„ฐ๊ฐ€ 0 ๋˜๋Š” 1์˜ ๊ฐ’์œผ๋กœ ๊ตฌ์„ฑ๋˜์–ด ๊ณผ์ •์ด ๋‹จ์ˆœํ•˜๋‹ค๋Š” ์žฅ์ ์ด ์žˆ์ง€๋งŒ, ํฐ ์ฐจ์›์ด ํ•„์š”ํ•˜๋‹ค๋Š” ์ ๊ณผ, ๋‹จ์–ด ๊ด€๊ณ„..

๐Ÿ“š ์Šคํ„ฐ๋””/CS224N

[CS224N] 1. Introduction and Word Vectors

์ด๋ฒˆ ๋ฐฉํ•™ ๋•Œ NLP ๊ด€๋ จ ๊ฐœ๋…์„ ํ™•์‹คํ•˜๊ฒŒ ์žก๊ณ ์ž CS224N ๊ฐ•์˜๋ฅผ ์ˆ˜๊ฐ•ํ•ด์•ผ๊ฒ ๋‹ค๊ณ  ์ƒ๊ฐํ–ˆ๋‹ค. CS~N ๊ฐ•์˜๋Š” ์Šคํƒ ํฌ๋“œ์—์„œ ๊ฐ€๋ฅด์น˜๋Š” CS ๊ฐ•์˜ ์ข…๋ฅ˜์ธ ๊ฒƒ ๊ฐ™์€๋ฐ, ๋Œ€ํ‘œ์ ์œผ๋กœ๋Š” ๋จธ์‹ /๋”ฅ๋Ÿฌ๋‹ ๊ธฐ์ดˆ ๊ฐ•์˜์ธ CS231N์ด ์žˆ๊ณ , ๋‚˜๋„ ๋“ฃ๋‹ค๊ฐ€ ๋ง์•˜์—ˆ๋‹ค..(๋„ˆ๋ฌด ๊ธธ์–ด) ์ด ๊ฐ•์˜๋Š” 2๋…„์— ํ•œ๋ฒˆ์”ฉ ์—…๋ฐ์ดํŠธ๋˜๋Š” ๊ฒƒ ๊ฐ™์€๋ฐ, ๋‚˜๋Š” 2021 Winter ๊ฐ•์˜๋ฅผ ์ˆ˜๊ฐ•ํ–ˆ๋‹ค. [์œ ํŠœ๋ธŒ ํ”Œ๋ ˆ์ด๋ฆฌ์ŠคํŠธ] ์ฒซ ๊ฐ•์˜์˜ ์ฃผ์ œ๋Š” ์‚ฌ๋žŒ์˜ ์–ธ์–ด์™€ ๋‹จ์–ด ์˜๋ฏธ์— ๊ด€ํ•œ ๋‚ด์šฉ์ด๋‹ค. ํ”ํžˆ, ์šฐ๋ฆฌ๊ฐ€ ์‚ฌ์šฉํ•˜๋Š” ๋‹จ์–ด๋“ค์„ ์ปดํ“จํ„ฐ๊ฐ€ ์ง๊ด€์ ์œผ๋กœ ์•Œ์•„๋“ฃ๊ธฐ๋Š” ์–ด๋ ต๋‹ค. ์ด๋ฅผ ์œ„ํ•ด ๋‹จ์–ด๋“ค์„ ์ˆซ์ž๋กœ ์ด๋ฃจ์–ด์ง„ ๋ฒกํ„ฐ๋“ค๋กœ ๋ณ€ํ™˜์‹œ์ผœ์ฃผ์–ด์•ผ ํ•œ๋‹ค. How to represent the meaning of the word? ๊ทธ๋ ‡๋‹ค๋ฉด ๋‹จ์–ด์˜ ์˜๋ฏธ๋ฅผ ์–ด๋–ป๊ฒŒ ๋‚˜ํƒ€๋‚ผ ์ˆ˜ ์žˆ์„๊นŒ? 1. Wor..

๐Ÿ“š ์Šคํ„ฐ๋””/NLP

[NLP-์Šคํ„ฐ๋””] RNN์— ๊ด€ํ•˜์—ฌ

์š”์ฆ˜ NLP์™€ ์ „๋ฐ˜์ ์ธ ๋”ฅ๋Ÿฌ๋‹์— ๋Œ€ํ•œ ๊ณต๋ถ€๋ฅผ ํ•˜๋Š” ์ค‘์ด๋‹ค. Transformer ๋ชจ๋ธ์ด ๋„ˆ๋ฌด ์œ ๋ช…ํ•ด์„œ, ์–ด์ฉŒ๋‹ค ๋ณด๋‹ˆ Transformer์˜ attention ๋ฉ”์ปค๋‹ˆ์ฆ˜์ด ์‚ฌ์šฉ๋œ ๋ชจ๋ธ๋“ค๋ถ€ํ„ฐ ๊ณต๋ถ€ํ•˜๊ฒŒ ๋๋Š”๋ฐ, ๋…ผ๋ฌธ์—์„œ ์ด์ „ ๋ชจ๋ธ๋“ค์— ๋Œ€ํ•œ ์ง€์‹์ด ๋งŽ์ด ์“ฐ์ด๋Š” ๊ฒƒ์„ ๋ณด๊ณ  ์•„์˜ˆ ์˜ค๋ž˜์ „ ๋ชจ๋ธ๋ถ€ํ„ฐ ๊ณต๋ถ€ํ•ด๋ณด๊ณ ์ž ํ•œ๋‹ค. (์‚ฌ์‹ค hidden state๊ณผ back propagation ๋“ฑ์— ๊ด€ํ•œ ์ •ํ™•ํ•œ ์ง€์‹์ด ์—†์–ด์„œ, ์ด ๋ถ€๋ถ„์— ๋Œ€ํ•œ ๊ฐœ๋…์„ ์žก๊ณ  ๊ฐ€์•ผ๊ฒ ๋‹ค๊ณ  ์ƒ๊ฐํ–ˆ๋‹ค.) ๊ทธ๋ฆฌํ•˜์—ฌ ์ด๋ฒˆ์—๋Š” RNN์˜ ๊ฐœ๋…์„ ์ง‘์ค‘ํ•ด์„œ ๋‹ค๋ค„๋ณด๊ณ ์ž ํ•œ๋‹ค. ์‚ฌ์‹ค LSTM ๋…ผ๋ฌธ์„ ๋ดค๋Š”๋ฐ ์ •๋ง ๋ง๋„ ์•ˆ๋˜๋Š” ์ˆ˜์‹๋“ค์ด ๋งŽ์•˜๊ณ , ์ดํ•ดํ•˜๊ธฐ๊ฐ€ ๋„ˆ์–ด๋ฌด ์–ด๋ ค์›Œ์„œ ๊ณต๋ถ€ํ•ด์•ผ ๊ฒ ๋‹ค๊ณ  ์ƒ๊ฐํ–ˆ๋‹ค... ์ฐธ๊ณ : [๋ฐ”๋žŒ๋Œ์ด/๋”ฅ๋Ÿฌ๋‹] RNN(Recurrent Neural Networ..

์žฅ์˜์ค€
'๐Ÿ“š ์Šคํ„ฐ๋””' ์นดํ…Œ๊ณ ๋ฆฌ์˜ ๊ธ€ ๋ชฉ๋ก (2 Page)