๐Ÿ“š ์Šคํ„ฐ๋””/NLP

[Word2Vec์— ๊ด€ํ•˜์—ฌ] - CBOW, Skip-gram

์žฅ์˜์ค€ 2023. 7. 25. 18:53

์ง€๋‚œ CS224N ๊ฐ•์˜๋ฅผ ์ˆ˜๊ฐ•ํ•˜๊ณ , Word2Vec์— ๊ด€ํ•ด ์กฐ๊ธˆ ๋” ๊ฐœ๋…์„ ํ™•๋ฆฝํ•˜๊ณ ์ž ๊ณต๋ถ€ํ•˜๊ฒŒ ๋˜์—ˆ๋‹ค.

์ด๋ฒˆ ๋ธ”๋กœ๊ทธ๋Š” ์œ„ํ‚ค๋…์Šค ๋ฅผ ์ฐธ๊ณ ํ•˜์—ฌ ๋งŒ๋“ค์—ˆ๋‹ค.


Word2Vec

word2vec์€ word vector๋“ค์˜ ํ•™์Šต์„ ์œ„ํ•ด ๋งŒ๋“ค์–ด์ง„ ํ”„๋ ˆ์ž„์›Œํฌ์ด๋‹ค.

ํ•ด๋‹น ํ”„๋ ˆ์ž„์›Œํฌ์˜ ํ•ต์‹ฌ์€ text๋ฅผ ์ปดํ“จํ„ฐ๊ฐ€ ์ธ์‹ํ•  ์ˆ˜ ์žˆ๋„๋ก ์ˆซ์ž ํ˜•ํƒœ์˜ vector ๋˜๋Š” ํ–‰๋ ฌ๋กœ ๋ณ€ํ™˜ํ•˜๋Š” ๊ฒƒ์ด๋‹ค.

 

์ด๋Š” ๋Œ€๋ถ€๋ถ„ ๋Œ€ํ‘œ์ ์œผ๋กœ ๋‹ค์Œ ๋‘ ๊ฐ€์ง€ ๊ณผ์ •์œผ๋กœ ์ด๋ฃจ์–ด์ง„๋‹ค:

  • One Hot Encoding (Sparse representation)
  • Word Embedding (Dense representation)

One Hot Encoding์€ ๋‹จ์–ด ๋ฒกํ„ฐ๊ฐ€ 0 ๋˜๋Š” 1์˜ ๊ฐ’์œผ๋กœ ๊ตฌ์„ฑ๋˜์–ด ๊ณผ์ •์ด ๋‹จ์ˆœํ•˜๋‹ค๋Š” ์žฅ์ ์ด ์žˆ์ง€๋งŒ,

ํฐ ์ฐจ์›์ด ํ•„์š”ํ•˜๋‹ค๋Š” ์ ๊ณผ, ๋‹จ์–ด ๊ด€๊ณ„ (์œ ์‚ฌ์„ฑ)์„ ํŒŒ์•…ํ•˜๊ธฐ ์–ด๋ ต๋‹ค๋Š” ์น˜๋ช…์ ์ธ ๋‹จ์ ์ด ์žˆ์—ˆ๋‹ค.

์ด๋ฅผ ๋ณด์™„ํ•˜๋Š” ๋ฐฉ๋ฒ•์œผ๋กœ Distributional Semantics ๊ธฐ๋ฐ˜์˜ Word Embedding์ด ๋“ฑ์žฅํ•˜๊ฒŒ ๋˜์—ˆ๊ณ , ํ˜„๋Œ€์˜ ๋Œ€๋ถ€๋ถ„์˜ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ๊ธฐ๋ฒ•๋“ค์€ (ex. Word2vec, GloVe, FastText…) Word Embedding ๋ฐฉ์‹์„ ๊ธฐ๋ฐ˜์œผ๋กœ ๋ฐœ์ „ํ•˜์˜€๋‹ค.

์œ„ ๊ทธ๋ฆผ์€ word2vec ํ”„๋ ˆ์ž„์›Œํฌ์˜ ์›๋ฆฌ๋ฅผ ๊ฐ€์žฅ ์ž˜ ๋ณด์—ฌ์ฃผ๋Š” ๊ทธ๋ฆผ์ด๋‹ค.

์—ฌ๊ธฐ์„œ word2vec์€ ๋น„์Šทํ•œ ๋‹จ์–ด๋“ค์„ ๋น„์Šทํ•œ ์œ„์น˜์˜ ๊ณต๊ฐ„์— ๋†“๋Š” ๋ฐฉ์‹์œผ๋กœ objective ํ•จ์ˆ˜๋ฅผ ์ตœ๋Œ€ํ™”์‹œํ‚จ๋‹ค. ํ•ด๋‹น ์•„์ด๋””์–ด๋ฅผ ์ด์šฉํ•˜์—ฌ ์ค‘์‹ฌ ๋‹จ์–ด๋ฅผ ๊ธฐ์ค€์œผ๋กœ ์–‘์ชฝ์œผ๋กœ ์œˆ๋„์šฐ ํฌ๊ธฐ๋งŒํผ์˜ ๋‹จ์–ด๋ฅผ ๋งฅ๋ฝ ๋‹จ์–ด๋กœ ์„ค์ •ํ•œ๋‹ค. ๊ทธ๋ฆฌ๊ณ  ์›-ํ•ซ ์ธ์ฝ”๋”ฉ์„ ์ด์šฉํ•ด ์ค‘์‹ฌ ๋‹จ์–ด ๋ฒกํ„ฐ์™€ ๋งฅ๋ฝ ๋‹จ์–ด ๋ฒกํ„ฐ๋ฅผ ์ƒ์„ฑํ•œ ํ›„, ์ด๋ฅผ ์ž…๋ ฅ ๋ฒกํ„ฐ์™€ ์ถœ๋ ฅ ๋ฒกํ„ฐ๋กœ ์‚ฌ์šฉํ•œ๋‹ค. ๋งฅ๋ฝ ๋ฒกํ„ฐ๋Š” ๊ธฐ๋ณธ์ ์œผ๋กœ ์œˆ๋„์šฐ ๊ฐœ์ˆ˜์˜ 2๋ฐฐ๋งŒํผ ์ƒ์„ฑ๋œ๋‹ค.
์ด๋•Œ๋งฅ๋ฝ ๋ฒกํ„ฐ๊ฐ€ ์ž…๋ ฅ, ์ค‘์‹ฌ ๋ฒกํ„ฐ๊ฐ€ ์ถœ๋ ฅ์ธ ๊ฒฝ์šฐ๋ฅผ CBOW ๋ฐฉ์‹, ๊ทธ๋ฆฌ๊ณ  ์ค‘์‹ฌ ๋ฒกํ„ฐ๊ฐ€ ์ž…๋ ฅ, ๋งฅ๋ฝ ๋ฒกํ„ฐ๊ฐ€ ์ถœ๋ ฅ์ธ ๊ฒฝ์šฐ๋ฅผ Skip-gram ๋ฐฉ์‹์ด๋ผ๊ณ  ํ•œ๋‹ค.

๋‘ ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์•„๋ž˜์™€ ๊ฐ™์€ ํ•œ ๊ทธ๋ฆผ์œผ๋กœ ๋ณด๋ฉด ํ™•์—ฐํ•œ ์ฐจ์ด๋ฅผ ์•Œ ์ˆ˜ ์žˆ๋‹ค.

์ถœ์ฒ˜: https://simonezz.tistory.com/35

 

1. CBOW (Continuous Bag of Word)

์•ž์—์„œ ์„ค๋ช…ํ–ˆ๋‹ค์‹œํ”ผ, ๋งฅ๋ฝ ๋ฒกํ„ฐ๊ฐ€ ์ž…๋ ฅ, ์ค‘์‹ฌ ๋ฒกํ„ฐ๊ฐ€ ์ถœ๋ ฅ์ธ ๊ฒฝ์šฐ๋ฅผ CBOW ์•Œ๊ณ ๋ฆฌ์ฆ˜์ด๋ผ๊ณ  ํ•œ๋‹ค.

์ด๋Š” ๋งฅ๋ฝ ๋‹จ์–ด๋“ค๋กœ ์ค‘์‹ฌ ๋‹จ์–ด๋ฅผ ์˜ˆ์ธกํ•  ๋•Œ ์‚ฌ์šฉ๋˜๋Š”๋ฐ, ๋‹ค์Œ ๋ฌธ์žฅ์„ ์˜ˆ๋ฅผ ๋“ค์–ด๋ณด์ž.

'The fat cat sat on the mat'

CBOW๋ฅผ ์ด์šฉํ•˜๋ฉด ๋‹ค์Œ๊ณผ ๊ฐ™์ด ๋นˆ์นธ์— ์–ด๋–ค ๋‹จ์–ด๊ฐ€ ๋“ค์–ด๊ฐˆ์ง€ ์˜ˆ์ธกํ•˜๋Š” task๋ฅผ ์ˆ˜ํ–‰ํ•  ์ˆ˜ ์žˆ๋‹ค.

'The fat cat __ on the mat'

๊ทธ๋ ‡๋‹ค๋ฉด ์–ด๋–ป๊ฒŒ ์˜ˆ์ธก์ด ์ด๋ฃจ์–ด์ง€๋Š” ๊ฒƒ์ผ๊นŒ ?

 

1. one-hot encoding์˜ ์‚ฌ์šฉ

์šฐ์„ , ์ค‘์‹ฌ ๋‹จ์–ด๋ฅผ ์˜ˆ์ธกํ•˜๊ธฐ ์œ„ํ•ด์„œ ์ด๋ฅผ ๊ธฐ์ค€์œผ๋กœ ์–ผ๋งˆ๋งŒํผ์˜ ๋ฌธ๋งฅ ๋‹จ์–ด๋ฅผ ์‚ดํŽด๋ณผ ๊ฒƒ์ธ์ง€ ๊ฒฐ์ •ํ•ด์•ผ ํ•œ๋‹ค. ์ด๋ฅผ window๋ผ๊ณ  ํ•œ๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด window ํฌ๊ธฐ๊ฐ€ 2์ด๊ณ , ์˜ˆ์ธกํ•˜๊ณ ์ž ํ•˜๋Š” ์ค‘์‹ฌ ๋‹จ์–ด๊ฐ€ sat์ด๋ผ๊ณ  ํ•œ๋‹ค๋ฉด ์•ž์˜ ๋‘ ๋‹จ์–ด์ธ fat์™€ cat, ๊ทธ๋ฆฌ๊ณ  ๋’ค์˜ ๋‘ ๋‹จ์–ด์ธ on, the๋ฅผ ์ž…๋ ฅ์œผ๋กœ ์‚ฌ์šฉํ•œ๋‹ค.

์œˆ๋„์šฐ ํฌ๊ธฐ๊ฐ€ n์ด๋ผ๊ณ  ํ•œ๋‹ค๋ฉด, ์‹ค์ œ ์ค‘์‹ฌ ๋‹จ์–ด๋ฅผ ์˜ˆ์ธกํ•˜๊ธฐ ์œ„ํ•ด ์ฐธ๊ณ ํ•˜๋ ค๊ณ  ํ•˜๋Š” ์ฃผ๋ณ€ ๋‹จ์–ด์˜ ๊ฐœ์ˆ˜๋Š” 2n์ด๋‹ค. (์–‘์˜†)

 

์ดํ›„, ์ฒ˜์Œ ๋ฌธ์žฅ์„ ๋ฐ”ํƒ•์œผ๋กœ one-hot encoding์„ ์ˆ˜ํ–‰ํ•˜๋ฉด ๊ฒฐ๊ณผ๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค:

์ถœ์ฒ˜: https://wikidocs.net/22660

 

2. CBOW์˜ ๊ตฌ์กฐ

๊ทธ๋ ‡๋‹ค๋ฉด CBOW์˜ ๊ตฌ์กฐ๋ฅผ ๋‹ค์‹œ ์‚ดํŽด๋ณด์ž.

Input layer ์—๋Š” ์•ž, ๋’ค๋กœ ์‚ฌ์šฉ์ž๊ฐ€ ์ •ํ•œ ์œˆ๋„์šฐ ํฌ๊ธฐ ๋ฒ”์œ„ ์•ˆ์— ์žˆ๋Š” ์ฃผ๋ณ€ ๋‹จ์–ด๋“ค์˜ one-hot vector๊ฐ€ input์œผ๋กœ ์‚ฌ์šฉ๋˜๊ณ , Output layer์—์„œ๋Š” ์˜ˆ์ธกํ•˜๊ณ ์ž ํ•˜๋Š” ์ค‘๊ฐ„ ๋‹จ์–ด์˜ one-hot vector๊ฐ€ ๋ ˆ์ด๋ธ”๋กœ์„œ ํ•„์š”ํ•˜๋‹ค.

์œ„ ๊ตฌ์กฐ๋ฅผ ์กฐ๊ธˆ ๋” ํ™•๋Œ€ํ•ด์„œ ๋ณด์ž.

์ด ๊ทธ๋ฆผ์—์„œ ์ฃผ๋ชฉํ•ด์•ผ ํ•  ๊ฒƒ์€ ๋‘ ๊ฐ€์ง€์ด๋‹ค.

  1. ํ•˜๋‚˜๋Š” ํˆฌ์‚ฌ์ธต (Projection layer)์˜ ํฌ๊ธฐ๊ฐ€ M์ด๋ผ๋Š” ์ ์ด๋‹ค. CBOW์—์„œ ํˆฌ์‚ฌ์ธต์˜ ํฌ๊ธฐ M์€ ์ž„๋ฒ ๋”ฉํ•˜๊ณ  ๋‚œ ๋ฒกํ„ฐ์˜ ์ฐจ์›์ด ๋œ๋‹ค. ์œ„์˜ ๊ทธ๋ฆผ์—์„œ ํˆฌ์‚ฌ์ธต์˜ ํฌ๊ธฐ๋Š” M=5์ด๋ฏ€๋กœ CBOW๋ฅผ ์ˆ˜ํ–‰ํ•˜๊ณ  ๋‚˜์„œ ์–ป๋Š” ๊ฐ ๋‹จ์–ด์˜ ์ž„๋ฒ ๋”ฉ ๋ฒกํ„ฐ์˜ ์ฐจ์›์€ 5๊ฐ€ ๋  ๊ฒƒ์ด๋‹ค.
  2. ๋‘ ๋ฒˆ์งธ๋Š” ์ž…๋ ฅ์ธต๊ณผ ํˆฌ์‚ฌ์ธต ์‚ฌ์ด์˜ ๊ฐ€์ค‘์น˜ W๋Š” V × M ํ–‰๋ ฌ์ด๋ฉฐ, ํˆฌ์‚ฌ์ธต์—์„œ ์ถœ๋ ฅ์ธต์‚ฌ์ด์˜ ๊ฐ€์ค‘์น˜ W'๋Š” M × V ํ–‰๋ ฌ์ด๋ผ๋Š” ์ ์ด๋‹ค.
    ์—ฌ๊ธฐ์„œ V๋Š” ๋‹จ์–ด ์ง‘ํ•ฉ์˜ ํฌ๊ธฐ๋ฅผ ์˜๋ฏธํ•œ๋‹ค (๋‹จ์–ด ์ง‘ํ•ฉ์˜ ๊ธธ์ด). ์ฆ‰, ์œ„์˜ ๊ทธ๋ฆผ์ฒ˜๋Ÿผ one-hot vector์˜ ์ฐจ์›์ด 7์ด๊ณ , M์€ 5๋ผ๋ฉด ๊ฐ€์ค‘์น˜ W๋Š” 7 × 5 ํ–‰๋ ฌ์ด๊ณ , W'๋Š” 5 × 7 ํ–‰๋ ฌ์ด ๋  ๊ฒƒ์ด๋‹ค.
    ์ธ๊ณต ์‹ ๊ฒฝ๋ง์—์„œ ํ›ˆ๋ จ ์ „์— ์ด ๊ฐ€์ค‘์น˜ ํ–‰๋ ฌ W์™€ W'๋Š” ๋žœ๋ค ๊ฐ’์„ ๊ฐ€์ง€๊ฒŒ ๋œ๋‹ค. ์ดํ›„, CBOW๋Š” ์ฃผ๋ณ€ ๋‹จ์–ด๋กœ ์ค‘์‹ฌ ๋‹จ์–ด๋ฅผ ๋” ์ •ํ™•ํžˆ ๋งž์ถ”๊ธฐ ์œ„ํ•ด ๊ณ„์†ํ•ด์„œ ์ด W์™€ W'๋ฅผ ํ•™์Šตํ•ด ๊ฐ€๋Š” ๊ตฌ์กฐ์ด๋‹ค.

 

3. One-hot vector์™€ W์˜ ๊ณฑ

์œ„์—์„œ ๋ณด์ด๋Š” ํˆฌ์‚ฌ์ธต์˜ ๊ฒฐ๊ณผ๋Š” ์–ด๋–ป๊ฒŒ ์‚ฐ์ถœ๋ ๊นŒ?

๋‹ค์Œ ๊ทธ๋ฆผ์„ ์ฐธ๊ณ ํ•˜์ž.

๊ทธ๋ฆผ์˜ ์œ„์ชฝ์— ๋‚˜์™€์žˆ๋Š” ๊ฒƒ์ฒ˜๋Ÿผ ๊ณฑ ์—ฐ์‚ฐ์ด ์ˆ˜ํ–‰๋œ๋‹ค. ๊ทธ๋Ÿฌ๋‚˜, ์šฐ๋ฆฌ๋Š” ๋ฒกํ„ฐ์—์„œ ๊ฐ’์ด 0์ธ ๋ถ€๋ถ„๋“ค์€ ๊ตณ์ด ๊ณ„์‚ฐ์„ ํ•˜์ง€ ์•Š์•„๋„ ๋œ๋‹ค๋Š” ์ ์„ ์‰ฝ๊ฒŒ ์•Œ ์ˆ˜ ์žˆ๋‹ค. ๊ทธ๋ž˜์„œ ์‚ฌ์‹ค ์ด ๊ณฑ ์—ฐ์‚ฐ์€ Wํ–‰๋ ฌ์˜ i๋ฒˆ์งธ ํ–‰์„ ๊ทธ๋Œ€๋กœ ์ฝ์–ด์˜ค๋Š” ๊ฒƒ๊ณผ(lookup) ๋™์ผํ•˜๋‹ค๋Š” ๋œป์—์„œ ์ƒ์„ฑ๋œ V๋ฅผ ๋ฃฉ์—… ํ…Œ์ด๋ธ”(lookup table)์ด๋ผ๊ณ  ํ•œ๋‹ค. 

 

์ด ์—ฐ์‚ฐ์„ cat ๋ฟ๋งŒ ์•„๋‹ˆ๋ผ ๋ชจ๋“  ๋‹จ์–ด์— ๋Œ€ํ•ด ์ˆ˜ํ–‰ํ•˜๊ฒŒ ๋œ๋‹ค๋ฉด, ๋‹ค์Œ๊ณผ ๊ฐ™์€ ๊ฒฐ๊ณผ๋ฅผ ์–ป๊ฒŒ ๋œ๋‹ค.

์ด๋ ‡๊ฒŒ ์ฃผ๋ณ€ ๋‹จ์–ด์˜ one-hot vector์— ๋Œ€ํ•ด์„œ ๊ฐ€์ค‘์น˜ W๊ฐ€ ๊ณฑํ•ด์„œ ์ƒ๊ฒจ์ง„ ๊ฒฐ๊ณผ ๋ฒกํ„ฐ๋“ค์€ ํˆฌ์‚ฌ์ธต์—์„œ ๋งŒ๋‚˜ ์ด ๋ฒกํ„ฐ๋“ค์˜ ํ‰๊ท ์ธ ๋ฒกํ„ฐ๋ฅผ ๊ตฌํ•˜๊ฒŒ ๋œ๋‹ค.

์ด๋ ‡๊ฒŒ ๊ตฌํ•ด์ง„ ๋ฒกํ„ฐ v๋Š” W'์™€ ๊ณฑํ•ด์ง€๊ณ , softmax ํ•จ์ˆ˜๋ฅผ ๊ฑฐ์ณ input vector์™€ ๋™์ผํ•œ ์ฐจ์›์˜ ๋ฒกํ„ฐ๋กœ ์ƒ์„ฑ๋œ๋‹ค.

์ค‘์‹ฌ ๋‹จ์–ด์˜ one-hot vector๋ฅผ y๋กœ ์ •์˜ํ–ˆ์„ ๋•Œ, ์ด ๋‘ ๋ฒกํ„ฐ๊ฐ’์˜ ์˜ค์ฐจ๋ฅผ ์ค„์ด๊ธฐ ์œ„ํ•ด CBOW๋Š” ์†์‹ค ํ•จ์ˆ˜(loss function)๋กœ ํฌ๋กœ์Šค ์—”ํŠธ๋กœํ”ผ(cross-entropy) ํ•จ์ˆ˜๋ฅผ ์‚ฌ์šฉํ•œ๋‹ค. cross-entropy ํ•จ์ˆ˜์— ์ค‘์‹ฌ ๋‹จ์–ด์˜ one-hot vector์™€ ์Šค์ฝ”์–ด ๋ฒกํ„ฐ๋ฅผ ์ž…๋ ฅ๊ฐ’์œผ๋กœ ๋„ฃ๊ณ , ์ด๋ฅผ ์‹์œผ๋กœ ํ‘œํ˜„ํ•˜๋ฉด ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. 

์ดํ›„, ์—ญ์ „ํŒŒ(Back Propagation)๋ฅผ ์ˆ˜ํ–‰ํ•˜๋ฉด W์™€ W'๊ฐ€ ํ•™์Šต์ด ๋˜๋Š”๋ฐ, ํ•™์Šต์ด ๋‹ค ๋˜์—ˆ๋‹ค๋ฉด M์ฐจ์›์˜ ํฌ๊ธฐ๋ฅผ ๊ฐ–๋Š” W์˜ ํ–‰๋ ฌ์˜ ํ–‰์„ ๊ฐ ๋‹จ์–ด์˜ ์ž„๋ฒ ๋”ฉ ๋ฒกํ„ฐ๋กœ ์‚ฌ์šฉํ•˜๊ฑฐ๋‚˜ W์™€ W' ํ–‰๋ ฌ ๋‘ ๊ฐ€์ง€ ๋ชจ๋‘๋ฅผ ๊ฐ€์ง€๊ณ  ์ž„๋ฒ ๋”ฉ ๋ฒกํ„ฐ๋ฅผ ์‚ฌ์šฉํ•˜๊ธฐ๋„ ํ•œ๋‹ค๊ณ  ํ•œ๋‹ค.

 

2. Skip-gram

context word๋ฅผ ํ†ตํ•ด center word๋ฅผ ์˜ˆ์ธกํ•˜๋Š” CBOW๋Š” ๋ฐ˜๋Œ€๋กœ,

Skip-gram์€ center word๋ฅผ ํ†ตํ•ด context word๋“ค์„ ์˜ˆ์ธกํ•˜๋Š” ๋ฐฉ์‹์ด๋‹ค.

์•ž์„œ ์‚ฌ์šฉํ•œ ์˜ˆ์‹œ๋ฅผ ๊ทธ๋Œ€๋กœ ์‚ฌ์šฉํ•ด ๋ณด์ž.

 

1. Dataset

Skip-gram์—์„œ๋Š” ์ด๋Ÿฐ ๋ฐฉ์‹์œผ๋กœ ๋ฐ์ดํ„ฐ์…‹์„ ๋งŒ๋“ค ์ˆ˜ ์žˆ๋‹ค.

 

2. Skip-gram์˜ ๊ตฌ์กฐ

์ธ๊ณต ์‹ ๊ฒฝ๋ง์„ ๋„์‹ํ™”ํ•˜๋ฉด ์œ„์™€ ๊ฐ™๋‹ค.

์ดํ›„์˜ ๊ณ„์‚ฐ ๊ณผ์ •์€ CBOW์™€ ์œ ์‚ฌํ•˜๋‹ค.

Skip-gram์—์„œ๋Š” ์ค‘์‹ฌ ๋‹จ์–ด์— ๋Œ€ํ•ด์„œ ์ฃผ๋ณ€ ๋‹จ์–ด๋ฅผ ์˜ˆ์ธกํ•˜๋ฏ€๋กœ, ํˆฌ์‚ฌ์ธต์—์„œ ๋ฒกํ„ฐ๋“ค์˜ ํ‰๊ท ์„ ๊ตฌํ•˜๋Š” ๊ณผ์ •์€ ์—†๋‹ค.

 

์—ฌ๋Ÿฌ ๋…ผ๋ฌธ์—์„œ ์„ฑ๋Šฅ ๋น„๊ต๋ฅผ ์ง„ํ–‰ํ–ˆ์„ ๋•Œ ์ „๋ฐ˜์ ์œผ๋กœ Skip-gram์ด CBOW๋ณด๋‹ค ์„ฑ๋Šฅ์ด ์ข‹๋‹ค๊ณ  ์•Œ๋ ค์ ธ ์žˆ๋‹ค.


์˜ค๋Š˜์€ ์ด๋ ‡๊ฒŒ Word2Vec์˜ ์ฃผ์š” ์•Œ๊ณ ๋ฆฌ์ฆ˜์ธ CBOW์™€ Skip-gram์— ๊ด€ํ•ด ์•Œ์•„๋ณด์•˜๋‹ค.