๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ

์ „์ฒด ๊ธ€48

๋”ฅ๋Ÿฌ๋‹์—์„œ ํŒจ๋”ฉ์ด ํ•„์š”ํ•œ ์ด์œ ์™€ ์•กํ‹ฐ๋ฒ ์ด์…˜ ๋งต ํฌ๊ธฐ ๊ณ„์‚ฐ๋ฒ• ํ•ฉ์„ฑ๊ณฑ ์‹ ๊ฒฝ๋ง(CNN)์—์„œ ์ž…๋ ฅ ์ด๋ฏธ์ง€๊ฐ€ ์—ฌ๋Ÿฌ ๊ณ„์ธต์„ ๊ฑฐ์น˜๋ฉด์„œ ํฌ๊ธฐ๊ฐ€ ์ค„์–ด๋“œ๋Š” ํ˜„์ƒ์€ ๋ชจ๋ธ์˜ ์„ค๊ณ„์™€ ์„ฑ๋Šฅ์— ํฐ ์˜ํ–ฅ์„ ์ค๋‹ˆ๋‹ค. ์ด ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐํ•˜๊ณ ์ž ์ž์ฃผ ์‚ฌ์šฉ๋˜๋Š” ๊ธฐ๋ฒ•์ด ๋ฐ”๋กœ ํŒจ๋”ฉ(Padding)์ž…๋‹ˆ๋‹ค.๋˜ํ•œ, CNN ๊ตฌ์กฐ๋ฅผ ์ดํ•ดํ•  ๋•Œ ๊ผญ ์•Œ์•„์•ผ ํ•  ๊ฒƒ์ด ๊ฐ ๊ณ„์ธต์˜ ์ถœ๋ ฅ ํฌ๊ธฐ(Activation Map Size)๋ฅผ ๊ณ„์‚ฐํ•˜๋Š” ๊ณต์‹์ž…๋‹ˆ๋‹ค. ์ด๋ฒˆ ๊ธ€์—์„œ๋Š” ํŒจ๋”ฉ์ด ํ•„์š”ํ•œ ์ƒํ™ฉ๊ณผ ์•กํ‹ฐ๋ฒ ์ด์…˜ ๋งต์˜ ํฌ๊ธฐ ๊ณ„์‚ฐ ๋ฐฉ๋ฒ•์„ ์‹ค์ œ ์˜ˆ์‹œ์™€ ํ•จ๊ป˜ ์„ค๋ช…ํ•˜๊ฒ ์Šต๋‹ˆ๋‹ค. ๐Ÿ“š ๋ชฉ์ฐจ1. ํŒจ๋”ฉ(Padding)์ด๋ž€?2. ํŒจ๋”ฉ์„ ์‚ฌ์šฉํ•˜๋Š” ์ด์œ 3. ์•กํ‹ฐ๋ฒ ์ด์…˜ ๋งต ํฌ๊ธฐ ๊ณ„์‚ฐ ๊ณต์‹4. ๊ณ„์‚ฐ ์˜ˆ์‹œ5. ๊ฒฐ๋ก 1. ํŒจ๋”ฉ(Padding)์ด๋ž€?ํŒจ๋”ฉ(Padding)์€ ์ด๋ฏธ์ง€์˜ ๊ฐ€์žฅ์ž๋ฆฌ์— 0์œผ๋กœ ์ฑ„์šด ์—ฌ๋ฐฑ์„ ์ถ”๊ฐ€ํ•˜์—ฌ ์ž…๋ ฅ ์ด๋ฏธ์ง€์˜ ํฌ๊ธฐ๋ฅผ ์ธ์œ„์ ์œผ๋กœ ํ™•์žฅํ•˜๋Š” ๊ธฐ์ˆ ์ž…๋‹ˆ.. 2025. 5. 7.
๋”ฅ๋Ÿฌ๋‹ ํ…์ŠคํŠธ ์ฒ˜๋ฆฌ์—์„œ One-Hot Vector๋ฅผ ์“ฐ๋Š” ์ด์œ  ๋”ฅ๋Ÿฌ๋‹์—์„œ ๋ฒ”์ฃผํ˜• ๋ฐ์ดํ„ฐ๋ฅผ ์ˆ˜์น˜ํ™”ํ•˜๋Š” ๊ฒƒ์€ ํ•„์ˆ˜์ ์ธ ์ „์ฒ˜๋ฆฌ ๊ณผ์ •์ž…๋‹ˆ๋‹ค. ๊ทธ ์ค‘ ๊ฐ€์žฅ ๊ธฐ๋ณธ์ ์ด๋ฉด์„œ ๋„๋ฆฌ ์“ฐ์ด๋Š” ๋ฐฉ๋ฒ•์ด ๋ฐ”๋กœ One-Hot Encoding(์›-ํ•ซ ์ธ์ฝ”๋”ฉ)์ž…๋‹ˆ๋‹ค.์ด๋ฒˆ ๊ธ€์—์„œ๋Š” ๋”ฅ๋Ÿฌ๋‹์—์„œ ์ž์ฃผ ์‚ฌ์šฉ๋˜๋Š” One-Hot Vector์˜ ๊ฐœ๋…, ํŠน์ง•, ์žฅ๋‹จ์ ๊ณผ ์‹ค์ œ ์˜ˆ์ œ ๋ฐ ์‚ฌ์šฉ๋˜๋Š” ๋ถ„์•ผ๊นŒ์ง€ ์ •๋ฆฌํ•ด๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค.๐Ÿ“š ๋ชฉ์ฐจ1. One-Hot Vector๋ž€?2. ์™œ ํ•„์š”ํ•œ๊ฐ€?3. ์˜ˆ์ œ: ํ…์ŠคํŠธ ๋ถ„๋ฅ˜์—์„œ์˜ ์‚ฌ์šฉ4. ์žฅ์ ๊ณผ ๋‹จ์ 5. One-Hot์˜ ํ•œ๊ณ„๋ฅผ ๊ทน๋ณตํ•˜๋Š” ๋ฐฉ๋ฒ•6. ๊ฒฐ๋ก 1. One-Hot Vector๋ž€?One-Hot Vector(์›-ํ•ซ ๋ฒกํ„ฐ)๋Š” ๋ฒ”์ฃผํ˜• ๋ฐ์ดํ„ฐ๋ฅผ ๋ฒกํ„ฐ๋กœ ํ‘œํ˜„ํ•˜๋Š” ๊ฐ€์žฅ ๋‹จ์ˆœํ•œ ๋ฐฉ์‹์ž…๋‹ˆ๋‹ค.ํ•˜๋‚˜์˜ ์นดํ…Œ๊ณ ๋ฆฌ๋ฅผ n์ฐจ์›์˜ ๋ฒกํ„ฐ๋กœ ๋ณ€ํ™˜ํ•˜๋ฉฐ, ๊ทธ ์ค‘ ํ•˜๋‚˜์˜ ์ธ๋ฑ์Šค๋งŒ 1์ด๊ณ  ๋‚˜๋จธ์ง€๋Š” ๋ชจ๋‘ 0์œผ๋กœ ์„ค์ •๋ฉ๋‹ˆ๋‹ค.. 2025. 5. 6.
L1 vs L2 ๊ทœ์ œํ™” ์ฐจ์ด ์ •๋ฆฌ! ๊ณผ์ ํ•ฉ ๋ฐฉ์ง€ ํ•ต์‹ฌ ๊ธฐ๋ฒ• ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์„ ํ•™์Šตํ•˜๋‹ค ๋ณด๋ฉด ๊ฐ€์žฅ ํ”ํžˆ ๋งˆ์ฃผ์น˜๋Š” ๋ฌธ์ œ๊ฐ€ ๊ณผ์ ํ•ฉ(overfitting)์ž…๋‹ˆ๋‹ค. ์ด๋•Œ ํšจ๊ณผ์ ์œผ๋กœ ๊ณผ์ ํ•ฉ์„ ์ค„์ด๋Š” ๋Œ€ํ‘œ์ ์ธ ๋ฐฉ๋ฒ• ์ค‘ ํ•˜๋‚˜๊ฐ€ ๋ฐ”๋กœ ๊ทœ์ œํ™”(Regularization)์ž…๋‹ˆ๋‹ค.ํŠนํžˆ ๋จธ์‹ ๋Ÿฌ๋‹๊ณผ ๋”ฅ๋Ÿฌ๋‹์—์„œ ๊ฐ€์žฅ ๋„๋ฆฌ ์‚ฌ์šฉ๋˜๋Š” ๊ทœ์ œํ™” ๊ธฐ๋ฒ•์ด L1 ๊ทœ์ œ์™€ L2 ๊ทœ์ œ์ธ๋ฐ์š”, ์ด๋ฒˆ ๊ธ€์—์„œ๋Š” ์ด ๋‘ ๊ฐ€์ง€ ๊ทœ์ œ ๋ฐฉ๋ฒ•์˜ ๊ฐœ๋…, ์ˆ˜ํ•™์  ์ •์˜, ์ฐจ์ด์ , ์–ธ์ œ ์‚ฌ์šฉํ•˜๋ฉด ์ข‹์€์ง€๋ฅผ ์ •๋ฆฌํ•ด๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค.๐Ÿ“š ๋ชฉ์ฐจ1. ๊ทœ์ œํ™”(Regularization)๋ž€?2. L1 ๊ทœ์ œ(Lasso)๋ž€?3. L2 ๊ทœ์ œ(Ridge)๋ž€?4. L1 vs L2 ๊ทœ์ œ์˜ ์ฐจ์ด์ 5. ์–ธ์ œ L1, ์–ธ์ œ L2๋ฅผ ์‚ฌ์šฉํ• ๊นŒ?6. ๋งˆ๋ฌด๋ฆฌ ์š”์•ฝ1. ๊ทœ์ œํ™”(Regularization)๋ž€?๊ทœ์ œํ™”๋Š” ๋ชจ๋ธ์ด ํ›ˆ๋ จ ๋ฐ์ดํ„ฐ์— ๊ณผํ•˜๊ฒŒ ์ ํ•ฉ(overfit)๋˜๋Š” ๊ฒƒ์„ ๋ฐฉ.. 2025. 4. 15.
์ฝ”์‚ฌ์ธ ์œ ์‚ฌ๋„๋ž€? ๋”ฅ๋Ÿฌ๋‹์—์„œ ๋ฒกํ„ฐ ๊ฐ„ ์˜๋ฏธ ์œ ์‚ฌ๋„ ๊ณ„์‚ฐํ•˜๊ธฐ ๋”ฅ๋Ÿฌ๋‹๊ณผ ๋จธ์‹ ๋Ÿฌ๋‹์—์„œ๋Š” '๋ฒกํ„ฐ ๊ฐ„์˜ ์œ ์‚ฌ๋„'๋ฅผ ์ธก์ •ํ•ด์•ผ ํ•˜๋Š” ์ผ์ด ๋งค์šฐ ๋งŽ์Šต๋‹ˆ๋‹ค. ์ด๋•Œ ์ž์ฃผ ์‚ฌ์šฉ๋˜๋Š” ์ง€ํ‘œ ์ค‘ ํ•˜๋‚˜๊ฐ€ ๋ฐ”๋กœ ์ฝ”์‚ฌ์ธ ์œ ์‚ฌ๋„(Cosine Similarity)์ž…๋‹ˆ๋‹ค.ํŠนํžˆ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ(NLP), ์ถ”์ฒœ ์‹œ์Šคํ…œ, ์ž„๋ฒ ๋”ฉ ๋น„๊ต ๋“ฑ์—์„œ๋Š” ์œ ํด๋ฆฌ๋””์•ˆ ๊ฑฐ๋ฆฌ๋ณด๋‹ค ๋ฐฉํ–ฅ์„ฑ์— ์ดˆ์ ์„ ๋งž์ถ˜ ์ฝ”์‚ฌ์ธ ์œ ์‚ฌ๋„๊ฐ€ ๋” ์ ํ•ฉํ•œ ๊ฒฝ์šฐ๊ฐ€ ๋งŽ์Šต๋‹ˆ๋‹ค.์ด๋ฒˆ ๊ธ€์—์„œ๋Š” ์ฝ”์‚ฌ์ธ ์œ ์‚ฌ๋„์˜ ๊ฐœ๋…, ์ˆ˜ํ•™์  ์ •์˜, ๋”ฅ๋Ÿฌ๋‹ ํ™œ์šฉ ์‚ฌ๋ก€ ๊ทธ๋ฆฌ๊ณ  ์œ ํด๋ฆฌ๋””์•ˆ ๊ฑฐ๋ฆฌ์™€์˜ ์ฐจ์ด๊นŒ์ง€ ํ•œ ๋ฒˆ์— ์ •๋ฆฌํ•ด๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค.๐Ÿ“š ๋ชฉ์ฐจ1. ์ฝ”์‚ฌ์ธ ์œ ์‚ฌ๋„๋ž€?2. ์ˆ˜ํ•™์  ์ •์˜์™€ ๊ณ„์‚ฐ ๊ณต์‹3. ๋”ฅ๋Ÿฌ๋‹์—์„œ์˜ ํ™œ์šฉ ์‚ฌ๋ก€4. ์œ ํด๋ฆฌ๋””์•ˆ ๊ฑฐ๋ฆฌ์™€์˜ ์ฐจ์ด์ 5. ๋งˆ๋ฌด๋ฆฌ ์š”์•ฝ1. ์ฝ”์‚ฌ์ธ ์œ ์‚ฌ๋„๋ž€?์ฝ”์‚ฌ์ธ ์œ ์‚ฌ๋„(Cosine Similarity)๋Š” ๋‘ ๋ฒกํ„ฐ ์‚ฌ์ด์˜ ‘๊ฐ๋„’๋ฅผ ๊ธฐ์ค€์œผ๋กœ ์œ ์‚ฌ๋„๋ฅผ ์ธก์ •ํ•˜๋Š”.. 2025. 4. 14.
๋”ฅ๋Ÿฌ๋‹์—์„œ ์œ ํด๋ฆฌ๋””์•ˆ ๊ฑฐ๋ฆฌ๋ž€? ๋ฒกํ„ฐ ์œ ์‚ฌ๋„ ๊ณ„์‚ฐ์˜ ํ•ต์‹ฌ ๊ฐœ๋… ์ •๋ฆฌ ๋”ฅ๋Ÿฌ๋‹์—์„œ ‘๋ฒกํ„ฐ์˜ ๊ฑฐ๋ฆฌ’๋ฅผ ๊ณ„์‚ฐํ•˜๋Š” ๊ฑด ์ƒ๊ฐ๋ณด๋‹ค ์ž์ฃผ ์‚ฌ์šฉ๋ฉ๋‹ˆ๋‹ค. ํŠนํžˆ ํŠน์ง• ๋ฒกํ„ฐ(feature vector)๋‚˜ ์ž„๋ฒ ๋”ฉ(embedding) ๊ฐ„ ์œ ์‚ฌ๋„๋ฅผ ํŒ๋‹จํ•  ๋•Œ ๊ฐ€์žฅ ๋„๋ฆฌ ์“ฐ์ด๋Š” ๋ฐฉ๋ฒ•์ด ๋ฐ”๋กœ ์œ ํด๋ฆฌ๋””์•ˆ ๊ฑฐ๋ฆฌ(Euclidean Distance)์ž…๋‹ˆ๋‹ค.์ด๋ฒˆ ๊ธ€์—์„œ๋Š” ์œ ํด๋ฆฌ๋””์•ˆ ๊ฑฐ๋ฆฌ๋ž€ ๋ฌด์—‡์ธ์ง€, ์ˆ˜ํ•™์  ์ •์˜๋Š” ์–ด๋–ค์ง€, ๊ทธ๋ฆฌ๊ณ  ๋”ฅ๋Ÿฌ๋‹์—์„œ๋Š” ์–ด๋””์— ์“ฐ์ด๋Š”์ง€๋ฅผ ์˜ˆ์ œ์™€ ํ•จ๊ป˜ ์•Œ์•„๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค.๐Ÿ“š ๋ชฉ์ฐจ1. ์œ ํด๋ฆฌ๋””์•ˆ ๊ฑฐ๋ฆฌ๋ž€?2. ์ˆ˜ํ•™์  ์ •์˜์™€ ๊ณ„์‚ฐ ๊ณต์‹3. ๋”ฅ๋Ÿฌ๋‹์—์„œ์˜ ํ™œ์šฉ ์‚ฌ๋ก€4. ์œ ํด๋ฆฌ๋””์•ˆ ๊ฑฐ๋ฆฌ vs ์ฝ”์‚ฌ์ธ ์œ ์‚ฌ๋„5. ๋งˆ๋ฌด๋ฆฌ ์š”์•ฝ1. ์œ ํด๋ฆฌ๋””์•ˆ ๊ฑฐ๋ฆฌ๋ž€?์œ ํด๋ฆฌ๋””์•ˆ ๊ฑฐ๋ฆฌ(Euclidean Distance)๋Š” ์šฐ๋ฆฌ๊ฐ€ **์ผ์ƒ์—์„œ ์‚ฌ์šฉํ•˜๋Š” ์ง์„  ๊ฑฐ๋ฆฌ(๋‘ ์  ์‚ฌ์ด์˜ ๊ฑฐ๋ฆฌ)**๋ฅผ ๋งํ•ฉ๋‹ˆ๋‹ค. ์ฆ‰, 2์ฐจ์› ํ‰๋ฉด์—์„œ๋Š” ๋‘ ์  ์‚ฌ.. 2025. 4. 13.
๋จธ์‹ ๋Ÿฌ๋‹ vs ๋”ฅ๋Ÿฌ๋‹ ์ง€๋„ํ•™์Šต: ์„ ํ˜•ํ•จ์ˆ˜์™€ ๋น„์„ ํ˜•ํ•จ์ˆ˜์˜ ์ฐจ์ด ๋จธ์‹ ๋Ÿฌ๋‹๊ณผ ๋”ฅ๋Ÿฌ๋‹์€ ๋ชจ๋‘ ์ง€๋„ํ•™์Šต(Supervised Learning)์„ ์‚ฌ์šฉํ•˜๋Š” ๋Œ€ํ‘œ์ ์ธ ์ธ๊ณต์ง€๋Šฅ ๊ธฐ์ˆ ์ž…๋‹ˆ๋‹ค. ํ•˜์ง€๋งŒ ๋‘ ๊ธฐ์ˆ ์€ ๋‚ด๋ถ€ ๊ตฌ์กฐ์™€ ํ•จ์ˆ˜ ๊ตฌ์„ฑ์—์„œ ํฐ ์ฐจ์ด๊ฐ€ ์žˆ์Šต๋‹ˆ๋‹ค. ๋จธ์‹ ๋Ÿฌ๋‹์˜ ์ง€๋„ํ•™์Šต์€ ์„ ํ˜•ํ•จ์ˆ˜(Linear Function) ๊ธฐ๋ฐ˜ ๋ชจ๋ธ์ด ๋งŽ๊ณ , ๋”ฅ๋Ÿฌ๋‹์€ ๋น„์„ ํ˜•ํ•จ์ˆ˜(Nonlinear Function)๋ฅผ ํ™œ์šฉํ•œ ๋ณต์žกํ•œ ๊ตฌ์กฐ๋ฅผ ๊ฐ–์Šต๋‹ˆ๋‹ค. ์ด๋ฒˆ ๊ธ€์—์„œ๋Š” ์ด ๋‘ ๊ธฐ์ˆ ์˜ ์ง€๋„ํ•™์Šต ๊ตฌ์กฐ๋ฅผ ์ค‘์‹ฌ์œผ๋กœ, ์„ ํ˜• vs ๋น„์„ ํ˜• ํ•จ์ˆ˜์˜ ์ฐจ์ด์™€ ์ ์šฉ ์‚ฌ๋ก€๋ฅผ ์˜ˆ์‹œ์™€ ํ•จ๊ป˜ ์‚ดํŽด๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค.๐Ÿ“š ๋ชฉ์ฐจ1. ์ง€๋„ํ•™์Šต์ด๋ž€ ๋ฌด์—‡์ธ๊ฐ€?2. ๋จธ์‹ ๋Ÿฌ๋‹ ์ง€๋„ํ•™์Šต: ์„ ํ˜• ํ•จ์ˆ˜ ๊ธฐ๋ฐ˜3. ๋”ฅ๋Ÿฌ๋‹ ์ง€๋„ํ•™์Šต: ๋น„์„ ํ˜• ํ•จ์ˆ˜ ๊ธฐ๋ฐ˜4. ์„ ํ˜• vs ๋น„์„ ํ˜• ๋ชจ๋ธ ๋น„๊ต ์˜ˆ์‹œ5. ์™œ ๋”ฅ๋Ÿฌ๋‹์€ ๋น„์„ ํ˜• ํ•จ์ˆ˜๋ฅผ ์‚ฌ์šฉํ• ๊นŒ?6. ๋งˆ๋ฌด๋ฆฌ ์š”์•ฝ1. ์ง€๋„ํ•™์Šต์ด๋ž€ ๋ฌด์—‡์ธ๊ฐ€?.. 2025. 4. 12.