λ³Έλ¬Έ λ°”λ‘œκ°€κΈ°
IT/AI, λ”₯λŸ¬λ‹

λ”₯λŸ¬λ‹ μ§€λ„ν•™μŠ΅ μ™„μ „ 정리 - 원리, μ˜ˆμ‹œ, μ•Œκ³ λ¦¬μ¦˜κΉŒμ§€ ν•œλˆˆμ—!

by πŸ”₯κΉ‘ λ‹€ κ³ ! 2025. 3. 24.

 

λ”₯λŸ¬λ‹ μ§€λ„ν•™μŠ΅ μ™„μ „ 정리 - 원리, μ˜ˆμ‹œ, μ•Œκ³ λ¦¬μ¦˜κΉŒμ§€ ν•œλˆˆμ—!

πŸ“š λͺ©μ°¨

1. μ§€λ„ν•™μŠ΅μ΄λž€? - 1-1. κ°œλ… μ„€λͺ… - 1-2. μž…λ ₯κ³Ό 좜λ ₯ 쌍 2. μ§€λ„ν•™μŠ΅μ˜ μž‘λ™ 원리 - 2-1. ν•™μŠ΅ κ³Όμ • - 2-2. 손싀 ν•¨μˆ˜μ™€ κ°€μ€‘μΉ˜ μ—…λ°μ΄νŠΈ 3. μ§€λ„ν•™μŠ΅μ˜ λŒ€ν‘œμ  μ˜ˆμ‹œ - 3-1. 이미지 λΆ„λ₯˜ - 3-2. μžμ—°μ–΄ 처리 - 3-3. μŒμ„± 인식 λ“± 4. μ‚¬μš©λ˜λŠ” μ•Œκ³ λ¦¬μ¦˜ - 4-1. νšŒκ·€μ™€ λΆ„λ₯˜ - 4-2. CNN, RNN, Transformer 5. μ§€λ„ν•™μŠ΅ vs λ‹€λ₯Έ ν•™μŠ΅ - 5-1. λΉ„μ§€λ„ν•™μŠ΅κ³Όμ˜ 차이 - 5-2. κ°•ν™”ν•™μŠ΅κ³Όμ˜ 차이 6. μ§€λ„ν•™μŠ΅ μž˜ν•˜λŠ” 팁 7. 마무리 및 μš”μ•½

1. μ§€λ„ν•™μŠ΅μ΄λž€?

1-1. κ°œλ… μ„€λͺ…

μ§€λ„ν•™μŠ΅(Supervised Learning)은 λ¨Έμ‹ λŸ¬λ‹κ³Ό λ”₯λŸ¬λ‹μ—μ„œ κ°€μž₯ 기본이 λ˜λŠ” ν•™μŠ΅ λ°©μ‹μž…λ‹ˆλ‹€. μ΄λ¦„μ²˜λŸΌ 'μ§€λ„λ°›λŠ”λ‹€'λŠ” 의미둜, ν•™μŠ΅ν•  λ•Œ μž…λ ₯κ°’(input)κ³Ό ν•¨κ»˜ 그에 λŒ€μ‘ν•˜λŠ” μ •λ‹΅(label)이 μ£Όμ–΄μ§€λŠ” λ°©μ‹μž…λ‹ˆλ‹€. λͺ¨λΈμ€ 이 데이터λ₯Ό λ°”νƒ•μœΌλ‘œ μ •λ‹΅κ³Όμ˜ 관계λ₯Ό ν•™μŠ΅ν•˜κ³ , μ΄ν›„μ—λŠ” 보지 λͺ»ν•œ 데이터에 λŒ€ν•΄ μ˜ˆμΈ‘μ„ ν•  수 있게 λ©λ‹ˆλ‹€.

1-2. μž…λ ₯κ³Ό 좜λ ₯ 쌍

μ§€λ„ν•™μŠ΅ λ°μ΄ν„°λŠ” λ‹€μŒκ³Ό 같은 ν˜•νƒœλ‘œ κ΅¬μ„±λ©λ‹ˆλ‹€:

(x₁, y₁), (xβ‚‚, yβ‚‚), ..., (xβ‚™, yβ‚™)

μ—¬κΈ°μ„œ xλŠ” μž…λ ₯ 데이터, yλŠ” ν•΄λ‹Ή μž…λ ₯에 λŒ€ν•œ μ •λ‹΅μž…λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, xκ°€ 고양이 사진이면 yλŠ” '고양이'λΌλŠ” μ •λ‹΅ λ ˆμ΄λΈ”μ΄ 되겠죠.

2. μ§€λ„ν•™μŠ΅μ˜ μž‘λ™ 원리

2-1. ν•™μŠ΅ κ³Όμ •

  1. 데이터 μˆ˜μ§‘ 및 μ „μ²˜λ¦¬
  2. λͺ¨λΈ 섀계 (예: 신경망 ꡬ쑰)
  3. μž…λ ₯ 데이터λ₯Ό λ„£κ³  μ˜ˆμΈ‘κ°’ 생성
  4. μ˜ˆμΈ‘κ°’κ³Ό μ‹€μ œκ°’μ„ λΉ„κ΅ν•˜μ—¬ 손싀 계산
  5. 손싀을 쀄이도둝 κ°€μ€‘μΉ˜ μˆ˜μ •

이 과정을 수백, 수천 번 λ°˜λ³΅ν•˜λ©΄μ„œ λͺ¨λΈμ€ 점점 더 μ •ν™•ν•΄μ§€κ²Œ λ©λ‹ˆλ‹€.

2-2. 손싀 ν•¨μˆ˜μ™€ κ°€μ€‘μΉ˜ μ—…λ°μ΄νŠΈ

손싀 ν•¨μˆ˜(Loss Function)λŠ” μ˜ˆμΈ‘κ°’κ³Ό μ •λ‹΅ κ°„μ˜ 차이λ₯Ό μˆ˜μΉ˜ν™”ν•œ κ²ƒμž…λ‹ˆλ‹€. 이 손싀을 쀄이기 μœ„ν•΄ κ²½μ‚¬ν•˜κ°•λ²• λ“±μ˜ μ˜΅ν‹°λ§ˆμ΄μ €λ₯Ό 톡해 κ°€μ€‘μΉ˜(weight)κ°€ μ‘°μ •λ©λ‹ˆλ‹€.

3. μ§€λ„ν•™μŠ΅μ˜ λŒ€ν‘œμ  μ˜ˆμ‹œ

3-1. 이미지 λΆ„λ₯˜

이미지 λΆ„λ₯˜λŠ” λŒ€ν‘œμ μΈ μ§€λ„ν•™μŠ΅ λΆ„μ•Όμž…λ‹ˆλ‹€. μž…λ ₯은 이미지, 좜λ ₯은 ν•΄λ‹Ή 이미지에 λŒ€ν•œ λ ˆμ΄λΈ”(예: 고양이, κ°•μ•„μ§€)μž…λ‹ˆλ‹€. CNN λͺ¨λΈμ„ 많이 μ‚¬μš©ν•©λ‹ˆλ‹€.

3-2. μžμ—°μ–΄ 처리

ν…μŠ€νŠΈ λΆ„λ₯˜, 감성 뢄석, λ²ˆμ—­ 등도 λͺ¨λ‘ μ§€λ„ν•™μŠ΅μ„ 기반으둜 ν•©λ‹ˆλ‹€. 예: "I love this movie" → 긍정

3-3. μŒμ„± 인식 λ“±

μŒμ„±μ„ λ°›μ•„μ„œ λ¬Έμž₯으둜 λ°”κΎΈλŠ” μž‘μ—…λ„ λŒ€ν‘œμ μΈ μ§€λ„ν•™μŠ΅μž…λ‹ˆλ‹€. μž…λ ₯은 μ˜€λ””μ˜€, 좜λ ₯은 ν…μŠ€νŠΈμž…λ‹ˆλ‹€.

4. μ‚¬μš©λ˜λŠ” μ•Œκ³ λ¦¬μ¦˜

4-1. νšŒκ·€μ™€ λΆ„λ₯˜

  • νšŒκ·€(Regression): 좜λ ₯값이 μ—°μ†λœ 수치일 λ•Œ μ‚¬μš©
  • λΆ„λ₯˜(Classification): 좜λ ₯값이 클래슀(μΉ΄ν…Œκ³ λ¦¬)일 λ•Œ μ‚¬μš©

4-2. CNN, RNN, Transformer

  • CNN: 이미지 μ²˜λ¦¬μ— 강함
  • RNN: μ‹œκ³„μ—΄, μžμ—°μ–΄μ— ν™œμš©
  • Transformer: GPT, BERT λ“± λŒ€κ·œλͺ¨ μ–Έμ–΄λͺ¨λΈ 기반

5. μ§€λ„ν•™μŠ΅ vs λ‹€λ₯Έ ν•™μŠ΅

5-1. λΉ„μ§€λ„ν•™μŠ΅κ³Όμ˜ 차이

λΉ„μ§€λ„ν•™μŠ΅μ€ μ •λ‹΅(label)이 μ—†λŠ” 데이터λ₯Ό μ΄μš©ν•΄ νŒ¨ν„΄μ΄λ‚˜ ꡰ집을 μ°Ύμ•„λ‚΄λŠ” λ°©μ‹μž…λ‹ˆλ‹€. λŒ€ν‘œμ μœΌλ‘œ K-means, PCA 등이 μžˆμŠ΅λ‹ˆλ‹€.

5-2. κ°•ν™”ν•™μŠ΅κ³Όμ˜ 차이

κ°•ν™”ν•™μŠ΅μ€ μ •λ‹΅ λŒ€μ‹  보상(Reward)을 기반으둜 ν•™μŠ΅ν•˜λŠ” λ°©μ‹μž…λ‹ˆλ‹€. κ²Œμž„ AI, μžμœ¨μ£Όν–‰ 등에 많이 μ“°μž…λ‹ˆλ‹€.

6. μ§€λ„ν•™μŠ΅ μž˜ν•˜λŠ” 팁

  • 데이터 ν’ˆμ§ˆμ΄ 핡심! 잘 μ •μ œλœ 라벨이 μ€‘μš”ν•¨
  • 과적합 λ°©μ§€λ₯Ό μœ„ν•œ λ“œλ‘­μ•„μ›ƒ, 데이터 λΆ„ν• 
  • ν•˜μ΄νΌνŒŒλΌλ―Έν„° νŠœλ‹: ν•™μŠ΅λ₯ , 에폭 수, 배치 크기 쑰절
  • μΆ©λΆ„ν•œ ν•™μŠ΅ 데이터 확보 (Data Augmentation도 ν™œμš© κ°€λŠ₯)

7. 마무리 및 μš”μ•½

μ§€λ„ν•™μŠ΅μ€ 인곡지λŠ₯ ν•™μŠ΅ 방식 쀑 κ°€μž₯ 기본적이고 널리 μ‚¬μš©λ˜λŠ” λ°©μ‹μž…λ‹ˆλ‹€. 정닡이 λͺ…ν™•ν•˜κ²Œ μ •μ˜λœ λ¬Έμ œμ—μ„œλŠ” 맀우 높은 μ„±λŠ₯을 λ‚Ό 수 있으며, λ‹€μ–‘ν•œ μ‹€μ „ λ¬Έμ œμ— λ°”λ‘œ μ μš©ν•  수 μžˆμŠ΅λ‹ˆλ‹€. 이미지 λΆ„λ₯˜, λ²ˆμ—­, μŒμ„± 인식 λ“± λ§Žμ€ λΆ„μ•Όμ˜ λ”₯λŸ¬λ‹ λͺ¨λΈμ΄ μ§€λ„ν•™μŠ΅μ— κΈ°λ°˜ν•˜κ³  μžˆμŠ΅λ‹ˆλ‹€.

λ”₯λŸ¬λ‹μ„ κ³΅λΆ€ν•œλ‹€λ©΄, μ§€λ„ν•™μŠ΅μ˜ κ°œλ…κ³Ό 흐름뢀터 νƒ„νƒ„νžˆ μ΅νžˆλŠ” 것이 μ€‘μš”ν•©λ‹ˆλ‹€.