🧠 "모델"이란 무엇인가?
딥러닝 모델, AI 모델이라는 말을 자주 들지만, 실은 대부분의 인공지능 모델은 수학적으로는 **‘복잡한 함수’**라고 할 수 있습니다.
주어진 입력 x에 대해 어떤 출력을 y로 매핑하는 함수 f(x) = y를 찾는 과정이죠.
이 함수는 고정된 형태가 아니라, 데이터를 통해 그 **형태를 "학습"**합니다.
🔍 함수 근사란?
**함수 근사(Function Approximation)**는 말 그대로, 어떤 미지의 함수 f(x)가 있을 때, 그것을 최대한 유사하게 흉내내는 g(x)를 찾는 작업입니다. 예를 들어:
- 자율주행차가 이미지를 받아 조향각을 출력하는 모델이라면
f(image) = steering_angle - 챗봇이 사용자 질문에 답변을 생성한다면
f(question) = answer
🤖 왜 Neural Network가 함수 근사기인가?
딥러닝의 이론적 기반에는 Universal Approximation Theorem(보편 근사 정리)이 있습니다.
이 정리는 다음을 의미합니다:
"충분히 큰 신경망은 어떤 복잡한 함수도 원하는 정도로 근사할 수 있다."
즉, 신경망은 우리가 원하는 입출력 관계를 정의된 수식 없이도 학습을 통해 흉내낼 수 있다는 것이죠.
📌 실무 예시: 챗봇도 함수 근사기다?
예, 예를 들어 GPT도 근본적으로는 다음과 같은 함수로 볼 수 있습니다:
- f(입력 텍스트, 문맥) → 다음 단어
함수의 형태를 명시하지 않아도, 대량의 텍스트 데이터를 통해 이 함수를 근사해내는 것이 GPT류 모델의 핵심입니다.
🧑💻 개발자 관점에서의 의미
- 모델을 튜닝한다 = 함수 형태를 미세 조정한다
- Loss를 최소화한다 = 함수 근사 정확도를 높인다
- 오버피팅 = 함수가 학습 데이터에만 과하게 맞춰졌다
- Regularization = 함수의 복잡도를 제어한다
✨ 마무리 요약
- Neural Network는 결국 복잡한 함수를 흉내내는 함수 근사기다.
- 이 개념은 실무와 이론 모두에서 핵심 개념이다.
- 앞으로 어떤 모델을 다루더라도 **‘무슨 함수를 흉내내는가?’**를 먼저 생각하자.
'AI > AI Info' 카테고리의 다른 글
Regularization이란? 모델이 ‘적당히’ 똑똑해지게 만드는 기술 (0) | 2025.06.17 |
---|---|
Overfitting vs Underfitting: '학습을 잘했다'는 착각의 함정 (0) | 2025.06.17 |
Learning Rate: 너무 빠르면 폭주, 너무 느리면 정체되는 학습의 속도계 (0) | 2025.06.16 |
Optimizer란 무엇인가? 손실을 따라 파라미터를 움직이는 '길잡이' (0) | 2025.06.16 |
Loss Function이란? 모델이 학습하는 '방향감'의 본질 (0) | 2025.06.15 |