🧠 "모델"이란 무엇인가?

딥러닝 모델, AI 모델이라는 말을 자주 들지만, 실은 대부분의 인공지능 모델은 수학적으로는 **‘복잡한 함수’**라고 할 수 있습니다.
주어진 입력 x에 대해 어떤 출력을 y로 매핑하는 함수 f(x) = y를 찾는 과정이죠.

이 함수는 고정된 형태가 아니라, 데이터를 통해 그 **형태를 "학습"**합니다.


🔍 함수 근사란?

**함수 근사(Function Approximation)**는 말 그대로, 어떤 미지의 함수 f(x)가 있을 때, 그것을 최대한 유사하게 흉내내는 g(x)를 찾는 작업입니다. 예를 들어:

  • 자율주행차가 이미지를 받아 조향각을 출력하는 모델이라면
    f(image) = steering_angle
  • 챗봇이 사용자 질문에 답변을 생성한다면
    f(question) = answer

🤖 왜 Neural Network가 함수 근사기인가?

딥러닝의 이론적 기반에는 Universal Approximation Theorem(보편 근사 정리)이 있습니다.
이 정리는 다음을 의미합니다:

"충분히 큰 신경망은 어떤 복잡한 함수도 원하는 정도로 근사할 수 있다."

즉, 신경망은 우리가 원하는 입출력 관계를 정의된 수식 없이도 학습을 통해 흉내낼 수 있다는 것이죠.


📌 실무 예시: 챗봇도 함수 근사기다?

예, 예를 들어 GPT도 근본적으로는 다음과 같은 함수로 볼 수 있습니다:

  • f(입력 텍스트, 문맥) → 다음 단어

함수의 형태를 명시하지 않아도, 대량의 텍스트 데이터를 통해 이 함수를 근사해내는 것이 GPT류 모델의 핵심입니다.


🧑‍💻 개발자 관점에서의 의미

  • 모델을 튜닝한다 = 함수 형태를 미세 조정한다
  • Loss를 최소화한다 = 함수 근사 정확도를 높인다
  • 오버피팅 = 함수가 학습 데이터에만 과하게 맞춰졌다
  • Regularization = 함수의 복잡도를 제어한다

✨ 마무리 요약

  • Neural Network는 결국 복잡한 함수를 흉내내는 함수 근사기다.
  • 이 개념은 실무와 이론 모두에서 핵심 개념이다.
  • 앞으로 어떤 모델을 다루더라도 **‘무슨 함수를 흉내내는가?’**를 먼저 생각하자.

+ Recent posts