AI는 어떤 ‘의미’를 아는가?
– 언어모델과 인간의 개념 이해, 그 경계를 파헤치다
요즘 사람보다 말을 더 잘하는 AI를 흔히 본다. "이 단어 뜻이 뭐야?" 하고 물으면, 딥러닝 기반 언어모델(예: ChatGPT)은 순식간에 사전 수준의 정의와 예시를 내놓는다. 하지만, 그 말—진짜 이해하고 하는 말일까?
하이델베르크대학과 막스플랑크연구소 공동 연구팀은 이 질문에 과학적으로 접근했다. 대형언어모델(LLM)이 인간처럼 ‘개념’을 이해하는지를 실험을 통해 측정하고, 그 결과를 인간의 개념 처리 과정과 비교한 것이다. 간단히 말해, AI는 정말 어떤 단어의 ‘뜻’을 아는지, 아니면 그럴 듯한 문장을 조합해낼 뿐인지 검증해 본 셈이다.
AI는 개념을 어떻게 ‘이해’할까?
사람은 개념을 경험으로 익힌다. “바나나”를 알기 위해선 직접 보거나, 먹거나, 누가 설명하는 걸 들은 적이 있어야 한다. 반면 AI는 수십억 개의 문장을 훈련 데이터로 삼아 ‘단어 간 관계’ 패턴을 통계적으로 학습한다. 개념의 맥락을 수치화한 것인데, 이론상 인간처럼 개념을 구성할 수도 있다는 주장도 있다.
하지만, 실제로 그렇게 하고 있을까?
연구진은 이를 확인하기 위해 독창적인 실험을 설계했다. 먼저 인간 참가자 17명에게 fMRI를 통해 뇌 활동을 측정하면서 200개의 일상 단어(예: 바위, 토마토, 바나나)를 하나씩 제시했다. 그러면서 참가자들이 단어의 뜻을 떠올릴 때 어떤 뇌 부위가 활성화되는지를 추적했다.
이 데이터를 바탕으로 "인간이 특정 개념을 어떻게 신경적으로 표현하는가"에 대한 일종의 '개념 지도'가 완성됐다. 이후 이 지도와, 대형언어모델이 생성한 개념 간 관계 구조를 비교해 두 시스템이 얼마나 유사한지를 측정했다.
놀라운 결과: 겉보기엔 닮았지만, 안은 다르다
첫 번째 결과는 놀라웠다. GPT-2나 GPT-3 같은 언어모델들이 만든 개념 구조는 인간의 뇌 데이터와 30~70% 가량 상관성이 있었다. 다시 말해, 어떤 단어들끼리 가까운지, 멀리 있는지에 대한 감각은 꽤 유사했다.
그러나 이것만으론 부족하다. 연구진은 ‘표면적 유사성’과 ‘내적 구조의 정합성’을 따로 측정했다. 즉, AI가 인간처럼 보이기 위해 표면적으로 흉내 낼 수는 있어도, 진짜로 같은 방식으로 개념을 구성하는지는 별개라는 것이다.
이를 검증하기 위해 "구조 일반화(Structural Generalization)"라는 고차원 분석을 적용했다. 쉽게 말해, AI가 새로운 개념을 접했을 때 기존 개념들과 어떤 방식으로 연결짓는지를 본 것이다. 이 분석에서 GPT 모델은 일관되지 않은 패턴을 보였고, 인간과 달리 "개념 내 의미 구조"를 일반화하는 능력이 부족했다.
결국, AI는 ‘뜻’을 아는 걸까?
이 연구는 단순한 기술 비교가 아니다. 그것은 언어모델이 정말 ‘의미’를 다루는지, 아니면 단지 말을 ‘모방’하는지에 대한 본질적인 물음을 다룬다. GPT-3처럼 강력한 언어모델조차도 개념을 진짜 이해하지 못할 가능성이 높다는 사실이 드러난 것이다.
연구진은 이렇게 말한다. "LLM은 인간의 개념 구조를 통계적으로 근사할 수는 있지만, 그 개념을 형성하고 일반화하는 방식은 인간과 근본적으로 다르다." 이것은 우리가 흔히 ‘AI가 사람처럼 이해한다’고 착각하는 이유가, 겉모습이 비슷하기 때문일 뿐이라는 점을 시사한다.
그래서, 이 연구가 왜 중요할까?
이 연구는 인공지능의 ‘이해 능력’을 새롭게 정의한다. 단순히 말을 잘하고 답을 빠르게 내놓는 것이 아니라, 말의 배후에 있는 개념적 맥락을 어떻게 다루는지가 중요하다는 점을 강조한 것이다.
앞으로 인간 수준의 AI를 개발하고자 한다면, 이런 근본적인 구조 차이를 극복해야 한다. 연구팀은 이 방향으로 더 나아가기 위해 ‘개념 일반화’를 중심으로 한 모델 설계와 훈련 방법이 필요하다고 주장한다.
즉, 인간처럼 맥락 속에서 개념을 새롭게 만들어내고, 다른 개념들과 유기적으로 연결지을 수 있는 AI—그게 진짜 ‘이해하는 인공지능’이다.
출처 논문
Hollenstein, N., Hertel, L., Van Uden, C. E., Zhuang, C., Güçlü, U., Dijkstra, N., ... & Hebart, M. N. (2025). Human concept representations reflect richer structures than those of language models. Nature Machine Intelligence. https://doi.org/10.1038/s42256-025-01065-z