뇌처럼 생각하는 AI, 거대 모델의 시대에 반기를 들다
디지털 뇌와 논리 기호가 나란히 배치된 이 일러스트는, 대규모 데이터와 모델 스케일링에 의존하지 않고 효율적인 학습을 지향하는 Neurosymbolic AI의 개념을 시각화한 것이다. |
‘신경+기호’ 융합이 만드는 작고 똑똑한 인공지능의 미래
요즘 인공지능(AI)은 크고 복잡하다.
GPT-4, Gemini Ultra 같은 최신 모델은 수천억 개에서 1조 개가 넘는 매개변수를 갖고 있다.
학습에만 수백억 원이 들고, 전기를 몇 기가와트씩 먹는다.
과연 이렇게 거대해져야만 똑똑해질 수 있는 걸까?
이 질문에 ‘그렇지 않다’고 답하는 새로운 흐름이 있다.
그 이름은 바로 Neurosymbolic AI(신경기호 인공지능).
이 방식은 ‘기계학습은 크고 많아야 한다’는 스케일링 법칙(scaling laws)에 맞서는 대안적 철학이자 기술 전략이다.
---
똑똑한 AI = 더 많은 데이터 + 더 큰 모델?
최근까지 AI 발전의 공식은 간단했다.
"데이터를 더 모아라. 모델을 더 키워라. 컴퓨팅 파워를 더 써라."
이른바 스케일링 법칙이다.
하지만 이 방식은 이제 환경 파괴, 에너지 소비, 진입 장벽이라는 새로운 문제를 만들어내고 있다.
GPT-3의 학습에는 1.287 GWh, 즉 인간 뇌의 수천 년치 에너지가 들었다
최신 모델은 몇 백억 원의 비용이 없으면 접근조차 불가능하다
모델들은 점점 비공개(폐쇄형)로 바뀌며, 소수 기업이 AI 기술을 독점하는 양상이다
이런 흐름을 벗어나기 위해 떠오른 게 바로 Neurosymbolic AI다.
---
Neurosymbolic AI란?
말 그대로 신경망(Neural) + 기호(Symbolic)을 결합한 인공지능이다.
각각의 특징은 이렇다:
| 구성 | 장점 | 단점 |
| --- | ---------------------- | ---------------- |
| 신경망 | 데이터로부터 학습, 유연성, 높은 성능 | 해석 불가, 데이터 많이 필요 |
| 기호 | 논리적 추론, 명확한 해석, 적은 데이터 | 유연성 부족, 학습 어려움 |
Neurosymbolic AI는 이 둘을 하이브리드 방식으로 엮는다.
복잡한 문제를 신경망으로 처리하되, 추론이나 규칙 기반 판단은 기호 방식으로 처리하는 것이다.
---
이 방식의 장점은?
1. 덜 배워도 똑똑하다
사람은 “빨간불에 멈춰” 같은 규칙 하나만 배워도 대부분의 상황에 적용할 수 있다.
Neurosymbolic AI는 이렇게 적은 데이터로 일반화할 수 있는 능력을 갖는다.
2. 해석 가능성 + 정확도
신경망은 결과는 내지만 ‘왜 그렇게 판단했는지’ 알기 어렵다
기호 기반은 그 이유를 논리적으로 설명할 수 있다
→ 두 방식을 섞으면 AI가 말이 되는 추론을 할 수 있게 된다
3. 작은 모델로 큰 모델 능가
GPT-3에서 상식을 추출해 100배 작은 모델로 distillation한 사례
작은 모델이 GPT-4보다 상식 추론에서 30% 이상 우수한 성과를 냄
실제 사례에서는 학습 시간 0.1%, 파라미터 수 1%, 성능은 +46% 증가
---
어디서 실제로 쓰이고 있을까?
Amazon: 고객 데이터를 LLM으로 분석 → 상식 그래프(Knowledge Graph)로 추출 → 추천 시스템에 사용
물리 기반 예측: 자율주행 차량의 움직임을 예측할 때, 기존 물리 법칙(PDE)을 신경망에 통합해 극소 데이터로도 학습 가능
로봇 시뮬레이션: 딥러닝보다 훨씬 적은 데이터로도 자연스러운 물체 운동 시뮬레이션 구현
---
뇌과학과도 닮았다
인간 뇌도 두 가지 체계를 함께 쓴다:
직관적·자동화된 사고: 축구 선수가 공을 차는 무의식적 반응
논리적·의식적 추론: 운전 초보가 규칙을 하나씩 따져가며 운전
→ Neurosymbolic AI는 이 ‘2중 처리 구조’를 기계 학습에 그대로 이식한 셈이다.
---
“그렇다면 Scaling은 필요 없어진 걸까?”
꼭 그렇지는 않다.
논문 저자들은 다음과 같이 말한다:
“데이터 기반과 기호 기반은 대립 개념이 아니다.
효율적인 AI를 위해선 이 둘이 협력해야 한다.”
즉, 스케일링 법칙은 여전히 강력한 도구지만,
그 부작용(에너지, 비용, 폐쇄성)을 줄이고
AI의 범용성과 신뢰성을 높이기 위해 기호 기반 추론이 보완책이 될 수 있다는 것이다.
---
정리하면
✅ 신경망은 배운 걸 일반화하는 데 강하다
✅ 기호 기반은 논리적 설명과 데이터 절약에 강하다
✅ 둘을 섞으면 작고 똑똑하고 해석 가능한 AI가 된다
✅ 대형 모델의 독점성과 비효율성을 타파할 수 있다
✅ 인간 뇌의 학습 구조와도 매우 닮았다
---
출처 논문
Velasquez, A., Bhatt, N., Topcu, U., et al. Neurosymbolic AI as an antithesis to scaling laws. PNAS Nexus 4, pgaf117 (2025).