뇌처럼 생각하는 AI, 거대 모델의 시대에 반기를 들다

 

좌측에는 신경망을 형상화한 푸른 디지털 뇌가, 우측에는 AND 게이트, 시그마(Σ), 포함 기호(∩), 논리 화살표가 주황색으로 배치되어 있는 이미지. 하단에는 'NEUROSYMBOLIC AI'라는 문구가 굵게 적혀 있다.
디지털 뇌와 논리 기호가 나란히 배치된 이 일러스트는, 대규모 데이터와 모델 스케일링에 의존하지 않고 효율적인 학습을 지향하는 Neurosymbolic AI의 개념을 시각화한 것이다.

‘신경+기호’ 융합이 만드는 작고 똑똑한 인공지능의 미래


요즘 인공지능(AI)은 크고 복잡하다.

GPT-4, Gemini Ultra 같은 최신 모델은 수천억 개에서 1조 개가 넘는 매개변수를 갖고 있다.

학습에만 수백억 원이 들고, 전기를 몇 기가와트씩 먹는다.

과연 이렇게 거대해져야만 똑똑해질 수 있는 걸까?


이 질문에 ‘그렇지 않다’고 답하는 새로운 흐름이 있다.

그 이름은 바로 Neurosymbolic AI(신경기호 인공지능).

이 방식은 ‘기계학습은 크고 많아야 한다’는 스케일링 법칙(scaling laws)에 맞서는 대안적 철학이자 기술 전략이다.


---


 똑똑한 AI = 더 많은 데이터 + 더 큰 모델?


최근까지 AI 발전의 공식은 간단했다.

"데이터를 더 모아라. 모델을 더 키워라. 컴퓨팅 파워를 더 써라."

이른바 스케일링 법칙이다.

하지만 이 방식은 이제 환경 파괴, 에너지 소비, 진입 장벽이라는 새로운 문제를 만들어내고 있다.


 GPT-3의 학습에는 1.287 GWh, 즉 인간 뇌의 수천 년치 에너지가 들었다

 최신 모델은 몇 백억 원의 비용이 없으면 접근조차 불가능하다

 모델들은 점점 비공개(폐쇄형)로 바뀌며, 소수 기업이 AI 기술을 독점하는 양상이다


이런 흐름을 벗어나기 위해 떠오른 게 바로 Neurosymbolic AI다.


---


 Neurosymbolic AI란?


말 그대로 신경망(Neural) + 기호(Symbolic)을 결합한 인공지능이다.

각각의 특징은 이렇다:


| 구성  | 장점                     | 단점               |

| --- | ---------------------- | ---------------- |

| 신경망 | 데이터로부터 학습, 유연성, 높은 성능  | 해석 불가, 데이터 많이 필요 |

| 기호  | 논리적 추론, 명확한 해석, 적은 데이터 | 유연성 부족, 학습 어려움   |


Neurosymbolic AI는 이 둘을 하이브리드 방식으로 엮는다.

복잡한 문제를 신경망으로 처리하되, 추론이나 규칙 기반 판단은 기호 방식으로 처리하는 것이다.


---


 이 방식의 장점은?


 1. 덜 배워도 똑똑하다


사람은 “빨간불에 멈춰” 같은 규칙 하나만 배워도 대부분의 상황에 적용할 수 있다.

Neurosymbolic AI는 이렇게 적은 데이터로 일반화할 수 있는 능력을 갖는다.


 2. 해석 가능성 + 정확도


 신경망은 결과는 내지만 ‘왜 그렇게 판단했는지’ 알기 어렵다

 기호 기반은 그 이유를 논리적으로 설명할 수 있다

  → 두 방식을 섞으면 AI가 말이 되는 추론을 할 수 있게 된다


 3. 작은 모델로 큰 모델 능가


 GPT-3에서 상식을 추출해 100배 작은 모델로 distillation한 사례

 작은 모델이 GPT-4보다 상식 추론에서 30% 이상 우수한 성과를 냄

 실제 사례에서는 학습 시간 0.1%, 파라미터 수 1%, 성능은 +46% 증가


---


 어디서 실제로 쓰이고 있을까?


 Amazon: 고객 데이터를 LLM으로 분석 → 상식 그래프(Knowledge Graph)로 추출 → 추천 시스템에 사용

 물리 기반 예측: 자율주행 차량의 움직임을 예측할 때, 기존 물리 법칙(PDE)을 신경망에 통합해 극소 데이터로도 학습 가능

 로봇 시뮬레이션: 딥러닝보다 훨씬 적은 데이터로도 자연스러운 물체 운동 시뮬레이션 구현


---


 뇌과학과도 닮았다


인간 뇌도 두 가지 체계를 함께 쓴다:


 직관적·자동화된 사고: 축구 선수가 공을 차는 무의식적 반응

 논리적·의식적 추론: 운전 초보가 규칙을 하나씩 따져가며 운전


→ Neurosymbolic AI는 이 ‘2중 처리 구조’를 기계 학습에 그대로 이식한 셈이다.


---


 “그렇다면 Scaling은 필요 없어진 걸까?”


꼭 그렇지는 않다.

논문 저자들은 다음과 같이 말한다:


 “데이터 기반과 기호 기반은 대립 개념이 아니다.

 효율적인 AI를 위해선 이 둘이 협력해야 한다.”


즉, 스케일링 법칙은 여전히 강력한 도구지만,

그 부작용(에너지, 비용, 폐쇄성)을 줄이고

AI의 범용성과 신뢰성을 높이기 위해 기호 기반 추론이 보완책이 될 수 있다는 것이다.


---


 정리하면


✅ 신경망은 배운 걸 일반화하는 데 강하다

✅ 기호 기반은 논리적 설명과 데이터 절약에 강하다

✅ 둘을 섞으면 작고 똑똑하고 해석 가능한 AI가 된다

✅ 대형 모델의 독점성과 비효율성을 타파할 수 있다

✅ 인간 뇌의 학습 구조와도 매우 닮았다


---

출처 논문

Velasquez, A., Bhatt, N., Topcu, U., et al. Neurosymbolic AI as an antithesis to scaling laws. PNAS Nexus 4, pgaf117 (2025).