전혀 다른 방식의 AI, 인간 두뇌에서 길을 찾다
“E-Sense: 인간의 뇌에서 영감을 받은 AI 설계의 탄생” - 생물학적 두뇌와 디지털 칩이 연결된 이미지를 통해, 순서 학습과 의미 해석을 목표로 하는 새로운 AI 아키텍처를 상징적으로 표현. |
― ‘E-Sense’ 인공지능 시스템이 제안하는 새로운 설계도
오늘날 인공지능은 인간의 말을 이해하고, 이미지를 분류하고, 장기에서 인간을 이기며, 복잡한 게임도 척척 해낸다. 하지만 여전히 기계는 ‘생각하는 법’을 제대로 배우지 못했다. 여기에 도전장을 던진 새로운 시스템이 있다. 이름하여 E-Sense. 'Electronic Sense' 또는 'Essence'의 줄임말로, 기계가 인간처럼 느끼고 판단하게 만들겠다는 야심 찬 목표가 담겼다.
뇌를 닮은 인공지능이 필요하다
기존의 인공지능, 특히 딥러닝 기반의 시스템들은 대체로 '통계'를 중심으로 움직인다. 수많은 데이터를 학습해 어떤 패턴이 많이 나왔는지를 파악하는 식이다. 이 방식은 성공적이지만, 여전히 한계가 존재한다. 맥락을 이해하거나 복잡한 규칙을 조합하는 일에는 약하고, 수많은 데이터를 요구하며, 때때로 말도 안 되는 실수를 저지르기도 한다.
그래서 등장한 것이 바로 E-Sense 시스템이다. 이 시스템은 인간의 뇌 구조에서 영감을 받은 새로운 인공지능 설계도다. 논문을 쓴 연구자 키어런 그리어는 기존 AI가 지나치게 수학적이고 비생물학적이라고 지적하며, 좀 더 ‘사람다운’ 학습 방식을 찾아 나섰다.
세 겹의 뇌: 기억, 의미, 기능
E-Sense는 세 단계로 구성된다. 이 구조는 인간의 뇌를 닮았다. 처음엔 ‘기억’이고, 그 다음은 ‘의미’, 마지막엔 ‘기능’이 있다.
- 기억 단계: 데이터가 일종의 마르코프 구조로 저장된다. 단어들이 어떤 순서로 나왔는지를 기록하지만, 빈도나 강도를 따지지 않는다.
- 의미 단계: 수평적인 정보 집합(예: 단어 나열)을 수직적인 ‘유형’ 기반 클러스터로 바꾼다. 이는 일종의 미니 ‘온톨로지’이다.
- 기능 단계: 입력을 해석하고 재배열하는 두뇌의 피질과 유사하다. 특히 ‘순서’를 학습하는 능력이 탁월하다.
의미 없는 빈도 수 대신, ‘의미의 모양’을 본다
논문에서는 E-Sense가 기존 워드 벡터 시스템(Word2Vec)보다 더 깊은 의미 연결을 포착할 수 있다고 주장한다. 예컨대, 『오즈의 마법사』를 분석했을 때, 기존 AI는 'Dorothy' 주변 단어들을 묶지만, E-Sense는 ‘asked’, ‘came’, ‘see’를 함께 묶었다. 이는 **탐험과 발견**이라는 개념에 가까운 묶음이다.
비슷하게 『로미오와 줄리엣』에서도 ‘Romeo’와 ‘Shall’이라는 단어가 함께 묶였는데, 이는 등장인물의 결단과 선택을 암시하는 묶음이다. 그리어는 이런 구조를 ‘유형 기반의 의미 추론’이라 부른다.
'순서를 배우는' AI? 새로운 학습 방식
이 시스템이 ‘순서’를 학습할 수 있다는 점은 특히 인상적이다. 예를 들어 ‘계란 삶는 법’을 학습하면, 표현이 달라도 비슷한 요리법 문장에서 순서를 재구성할 수 있다. 이를 연구자는 ‘Ordinal Learning’, 즉 ‘서열 학습’이라 이름 붙였다.
이는 단순히 외우는 것이 아니라, 배운 순서를 이해하고 응용하는 것에 가깝다.
인간을 닮았지만, 똑같지는 않다
E-Sense는 인간 뇌의 모든 것을 모방하려 하진 않는다. 오히려 중간지점을 찾으려 한다. 연구자는 이 시스템이 아직 초기 단계이며 정확도는 높지 않다고 인정하지만, 다음과 같은 장점이 있다:
- 적은 데이터로도 학습 가능
- 내부 구조의 모듈화
- 관계 기반의 의미 해석
어디에 쓰일 수 있을까?
E-Sense는 아직 실용화 단계는 아니지만, 문맥 이해, 상징적 추론, 추상적 개념의 학습에 대한 새로운 실마리를 제공할 수 있다. 이는 기존 AI 시스템과는 확연히 다른 접근법이다.
과연 이 실험적인 구조가 GPT류 AI와 융합될 수 있을까? 아니면 전혀 다른 길을 갈까? 분명한 건, AI의 진화는 이제 시작이라는 점이다.
출처 논문
Greer, K. Introduction to the E-Sense Artificial Intelligence System. AI 2025, 6, 122.