AI, 지식 파트너로 활용하기
정답을 알려주는 대신 질문을 던지고 스스로를 돌아보게 만드는 '지식 구축 파트너'로서의 인공지능 모델링. |
최근 챗GPT 같은 인공지능(AI)에게 질문을 던지면 마치 모든 것을 다 안다는 듯이 아주 유창하게 대답을 내놓는다. 하지만 이 똑똑해 보이는 AI의 답변이 사실은 알맹이 없는 빈 껍데기일 수도 있다는 사실을 생각해 본 적이 있는가?
SF 고전인 은하수를 여행하는 히치하이커를 위한 안내서에서 초거대 컴퓨터는 삶의 의미를 묻는 질문에 아주 당당하게 42라는 숫자를 내놓았다.
이 답변은 문법적으로 완벽하고 형식도 갖췄지만, 정작 왜 그게 답인지, 어떤 과정을 거쳐 나왔는지에 대한 핵심이 빠져 있다.
오늘 소개할 연구는 바로 이 지점에서 시작한다. 캐나다 토론토 대학교의 얼 우드러프(Earl Woodruff)와 짐 휴잇(Jim Hewitt) 교수는 우리가 AI를 대하는 방식에 근본적인 문제가 있다고 경고한다.
인공지능은 앵무새인가 천재인가? 우리가 놓치고 있는 진실
사람들은 흔히 AI가 내놓는 유창한 문장을 보고 인공지능이 지식을 가지고 있다고 착각한다. 하지만 연구진은 인공지능의 답변이 지식의 조건을 충족하지 못한다고 단언한다.
진정한 지식이란 단순히 맞는 말을 하는 것이 아니라, 그 주장을 정당화하고 비판에 맞서며 필요할 때 수정할 수 있는 능력이 있어야 하기 때문이다.
인공지능은 거대한 데이터를 학습해 다음에 올 단어를 확률적으로 계산하는 데는 천재적이다. 하지만 스스로 질문을 던지거나, 자신이 한 말이 틀렸을 때 세상의 피드백을 받아들여 진심으로 고찰하는 능력은 없다.
한마디로 인공지능은 정답처럼 보이는 문장을 만드는 기술은 뛰어나지만, 그 문장에 담긴 의미에 대해 책임을 지거나 스스로 생각할 줄 모르는 상태라는 것이다.
이 연구는 인공지능을 단순한 정답 기계로 쓰는 것이 아니라, 인간과 함께 지식을 만들어가는 지식 구축 파트너(Knowledge-Building Partner, KBP)로 재설계해야 한다고 주장한다.
인공지능과 인간의 뇌 구조 전격 비교: 누가 더 똑똑할까?
연구진은 심리학자 키스 스타노비치의 이론을 빌려 인간과 인공지능의 사고 능력을 세 가지 층위로 나누어 분석했다. 이 표를 보면 우리가 왜 인공지능에게 모든 것을 맡기면 안 되는지 한눈에 알 수 있다.
| 사고 기능 | 역할 설명 | 인공지능(LLM) | 인간 |
|---|---|---|---|
| 패턴 탐지 | 반복되는 규칙이나 비슷한 구조를 빠르게 찾아냄 | 매우 뛰어남 | 강함 |
| 패턴 확장 | 찾은 규칙을 바탕으로 내용을 이어가거나 빈칸을 채움 | 매우 뛰어남 | 보통 |
| 가설 생성 | 어떤 현상에 대해 가능한 설명이나 모델을 제안함 | 강함 | 강함 |
| 지속적 시뮬레이션 | 만약 ~라면? 이라는 시나리오를 머릿속으로 계속 돌려봄 | 매우 뛰어남 | 제한적 |
| 억제 제어 | 부적절하거나 틀린 반응이 나오려고 할 때 스스로 멈춤 | 약함 | 강함 |
| 이상 징후 감지 | 예상과 다른 결과나 모순이 생겼을 때 이를 알아차림 | 약함 | 강함 |
| 탐구 시작 | 문제가 생겼을 때 이를 해결하기 위해 조사를 시작함 | 없음 | 강함 |
| 지식적 조절 | 무엇이 증거인지, 언제 조사를 멈출지 결정함 | 없음 | 강함 |
| 지식적 전념 | 자신의 주장에 책임을 지고 근거를 바탕으로 확신함 | 없음 | 강함 |
표에서 알 수 있듯이, 인공지능은 패턴을 찾고 이야기를 늘어놓거나 복잡한 계산을 반복하는 자동적, 알고리즘적 능력은 인간을 압도한다. 하지만 스스로 문제를 인식하고, 가설을 비판적으로 검토하며, 진정으로 탐구를 시작하는 성찰적 능력은 오직 인간만이 가진 고유한 영역이다.
인공지능을 내 공부 친구로 만드는 3단계 비법
연구진은 인공지능이 인간의 사고력을 빼앗는 독재자가 아니라, 더 깊은 생각을 할 수 있게 돕는 파트너가 되어야 한다고 강조한다. 이를 위해 인공지능 설계와 사용 방식에 세 가지 원칙을 제시했다.
첫째, 인공지능은 권위를 버려야 한다. AI가 정답을 툭 던져주는 방식은 인간의 생각을 멈추게 한다. 대신 인공지능은 이것은 나의 추측일 뿐이야라거나 이런 관점은 어때?라며 인간이 다시 생각하게 만드는 방식으로 말을 걸어야 한다.
둘째, 인공지능은 인간의 생각을 시각화하고 확장해주는 역할을 해야 한다. 인간이 가진 복잡한 생각을 정리해주거나, 반대되는 의견을 제시해 인간이 자신의 생각을 더 정교하게 다듬을 수 있도록 돕는 도구가 되어야 한다.
셋째, 인공지능은 인간 공동체 속으로 들어와야 한다. 1대 1로 대화하며 답을 얻는 것이 아니라, 여러 사람이 함께 토론하는 공간에서 아이디어를 제공하고 기록하는 역할을 수행할 때 가장 효과적이다.
실제로 연구진은 초등학생이 무거운 물체가 더 빨리 떨어진다라는 잘못된 생각을 가지고 있을 때, 인공지능이 바로 그건 틀렸어라고 답하는 대신 그러면 깃털과 망치는 왜 다르게 떨어질까?라며 아이가 스스로 실험하고 생각하게 유도하는 방식이 훨씬 더 교육적이라는 것을 보여주었다.
인공지능 시대의 진짜 주인은 바로 당신이다
결국 인공지능 시대에 가장 중요한 것은 인공지능의 성능이 아니라, 그것을 사용하는 인간의 성찰적 능력이다. 인공지능이 유창하게 내뱉는 말에 휘둘리지 않고, 왜?라는 질문을 던지며 끝까지 답을 찾아가는 태도가 진정한 지식을 만든다.
인공지능은 우리의 뇌를 대신하는 기계가 아니라, 우리의 사고를 더 멀리 뻗게 해주는 지팡이가 되어야 한다.
이 연구는 기술이 발전할수록 우리가 더 인간답게 생각하고, 함께 협력하여 지식을 쌓아가는 과정이 얼마나 소중한지를 다시 한번 일깨워준다.
인공지능이라는 강력한 파트너와 손잡고 더 넓은 세상으로 나아갈 준비가 되었는가? 정답은 인공지능이 아니라 바로 당신의 생각 속에 있다.
출처: Woodruff, E., & Hewitt, J. (2026). Epistemic Agency in the Age of Large Language Models: Design Principles for Knowledge-Building AI. AI, 7(3), 99-142. https://doi.org/10.3390/ai7030099