대형언어모델(LLM), 마음의 비밀을 푸는 열쇠가 될까?




심리학자가 인공지능과 함께 실험실에 들어간다면


마음은 과연 계산될 수 있을까? 영화나 소설 속에서나 가능해 보이던 질문이 이제는 과학자들의 연구실에서 진지하게 논의되고 있다. 그 중심에는 ‘대형언어모델’, 즉 ChatGPT 같은 인공지능(AI)이 있다.

최근 발표된 한 연구는 심리학과 인공지능의 만남이 가져올 파장을 조명한다. 이 논문은 지금까지 심리학 여러 분야에서 LLM이 어떤 방식으로 쓰이고 있는지, 또 그것이 과연 ‘사람다운 사고’를 얼마나 흉내 낼 수 있는지를 깊이 있게 파고들었다.




생각하는 기계의 등장

심리학은 오랫동안 인간의 인지, 행동, 감정, 발달 등을 탐구해왔다. 하지만 이제는 이 인간의 ‘마음’이라는 주제를, 인간이 아닌 존재에게도 물어보는 시대다. 바로 LLM, 대형언어모델이다.

GPT-4를 비롯한 최신 모델들은 단지 문장을 생성하는 것을 넘어, 추론, 기억, 감정 이해 같은 인간의 고차원적 사고도 일부 수행하고 있다. 예를 들어, 어린이의 '마음이론(Theory of Mind)' 테스트에 GPT-4가 높은 점수를 받았다는 연구 결과는 충격적이다. 마치 일곱 살 아이처럼 타인의 믿음과 감정을 추론해낸 것이다.

이쯤 되면 반문하고 싶어진다. “AI가 정말 사람처럼 생각할 수 있는 걸까?”



심리학 실험에 AI가 피실험자로?

논문은 심리학의 다양한 분야에서 LLM이 어떻게 활용되고 있는지를 체계적으로 정리했다. 먼저 인지심리학 분야에서는 GPT 계열 모델이 인간의 의사결정, 창의력, 감정 이해, 문제 해결 능력 등에서 어느 정도 사람과 유사한 반응을 보인다는 것이 입증됐다.

특히 눈에 띄는 점은, 연구자들이 LLM을 ‘가상 피실험자’로 활용하기 시작했다는 것이다. 예를 들어, 실험 설계를 위해 사람들의 반응을 예측하거나, 특정 상황에서 어떤 결정을 내릴지 시뮬레이션할 수 있다. 이 과정에서 AI는 고도의 창의력과 직관을 요구하는 과제에서 사람보다 더 나은 성과를 내기도 했다.




마음을 치료하는 AI

이제 AI는 단순한 분석 도구를 넘어, 심리 치료의 보조자 역할까지 넘보고 있다. 연구에 따르면, GPT-4는 특정 내담자의 이야기에서 핵심 문제를 파악하고, 그에 맞는 조언을 제시하는 데 능숙하다. 어떤 참가자들은 “GPT가 써준 자기 이야기”를 읽고 실제 상담처럼 큰 감정적 통찰을 얻었다고 답했다.

또한 AI가 동료 지지자(peer supporter)로서 공감 피드백을 실시간으로 제공함으로써, 실제 사람들의 공감 능력까지 향상시켰다는 연구도 있다. 이쯤 되면 AI가 감정을 가진 것처럼 느껴지기도 한다. 물론 아직은 감정 자체를 ‘느낀다’기보단, 표현하는 방식만 흉내 내는 수준이지만.



교실과 연구실을 바꾸는 AI

교육심리학에서도 LLM의 쓰임새는 무궁무진하다. 수업 설계, 개인 맞춤 학습 콘텐츠 생성, 프로그래밍 실습 문제 출제 등에서 GPT는 이미 교사의 조력자로 자리잡고 있다. GPT-4는 수업 성적을 예측하고, 학생에게 적합한 문제를 추천할 수 있는 수준에 이르렀다.

한편, 발달심리학 연구자들은 LLM의 ‘마음이론’ 수준을 실험해보며, 그것이 인간의 인지발달 과정을 모사할 수 있는지 검토하고 있다. 이는 사람의 사고가 언어 노출만으로 발달하는지에 대한 철학적 질문과도 맞닿아 있다.




사회적 존재로서의 AI?

사회 및 문화심리학 분야에서는 AI가 얼마나 ‘사람다운’ 사회적 행동을 보이는지 실험하고 있다. GPT는 다양한 상황에서 인간과 비슷한 편향(예: 기준점 효과, 대표성 휴리스틱 등)을 드러내며, 사회적 판단 구조를 부분적으로 모사해낸다. 어떤 연구에서는 감정적 자극(기쁨, 공포 등)에 따라 GPT의 투자 의사결정이 달라지는 패턴까지 발견됐다. 흡사 감정에 따라 달라지는 인간의 행동과 닮아 있다.

게다가 LLM은 특정 문화적 성향도 반영한다. 예컨대 GPT-4는 정보 처리 방식에서 동양적 ‘전체적 사고’를 더 선호하는 경향을 보인다는 연구 결과도 있다.




AI, 심리학의 실험도구가 되다

연구자들이 실제로 LLM을 사용하는 방식도 다양해지고 있다. 문헌 정리, 가설 생성, 실험 설계, 데이터 해석, 논문 작성 등 심리학 연구의 전 과정에서 LLM이 하나의 도구로 자리잡는 중이다.

특히 문헌리뷰나 메타분석과 같은 반복적이고 방대한 작업을 AI가 대신해줌으로써, 연구자의 시간과 에너지를 전략적 사고와 해석에 집중할 수 있게 도와준다. 마치 실험실에 말 잘 듣는 조교 하나 들인 셈이다.




그런데… 과연 사람을 대체할 수 있을까?

물론, 이 모든 발전에도 불구하고 ‘AI가 인간을 완전히 대체할 수 있을까’ 하는 질문에는 신중한 태도가 필요하다. LLM은 여전히 감정이 없고, 의도나 자율성을 갖고 있지 않다. 인간의 복잡한 상황 맥락과 감정의 미세한 뉘앙스를 완벽히 파악하는 데에는 한계가 있다.

그리고 중요한 건, 이 기술을 사용하는 인간의 태도다. 연구자들은 윤리적 기준, 데이터 프라이버시, AI 남용 가능성 등에 대한 깊은 고민 없이 AI를 활용해선 안 된다고 경고한다. LLM은 도구이지, 과학의 주체는 여전히 인간이어야 한다는 이야기다.




인간의 마음을 더 잘 이해하는 길

이번 논문은 LLM이 심리학 연구의 전통적인 방식에 어떤 혁신을 가져올 수 있을지를 보여주는 한 편의 지도다. AI는 거울이자 도구다. 우리는 AI를 통해 인간 사고를 더 잘 모사하고, 동시에 인간의 독특함이 무엇인지를 더 명확히 알 수 있다.

어쩌면 AI를 연구하는 것은, 곧 우리 자신을 더 깊이 이해하려는 또 다른 방식의 탐험일지 모른다.




출처:
Luoma Ke, Song Tong, Peng Cheng, Kaiping Peng (2025). Exploring the frontiers of LLMs in psychological applications: a comprehensive review. Artificial Intelligence Review, 58:305. https://doi.org/10.1007/s10462-025-11297-5