“AI야, 왜 그런 결론을 냈어?”… 드디어 답할 수 있는 시대가 왔다

 



인공지능이 추천한 영화, 병원에서 AI가 내린 진단, 금융 앱이 권한 대출 결과.


요즘 우리는 하루에도 수십 번씩 AI의 판단 속에서 살아간다.


그런데 이상하지 않은가?


AI는 점점 똑똑해지는데, 정작 사람들은 가장 중요한 질문 하나에 답을 듣지 못했다.


“그래서 왜 그렇게 판단했는데?”


AI 업계는 이 문제를 오래 고민해왔다. 그리고 최근, 놀라운 연구 하나가 등장했다.


AI가 단순히 결과만 내놓는 것이 아니라, 사람처럼 “규칙”으로 설명할 수 있는 길이 열린 것이다.


영국 옥스퍼드대와 런던대학교, 노르웨이 오슬로대학교 연구진이 발표한 이번 논문은 그래프 신경망(GNN)과 데이터로직(Datalog)을 연결하는 새로운 방법을 제시했다. 쉽게 말하면, “블랙박스 AI”였던 최신 AI 모델이 인간이 읽을 수 있는 규칙으로 변환될 수 있다는 뜻이다.


AI 업계에서는 벌써부터 “설명 가능한 AI의 결정적 전환점”이라는 평가가 나온다.


인간은 규칙으로 생각하지만 AI는 숫자로 생각한다

지금까지 대부분의 AI는 엄청난 숫자 계산을 통해 결론을 냈다.

예를 들어 유튜브 추천 알고리즘은 다음처럼 작동한다.

  • 어떤 영상을 오래 봤는지
  • 어떤 채널을 구독했는지
  • 어떤 사람들과 취향이 비슷한지
  • 어떤 시간대에 영상을 보는지

이런 수많은 데이터를 계산해 “당신이 좋아할 영상”을 추천한다.


문제는 여기서부터다.


AI는 왜 그 영상을 추천했는지 스스로 설명하지 못한다.


정확히는 “설명 가능한 언어”로 바꿔 말하지 못한다.


사람은 보통 이렇게 설명한다.


“도스토옙스키 책을 좋아했으니 같은 작가의 다른 작품도 추천한 거야.”


하지만 AI 내부에서는 이런 식이다.

  • 벡터 3,421 증가
  • 노드 연결 강도 상승
  • 임베딩 거리 감소

일반인은 물론 개발자조차 이해하기 어려운 수준이다.


AI의 ‘뇌 구조’를 규칙으로 번역한 연구

이번 연구의 핵심은 여기 있다.


연구진은 그래프 신경망(GNN)이 실제로는 일정한 “논리 규칙”처럼 행동한다는 사실을 발견했다.


그래프 신경망은 인간관계를 분석하는 데 매우 강력한 AI다.


예를 들어:

  • 친구 관계 분석
  • SNS 추천
  • 쇼핑 추천
  • 논문 인용 네트워크
  • 질병 유전자 분석

같은 연결 구조를 이해하는 데 특화되어 있다.


쉽게 말하면 “관계의 AI”다.


그런데 연구진은 특정 조건을 만족하는 GNN이라면, 그 AI의 판단 과정을 인간이 읽을 수 있는 규칙 형태로 바꿀 수 있다고 증명했다.


예를 들면 이런 식이다.


“같은 작가의 책을 좋아한 사람이 있다면, 다른 책도 추천하라.”


이건 사람이 읽을 수 있다.


그리고 놀랍게도, 연구진은 AI 내부 계산이 실제로 이런 규칙들과 거의 동일하게 동작할 수 있다는 사실을 보여줬다.


AI가 ‘생각의 이유’를 설명하는 시대

이게 왜 중요할까?


지금 AI 업계 최대 문제 중 하나는 신뢰다.


AI가 아무리 똑똑해도 이유를 설명하지 못하면 사람은 불안해진다.


예를 들어:

  • 병원 AI가 암이라고 판단
  • 은행 AI가 대출 거절
  • 채용 AI가 탈락 판정
  • 보험 AI가 지급 거부

그런데 이유를 설명하지 못한다면?


사회는 AI를 믿기 어렵다.


실제로 유럽연합(EU)은 AI 규제를 강화하면서 “설명 가능성”을 매우 중요한 기준으로 보고 있다.


이번 연구는 바로 그 문제를 정면으로 겨냥했다.


AI가 단순히 답만 내놓는 기계가 아니라, “왜 그런 판단을 했는지” 설명 가능한 존재로 바뀔 가능성을 보여준 것이다.


AI의 블랙박스를 열어본 연구진

연구진은 여기서 멈추지 않았다.


그들은 AI가 특정 결과를 만들었을 때, 그 이유를 자동으로 규칙 형태로 추출하는 알고리즘도 개발했다.


쉽게 말하면 이런 상황이다.


AI:
“이 책을 추천합니다.”

인간:
“왜?”


AI:
“사용자가 도스토옙스키 작품을 좋아했고, 같은 작가의 다른 책을 좋아하는 사용자 패턴이 발견됐기 때문입니다.”


이건 엄청난 변화다.


지금까지 AI는 “결과 머신”에 가까웠다.


앞으로는 “설명하는 AI”가 될 가능성이 열린 것이다.


그런데 정확도까지 높다

설명 가능한 AI는 종종 성능이 떨어진다는 비판을 받았다.


쉽게 설명할 수 있는 AI는 대개 단순했고, 성능 좋은 AI는 너무 복잡했다.


그런데 이번 연구는 이 통념도 흔들었다.


연구진은 실제 지식 그래프(Knowledge Graph) 벤치마크 테스트를 수행했고, 새 방식의 GNN이 기존 최신 모델들과 비교해도 경쟁력 있는 성능을 보였다고 밝혔다.


즉:

  • 설명 가능하고
  • 규칙으로 바꿀 수 있고
  • 성능도 좋다

는 뜻이다.


AI 업계에서는 이 세 가지를 동시에 만족하는 것이 매우 어려운 과제로 여겨져 왔다.


AI 업계가 이 연구를 주목하는 이유

이 논문이 중요한 이유는 단순히 기술 하나를 만든 것이 아니기 때문이다.

AI의 방향 자체를 바꿀 가능성이 있기 때문이다.


지난 10년 동안 AI 업계는 “더 큰 모델” 경쟁을 해왔다.

  • 더 많은 데이터
  • 더 많은 GPU
  • 더 복잡한 계산
  • 더 거대한 신경망

하지만 이제는 다른 질문이 등장하고 있다.


“사람이 이해할 수 있는 AI인가?”


이번 연구는 여기에 매우 강력한 힌트를 준다.


AI의 판단을 규칙으로 번역할 수 있다면:

  • 의료 AI 검증 가능
  • 금융 AI 감사 가능
  • 법률 AI 설명 가능
  • 정부 AI 투명성 확보 가능

해진다.


즉, 단순한 기술 발전이 아니라 AI 민주화의 시작일 수도 있다.


초거대 AI 시대, 인간은 설명을 원하기 시작했다

흥미로운 점은 AI가 발전할수록 사람들은 오히려 더 설명을 요구한다는 사실이다.


GPT 같은 생성형 AI도 마찬가지다.


결과가 놀라울수록 사람은 궁금해진다.


“도대체 어떻게 이런 답을 만든 거지?”


이번 연구는 바로 그 질문에 대한 중요한 단서를 제공한다.


AI는 단순한 마법 상자가 아니라, 인간이 이해 가능한 논리 구조로 바뀔 수 있다는 것이다.


앞으로 AI는 ‘정답’보다 ‘설명’을 경쟁하게 될지도 모른다

미래 AI 시장에서는 단순히 성능만 높은 모델보다, 이유까지 설명하는 모델이 더 가치 있어질 가능성이 크다.


왜냐하면 실제 사회는 “정답만 맞는 기계”보다 “신뢰할 수 있는 기계”를 원하기 때문이다.


의료, 금융, 법률, 교육처럼 인간 삶에 직접 영향을 주는 영역에서는 특히 그렇다.


이번 연구는 아직 시작 단계다.


하지만 AI 역사에서 꽤 중요한 분기점으로 기록될 가능성이 있다.


AI가 처음으로 인간의 언어로 자신의 생각을 설명하기 시작했기 때문이다.


어쩌면 미래의 AI는 단순히 똑똑한 존재가 아니라,
“왜 그렇게 생각했는지 말할 수 있는 존재”가 될지도 모른다.


그리고 바로 그 순간, 인간은 AI를 진짜 동료처럼 받아들이게 될 가능성이 크다.


출처 

Tena Cucala, D., Cuenca Grau, B., Motik, B., & Kostylev, E. V. (2026). From monotonic graph neural networks to datalog and back: Expressive power and practical applications. Artificial Intelligence, 357, 104545. https://doi.org/10.1016/j.artint.2026.104545