“AI야, 왜 그런 결론을 냈어?”… 드디어 답할 수 있는 시대가 왔다
인공지능이 추천한 영화, 병원에서 AI가 내린 진단, 금융 앱이 권한 대출 결과. 요즘 우리는 하루에도 수십 번씩 AI의 판단 속에서 살아간다. 그런데 이상하지 않은가? AI는 점점 똑똑해지는데, 정작 사람들은 가장 중요한 질문 하나에 답을 듣지 못했다. “그래서 왜 그렇게 판단했는데?” AI 업계는 이 문제를 오래 고민해왔다. 그리고 최근, 놀라운 연구 하나가 등장했다. AI가 단순히 결과만 내놓는 것이 아니라, 사람처럼 “규칙”으로 설명할 수 있는 길이 열린 것이다. 영국 옥스퍼드대와 런던대학교, 노르웨이 오슬로대학교 연구진이 발표한 이번 논문은 그래프 신경망(GNN)과 데이터로직(Datalog)을 연결하는 새로운 방법을 제시했다. 쉽게 말하면, “블랙박스 AI”였던 최신 AI 모델이 인간이 읽을 수 있는 규칙으로 변환될 수 있다는 뜻이다. AI 업계에서는 벌써부터 “설명 가능한 AI의 결정적 전환점”이라는 평가가 나온다. 인간은 규칙으로 생각하지만 AI는 숫자로 생각한다 지금까지 대부분의 AI는 엄청난 숫자 계산을 통해 결론을 냈다. 예를 들어 유튜브 추천 알고리즘은 다음처럼 작동한다. 어떤 영상을 오래 봤는지 어떤 채널을 구독했는지 어떤 사람들과 취향이 비슷한지 어떤 시간대에 영상을 보는지 이런 수많은 데이터를 계산해 “당신이 좋아할 영상”을 추천한다. 문제는 여기서부터다. AI는 왜 그 영상을 추천했는지 스스로 설명하지 못한다. 정확히는 “설명 가능한 언어”로 바꿔 말하지 못한다. 사람은 보통 이렇게 설명한다. “도스토옙스키 책을 좋아했으니 같은 작가의 다른 작품도 추천한 거야.” 하지만 AI 내부에서는 이런 식이다. 벡터 3,421 증가 노드 연결 강도 상승 임베딩 거리 감소 일반인은 물론 개발자조차 이해하기 어려운 수준이다. AI의 ‘뇌 구조’를 규칙으로 번역한 연구 이번 연구의 핵심은 여기 있다. 연구진은 그래프 신경망(GNN)이 실제로는 일정한 “논리 규칙”처럼 행동한다는 사실을 발견했다. 그래프 신경망은 인간관계를 분석하는 데 매우...