AI가 내린 결론, 정말 믿어도 될까? 인공지능의 '숨은 고민'을 찾아내는 혁신적 기술 탄생!
AI가 내린 결론, 정말 믿어도 될까? 인공지능의 '숨은 고민'을 찾아내는 혁신적 기술 탄생! 최근 우리 삶 곳곳에 인공지능(AI)이 스며들고 있다. 병원에서 병을 진단하거나, 은행에서 대출을 결정할 때도 AI의 도움을 받는다. 하지만 우리는 가끔 궁금해진다. "이 AI가 왜 이런 결론을 내렸을까?" 그리고 더 중요한 질문, "만약 다른 AI 모델을 썼다면 결과가 달라졌을까?" 하는 점이다 . 보통 AI 개발자들은 수많은 모델 중에서 가장 성적이 좋은 '딱 하나'의 모델을 골라 우리에게 보여준다 . 하지만 여기에는 무서운 함정이 숨어 있다. 성적이 비슷하게 좋은 다른 모델들은 전혀 다른 이유로 결론을 내리고 있을 수도 있기 때문이다 . 만약 우리가 1등 모델의 말만 믿고 중요한 결정을 내렸는데, 사실 그 결론이 아주 아슬아슬한 차이로 만들어진 것이라면 어떨까? 최근 학계에서는 이런 문제를 해결하기 위해 AI의 '불확실성'을 눈으로 보여주는 획기적인 연구 결과가 발표되었다. 바로 라쇼몽 효과(Rashomon Effect)를 이용한 새로운 설명 기술이다 . 하나만 믿으라고? AI 세계에도 '라쇼몽'이 존재한다! 영화 '라쇼몽'에서는 하나의 사건을 두고 목격자들이 저마다 다른 이야기를 한다. 인공지능의 세계도 이와 비슷하다 . 데이터는 하나인데, 성능이 거의 비슷한 수많은 AI 모델이 저마다 다른 '이유'를 대며 결과를 내놓는 현상을 바로 라쇼몽 효과라고 부른다 . 기존의 자동 머신러닝(AutoML) 시스템은 성능이 좋은 모델들을 많이 만들어내고도, 결국 가장 우수한 모델 하나만 남기고 나머지는 모두 버렸다 . 연구팀은 이 점에 주목했다. "버려지는 모델들도 사실은 아주 훌륭한 정보원 아닐까?" 하는 생각이다 . 연구팀은 성능이 우수한 모델들의 집합인 라쇼몽 세트(Rashomon Set)를 활용해, 특정...