인공지능의 속마음을 엿보다! 시계열 AI의 비밀을 푸는 열쇠 'ExplainTS' 등장
인공지능(AI)이 우리 삶의 깊숙한 곳까지 들어와 있다. 병원에서 심전도 데이터를 분석해 병을 진단하고, 공장에서 기계의 진동을 감지해 고장을 예측하며, 금융 시장에서 주가의 흐름을 파악하기도 한다. 이처럼 시간에 따라 변하는 데이터를 '시계열 데이터'라고 부르는데, 최근의 AI는 이 복잡한 데이터를 척척 분류해낸다. 하지만 문제가 하나 있다. 바로 이 똑똑한 AI가 '왜' 그런 판단을 내렸는지 알기 어렵다는 점이다. 일종의 검은 상자(Black-box)인 셈이다. 만약 AI가 멀쩡한 사람에게 병이 있다고 진단했는데 그 이유를 설명하지 못한다면 누가 그 결과를 믿을 수 있을까? 그래서 등장한 것이 바로 설명 가능한 인공지능, 즉 XAI 기술이다. 이번에 발표된 연구는 시계열 AI가 내린 결론의 이유를 누구나 쉽게 확인하고 비교할 수 있도록 돕는 거대한 보물창고, 'ExplainTS' 벤치마크 데이터셋에 관한 이야기다. AI가 왜 그렇게 생각했을까? 103가지 숙제로 풀어보는 인공지능의 논리 연구팀은 AI의 설명 능력을 제대로 평가하기 위해 아주 특별한 실험실을 만들었다. 지금까지는 연구자들마다 각자 다른 데이터와 모델을 사용해 AI의 설명 방식을 테스트했기 때문에, A라는 설명 방식이 B보다 정말 더 뛰어난지 객관적으로 비교하기가 무척 어려웠다. 마치 수학 문제를 푸는 방식은 제각각인데 문제 자체가 달라서 누가 더 잘 풀었는지 가릴 수 없는 상황과 비슷했다. 연구팀은 이 문제를 해결하기 위해 UCR/UEA 아카이브에서 수집한 103가지의 다양한 시계열 분류 작업(83개의 단변량, 20개의 다변량 데이터)을 한데 모았다. 그리고 이 모든 데이터에 동일하게 적용할 수 있는 표준 AI 모델(ConvLSTM)을 미리 학습시켜 준비했다. 이제 연구자들은 힘들게 AI 모델을 처음부터 가르칠 필요 없이, 이미 준비된 모델이 내놓은 설명 결과물을 즉시 분석하기만 하면 된다. 이번 연구의 핵심은 단순히 데이터만 모은 것이 아니라,...