인공지능의 속마음을 엿보다! 시계열 AI의 비밀을 푸는 열쇠 'ExplainTS' 등장

 



인공지능(AI)이 우리 삶의 깊숙한 곳까지 들어와 있다. 병원에서 심전도 데이터를 분석해 병을 진단하고, 공장에서 기계의 진동을 감지해 고장을 예측하며, 금융 시장에서 주가의 흐름을 파악하기도 한다. 이처럼 시간에 따라 변하는 데이터를 '시계열 데이터'라고 부르는데, 최근의 AI는 이 복잡한 데이터를 척척 분류해낸다.


하지만 문제가 하나 있다. 바로 이 똑똑한 AI가 '왜' 그런 판단을 내렸는지 알기 어렵다는 점이다. 일종의 검은 상자(Black-box)인 셈이다. 만약 AI가 멀쩡한 사람에게 병이 있다고 진단했는데 그 이유를 설명하지 못한다면 누가 그 결과를 믿을 수 있을까? 그래서 등장한 것이 바로 설명 가능한 인공지능, 즉 XAI 기술이다.


이번에 발표된 연구는 시계열 AI가 내린 결론의 이유를 누구나 쉽게 확인하고 비교할 수 있도록 돕는 거대한 보물창고, 'ExplainTS' 벤치마크 데이터셋에 관한 이야기다.


AI가 왜 그렇게 생각했을까? 103가지 숙제로 풀어보는 인공지능의 논리

연구팀은 AI의 설명 능력을 제대로 평가하기 위해 아주 특별한 실험실을 만들었다. 지금까지는 연구자들마다 각자 다른 데이터와 모델을 사용해 AI의 설명 방식을 테스트했기 때문에, A라는 설명 방식이 B보다 정말 더 뛰어난지 객관적으로 비교하기가 무척 어려웠다. 마치 수학 문제를 푸는 방식은 제각각인데 문제 자체가 달라서 누가 더 잘 풀었는지 가릴 수 없는 상황과 비슷했다.


연구팀은 이 문제를 해결하기 위해 UCR/UEA 아카이브에서 수집한 103가지의 다양한 시계열 분류 작업(83개의 단변량, 20개의 다변량 데이터)을 한데 모았다. 그리고 이 모든 데이터에 동일하게 적용할 수 있는 표준 AI 모델(ConvLSTM)을 미리 학습시켜 준비했다. 이제 연구자들은 힘들게 AI 모델을 처음부터 가르칠 필요 없이, 이미 준비된 모델이 내놓은 설명 결과물을 즉시 분석하기만 하면 된다.


이번 연구의 핵심은 단순히 데이터만 모은 것이 아니라, AI가 내린 판단의 '근거'들을 미리 계산해서 저장해두었다는 점이다. 여기에는 SHAP, LIME처럼 AI의 특정 부분에 점수를 매기는 방식부터, Anchor나 PHAR처럼 "만약 데이터가 이 범위 안에 있다면~"과 같이 논리적인 규칙으로 설명하는 방식까지 포함되어 있다. 특히 연구팀이 제안한 PHAR 방식은 기존의 방식들이 설명하기 어려워했던 연속적인 신호 데이터에서도 아주 높은 확률로 명확한 규칙을 찾아내어 AI의 속마음을 투명하게 보여준다.


복잡한 계산은 끝났다! 미리 구워진 설명서로 연구의 문턱을 낮추다

연구팀이 구축한 ExplainTS의 가장 큰 장점은 '재현성'과 '효율성'이다. AI에게 설명을 요구하는 작업은 사실 AI를 학습시키는 것보다 훨씬 더 많은 컴퓨터 자원과 시간을 잡아먹는다. 


연구팀은 최고급 그래픽 카드(NVIDIA RTX A5500) 두 대를 동원해 엄청난 양의 설명 데이터를 미리 다 계산해두었다. 덕분에 다른 연구자들이나 학생들은 클릭 몇 번으로 AI의 설명 데이터를 다운로드해서 바로 공부하거나 새로운 분석 기법을 테스트해볼 수 있게 되었다. 마치 요리법만 보고 요리하는 것이 아니라, 이미 완성된 밀키트를 받아서 맛을 보고 분석하는 것과 같다.



특징 구분내용 및 상세 정보
분석 데이터 수총 103개 (단변량 83개, 다변량 20개)
사용된 AI 모델ConvLSTM (합성곱 순환 신경망)
포함된 설명 도구SHAP, LIME, Anchor, PHAR
데이터셋 구성고정된 학습/테스트 데이터 (75:25 비율)
주요 활용 분야XAI 알고리즘 평가, 교육용 템플릿, 모델 디버깅


실제로 이 데이터셋을 활용하면 AI가 특정 시간대에 나타난 불규칙한 신호를 보고 암을 진단했는지, 혹은 단순히 데이터의 잡음을 보고 오판했는지를 한눈에 알 수 있다. 연구팀은 이를 위해 누구나 따라 할 수 있는 교육용 케이스 스터디 파일도 함께 공개했다. 이를 통해 초보자도 AI의 설명이 얼마나 일관성이 있는지, 그리고 얼마나 믿을만한지 직접 수치로 계산해볼 수 있다.


인공지능과 인간의 대화, 더 투명하고 믿음직한 미래를 향하여

물론 이번 연구에도 한계는 있다. 아직은 모든 종류의 AI 모델(예: 트랜스포머)을 다루지는 못하며, 주로 분류 작업에 집중되어 있다. 하지만 연구팀은 이 프로젝트를 오픈 소스로 공개하여 전 세계의 연구자들이 자신이 개발한 설명 방식을 이 보물창고에 추가할 수 있도록 길을 열어두었다.


앞으로 이 데이터셋이 더 풍성해진다면 우리는 인공지능이 왜 그런 선택을 했는지 더 정확하게 이해하게 될 것이다. 결국 ExplainTS는 인공지능이라는 거대한 기계가 인간에게 자신의 논리를 조목조목 설명해주는 '통역기' 역할을 하게 될 것이다. 이제 AI의 판단 뒤에 숨겨진 비밀을 밝히는 흥미진진한 여정이 시작되었다!


출처: Mozolewski, M., Bobek, S., & Nalepa, G. J. (2026). ExplainTS: a benchmark dataset of pretrained models and post-hoc explanations for time-series classification. Frontiers in Artificial Intelligence, 9, 1759110. https://doi.org/10.3389/frai.2026.1759110