수학의 미로 속 숨은 진실, 인공지능이 밝혀낸다!
최근 독일 다름슈타트 공대와 네덜란드 에인트호번 공대의 연구진이 흥미로운 논문 하나를 발표했다. 제목은 '신경망 인코딩을 통한 선형계획 문제의 해석'이다. 얼핏 보면 복잡한 수학 공식 가득한 논문 같지만, 그 속에는 인공지능(AI)과 인간의 소통을 위한 새로운 시도가 숨어 있다.
선형계획(Linear Programming, LP)은 자원 배분, 일정 계획, 에너지 관리 등 수많은 실생활 문제를 해결하는 데 쓰이는 강력한 수학 도구다. 문제는 이 LP가 아무리 효율적이라 해도, 그 결과가 '왜 그렇게 나왔는지' 이해하기는 어렵다는 점이다. 일반적으로 LP는 흰색 상자(white-box), 즉 내부 구조가 다 드러나 있기 때문에 설명이 쉬울 거라 생각하지만, 실제론 그렇지 않다.
이 점에 주목한 연구진은 기존에 딥러닝 모델에 주로 적용됐던 XAI(설명 가능한 AI) 기법을 LP에 적용하는 방법을 제안했다. 바로 LP 문제를 인공신경망 방식으로 인코딩한 다음, 이를 다시 설명 가능한 모델로 분석하는 방식이다. "수학 문제를 AI가 이해하고, 우리가 AI의 이해를 다시 해석하는 셈이죠."
예를 들어, 어떤 회사가 직원들에게 다양한 업무를 어떻게 분배할지 계획하는 상황을 생각해보자. 각 직원마다 가능한 시간과 업무 선호도가 다르고, 각 업무마다 필요한 최소 시간, 최대 시간 제약이 있다. 이 모든 걸 수학식으로 표현한 것이 선형계획 문제다. 최적 해를 구하는 것은 그리 어렵지 않지만, 왜 특정 직원이 특정 업무를 맡게 되었는지 납득시키기는 쉽지 않다. 바로 이 '납득'을 가능하게 하려는 것이 이 연구의 핵심이다.
연구팀은 LP를 인공신경망처럼 구성하고, 이 위에 '기여도 분석(attribution methods)' 기법을 적용했다. 대표적인 기법으로는 통합 그래디언트(Integrated Gradients), 살리언시(Saliency), 피처 퍼뮤테이션(Feature Permutation), 라임(LIME) 등이 있다. 각각의 기법은 입력값이 결과에 얼마나 영향을 미쳤는지를 분석하는 방식이다. 예를 들어 어떤 과제가 전체 결과에 큰 영향을 끼쳤다면, 해당 입력값에 높은 점수를 부여한다.
이 방법을 적용하려면 먼저 선형계획 문제를 다양한 방식으로 인코딩해야 한다. 연구팀은 네 가지 주요 인코딩 방식을 소개했다. 첫째는 해가 제약 조건을 만족하는지 여부를 구분하는 '타당성 인코딩', 둘째는 제약을 조금 위반하더라도 그 위반 정도에 따라 점수를 매기는 '이득-패널티 인코딩', 셋째는 경계에 얼마나 가까운지를 보는 '경계 거리 인코딩', 마지막은 가장 가까운 꼭짓점(정점)까지의 거리를 분석하는 '정점 거리 인코딩'이다.
이 신경망 기반 인코딩이 왜 필요한가? 이유는 간단하다. 단순히 수학적으로 최적해를 구하는 것보다, '왜 그 해가 나왔는지'를 직관적으로 설명하는 것이 훨씬 어렵기 때문이다. 하지만 인공지능이 이를 학습하고, 그 학습을 바탕으로 '어느 입력값이 얼마나 중요한 역할을 했는지' 알려준다면, 우리는 마침내 복잡한 수학 문제 속 '숨은 의사결정 과정'을 들여다볼 수 있게 된다.
실제로 연구진은 2차원에서 1만 차원에 이르는 다양한 크기의 LP 문제를 실험에 사용했다. 그 결과, 신경망 기반 설명 방식이 다양한 상황에서도 잘 작동한다는 것을 확인했다. 특히 LIME과 Saliency 같은 기법은 매우 유사한 결과를 내며, 이들의 차이를 'Directedness'(입력값을 증가시켰을 때 결과에 어떤 방향의 변화가 생기는가)라는 새로운 개념으로 설명했다.
이러한 접근은 AI 연구뿐만 아니라 에너지, 물류, 인사관리, 건설 등 LP가 사용되는 수많은 산업 분야에도 영향을 줄 수 있다. 예컨대, 에너지 수요 예측이나 간호사 스케줄링 문제에서도 단순히 '최적해'가 아닌 '그 해의 의미'를 이해함으로써 더 나은 결정을 내릴 수 있다.
복잡한 수학 문제도 결국은 사람이 만든 것이고, 사람이 써야 하는 도구다. 그런 의미에서 이번 연구는 수학과 AI, 그리고 인간 사이의 간극을 조금이나마 줄이는 의미 있는 시도라 할 수 있다. 앞으로는 AI가 내놓은 해답을 '믿고 따르기만' 하는 것이 아니라, '왜 그렇게 생각했는지' 함께 이해하는 시대가 올지도 모른다.
출처 논문
Busch FP, Zečević M, Kersting K and Dhami DS (2025) Elucidating linear programs by neural encodings. Front. Artif. Intell. 8:1549085. [https://doi.org/10.3389/frai.2025.1549085](https://doi.org/10.3389/frai.2025.1549085)