인공지능이 자궁내막병변 진단을 돕는다
2025년 발표된 iScience 논문에 따르면, 세계 여성암 중 여섯 번째로 흔한 자궁내막암과 그 전구병변인 이형성증(AEH)의 조기 진단 정확도를 획기적으로 높일 수 있는 새로운 컴퓨터 보조 진단 시스템이 개발됐다. 전통적인 자궁내시경 검사는 정확도가 높더라도 종종 병변을 놓치거나 오진 위험이 있다. 특히 AEH는 20년간 28%가 암으로 진행되고, 실제로 3분의 1에서는 암이 동반되기 때문에 빠른 진단이 무엇보다 중요하다.
본론:
대규모 영상·대조학습으로 완성된 ECCADx연구진은 ECCADx라는 이름의 심층학습(딥러닝) 모델을 고안했다. 이 시스템은 크게 두 단계로 구성됐다. 먼저 대장내시경 등 외부 내시경 영상을 활용해 대조학습(contrastive learning) 방식으로 사전 학습을 시켜, 기계가 다양한 내시경 환경에서 병변의 미세한 차이점을 포착할 수 있도록 했다. 이후 1204명 환자의 4만9646장 자궁내시경 이미지를 이용해 모델을 미세 조정했다.
검증 과정도 철저했다. 내부 검증(190명·6228장)과 외부 검증(105명·2809장)을 거쳐 성능을 평가했다. 내부 데이터에서는 민감도(양성 발견율) 95.2%, 특이도(음성 확인율) 91.3%를, 외부 데이터에서는 각각 92.1%와 100%를 기록했다. 이는 숙련된 내시경 전문의를 평균 이상으로 뛰어넘는 수준이다. 특히 외부 기관 영상에서도 100%의 특이도를 달성하며, 오진 없이 건강한 환자를 정확히 걸러냈다는 점이 주목된다.
대조학습의 영향사전 학습 단계에서 대조학습을 적용하지 않은 모델과 비교했을 때, 적용 모델의 ROC(수신자 조작 특성) 곡선 아래 면적(AUC)은 내부에서 0.979(비적용 0.969), 외부에서 0.975(비적용 0.891)로 크게 향상됐다. t-SNE 기법으로 시각화한 결과, 대조학습을 거친 모델은 병변(암·이형성)과 정상·양성 병변 군이 명확히 분리된 반면, 비적용 모델은 두 군이 뒤섞여 있었다. 또한 Grad-CAM 열지도 분석을 통해, 대조학습 모델이 실제로 병변이 집중된 부위를 정확히 주시함을 확인했다.
전문가와의 비교12명의 내시경 전문의를 상대로 ECCADx와 비교한 결과, 주니어∼시니어 그룹 모두에서 AI 모델이 더 높은 정확도와 일관성을 보였다. 예를 들어 외부 검증에서 중급 전문의 평균 정확도는 80.2%였으나, ECCADx는 93.3%를 기록했다. F1 점수(정밀도와 재현율의 조화 평균) 역시 0.959로 전문가 평균(0.530)을 크게 상회했다.
한계와 향후 과제이 연구는 후향적(single center) 코호트를 기반으로 했고, 이형성·암을 단순 이분법으로 구분했다. 실제 임상에서는 폴립·근종·무이형성증 등 다양한 양성 병변을 구분해야 하며, 암의 조직학적 아형과 병기를 세분화해야 한다. 연구진은 다중 클래스 분류로 확장하고, 다기관·전향적 임상시험을 통해 검증을 이어갈 계획이라고 밝혔다.
결론:
임상 적용의 가능성ECCADx는 기존 자궁내시경 진단의 한계를 극복할 실마리를 제공한다. 빠른 처리 속도(이미지 당 수 밀리초)와 표준 GPU 환경에서의 가벼운 연산량은 실시간 진단 보조를 가능케 한다. 임상 현장에 도입된다면, 특히 경험이 적은 의사에게 두 번째 의견(second opinion)을 제공하고, 오진·불필요한 생검을 줄여 환자 부담을 완화할 것으로 기대된다.
출처:Wang, W., Cai, Y., Guo, Z., Zhao, A., Ma, W., Wang, W., Wang, S., Zhu, X., Du, X., & Shen, W. (2025). A deep learning-based computer-aided diagnosis system for detecting atypical endometrial hyperplasia and endometrial cancer through hysteroscopy. iScience, 28, 113045. https://doi.org/10.1016/j.isci.2025.113045