“보이지 않던 자궁근종, 이젠 3D로 본다”…MRI와 초음파 융합한 수술 내비게이션 기술 등장
자궁근종은 많은 여성들이 겪는 흔한 질병이지만, 이를 정확하게 제거하는 일은 여전히 쉽지 않다. 특히 비침습적 치료법인 ‘고강도집속초음파수술(FUAS)’은 메스를 대지 않고 근종을 치료할 수 있다는 장점에도 불구하고, 치료의 정확도를 높이기 위한 기술적 한계에 부딪혀 왔다.
하지만 최근 중국 연구진이 MRI와 초음파를 융합해 자궁근종 치료의 정확도를 획기적으로 높이는 기술을 개발했다. 이 기술은 수술 중 자궁의 모습을 3차원으로 실시간 재현하면서, 의료진이 근종을 더 정확히 찾고 치료할 수 있도록 돕는다. 더 이상 ‘감’에 의존할 필요가 없다. 마치 내비게이션처럼 자궁 속 길을 알려주는 셈이다.
---
자궁근종, ‘보이는 수술’의 시대를 열다
이번 연구의 핵심은 자궁근종 치료에 필요한 정보—자궁과 근종의 정확한 위치, 크기, 형태—를 MRI(자기공명영상)와 실시간 초음파를 동시에 활용해 3차원으로 보여주는 데 있다. MRI는 해상도가 뛰어나지만 실시간으로 볼 수 없고, 초음파는 실시간이지만 해상도가 떨어지는 문제가 있었다. 두 기술의 장단점을 융합해 ‘정확하고 즉각적인’ 수술 환경을 만드는 것이 이번 연구의 목표였다.
연구진은 총 638명의 자궁근종 환자의 MRI 및 초음파 영상을 분석하고, 이를 기반으로 인공지능을 활용한 3D 내비게이션 시스템을 구축했다. 이 시스템은 수술 전 MRI로 근종의 위치를 정밀 분석하고, 수술 중 초음파를 통해 실시간 위치를 추적한다. 의료진은 이를 바탕으로 정확한 치료 부위를 실시간으로 확인할 수 있다.
“과거에는 초음파로 보이는 흐릿한 이미지에 의존해 수술을 진행했다면, 이제는 MRI에서 본 해상도 높은 구조를 수술 중에도 그대로 보며 치료할 수 있게 된 거죠.”
---
기술의 중심엔 AI가 있다
이번 시스템의 작동 원리는 생각보다 복잡하지만, 핵심은 인공지능 기술을 통해 MRI와 초음파 이미지를 자동으로 분석하고 연결하는 것이다. 먼저 딥러닝 기반 알고리즘인 ‘nnU-Net’을 활용해 MRI 영상에서 자궁과 근종을 자동으로 분리하고, 3D 모델로 재구성한다.
한편 초음파 영상 분석에는 ‘YOLACT’라는 또 다른 인공지능 기술이 사용되었다. 이 기술은 초당 30장의 영상도 실시간으로 분석할 만큼 빠르다. YOLACT는 수술 중 찍히는 초음파 영상에서 자궁, 방광, 근종 등을 자동으로 찾아내고, 수술 계획과 비교해 위치를 추적한다.
두 영상은 ‘ICP(Iterative Closest Point)’라는 알고리즘을 통해 공간적으로 정렬된다. MRI에서 본 자궁의 구조를 기준으로 초음파 영상 속 자궁을 매칭시키는 과정이다. 이렇게 되면 수술 중 환자의 체형 변화나 장기 움직임에도 불구하고, 근종의 위치를 놓치지 않고 추적할 수 있게 된다.
---
“현미경 대신 GPS가 붙은 수술 도구”
이 기술은 단순히 이미지를 보여주는 것을 넘어, 수술을 안내하고 계획까지 가능하게 한다. 연구진은 MRI와 초음파 영상에서 얻은 정보를 바탕으로 3D 수술 시뮬레이션도 가능하게 했다. 의료진은 사전에 수술 경로를 계획하고, 실제 수술 중에도 이 경로에 따라 치료를 진행할 수 있다.
또한 수술 중에는 근종의 위치나 크기가 변할 수 있는데, 이럴 때도 실시간으로 변화 추이를 분석해 자동으로 경로를 조정한다. 연구진은 이를 ‘추세 분석 모듈’이라 부르며, 실제로 이 기능이 수술의 정밀도와 안전성을 크게 높였다고 밝혔다.
임상 테스트 결과는 매우 긍정적이었다. 약 90%의 수술에서 자동 추적이 정확하게 이루어졌고, 그 중 다수는 수동 보정 없이도 수술이 성공적으로 진행되었다. 특히 근종의 위치가 일정하지 않거나 여러 개가 있는 경우에도 유연하게 대응할 수 있었던 점은 의료진들에게 큰 호응을 얻었다.
---
미래는 ‘AI+의료+3D’의 융합이다
이 연구는 단지 자궁근종 치료에 그치지 않는다. 연구진은 이 기술이 향후 간, 신장, 췌장 등 다른 장기 수술에도 확장될 수 있다고 기대하고 있다. MRI와 초음파의 융합, 인공지능의 실시간 분석, 3D 내비게이션이라는 조합은 외과 수술의 새로운 표준이 될 가능성이 크다.
물론 아직 넘어야 할 산도 있다. 체형이 크게 변하는 경우에는 여전히 정확도가 떨어질 수 있고, 이미지의 왜곡 문제도 완전히 해결되지는 않았다. 하지만 연구진은 조직 변형 예측 기술과 더 정교한 영상 보정 알고리즘을 개발해 이런 문제를 극복하겠다고 밝혔다.
“수술실에서도 스마트폰 내비게이션처럼 ‘어디로 가야 할지’ 알려주는 시대가 왔다.” 이번 기술은 그런 미래를 미리 보여주는 창문 같은 존재다.
---
**출처**
Wang, T., Wen, Y., Wang, Z., & Li, X. (2025). Three-dimensional visualization and navigation for micro-noninvasive uterine fibroid surgery based on MRI and ultrasound image fusion. *Frontiers in Artificial Intelligence*, 8, 1613960.
---