10월, 2025의 게시물 표시

얼음과 바다를 가르는 인공지능, ‘아이스-워터넷’이 그린 더 촘촘한 북극 지도

이미지
  센티널-1 레이더로 본 북극은 생각보다 복잡했다. 얼음 덩어리는 부서지고, 바람에 일렁이는 바다는 얼음처럼 보이기도 했다. 이런 헷갈림 속에서 얼음과 물을 정확히 가려내야 배가 안전하게 지나가고, 기후 모델도 제대로 돌아간다. 최신 연구가 이 난제를 정면 돌파했다. 이름하여 ‘아이스-워터넷(Ice-WaterNet)’. 슈퍼픽셀, 확률모형, 주의집중(어텐션) U-넷을 한데 엮어, 여름철 녹는 시기에도 얼음·물 구분을 흔들림 없이 해냈다 . 연구팀은 2021~2023년 프람 해협(북위 75–83도, 서경 15도–동경 15도)에서 찍은 센티널-1 이중편파 SAR 이미지를 무려 2,735장 모았다. 해양 얼음이 가장 요동치는 녹는 계절과 겨울 시즌을 모두 포함했다. 덕분에 모델은 바람에 거칠어진 바다, 잘게 부서진 빙편, 녹는 웅덩이까지 다양한 상황을 배웠다 . 흥미로운 점은 ‘불확실성’을 먼저 찾아내는 전략이다. 모델은 조건부 임의장(CRF)으로 장면을 슈퍼픽셀 단위로 나눠 각 덩어리의 사후확률을 계산한다. 확률이 0.15~0.85 사이인 애매한 슈퍼픽셀은 ‘불확실’로 표시하고, 여기에 어텐션 U-넷을 반복 적용해 한 겹씩 흔들림을 걷어낸다. 결국 얇은 얼음, 리드(갈라진 수로), 변덕스러운 해면 상태에서도 경계가 또렷해졌다 . 왜 지금 이 연구가 중요할까 수십 년간 넓은 범위를 빠르게 덮는 ‘수동형 마이크로파(PMW)’ 센서는 북극의 큰 그림을 그려왔다. 하지만 해상도가 낮아, 특히 여름철에는 얼음이 덜 잡히는 문제가 있었다. 이번 연구는 SAR 기반의 고해상도 얼음농도(SIC) 지도를 만들고, 이를 노르웨이 기상청(MET Norway)의 일일 해빙 차트와 PMW 계열(AMSR-2, SSM/I)과 비교했다. 결과는 명확했다. SAR 기반 제품이 주변부(빙연)에서 생기는 오분류를 크게 줄였고, 여름철 녹는 조건에서 특히 더 정밀했다 . 정량 성능도 설득력 있다. 녹는 계절에는 교차합집합(IoU) 3.375%p, F1 3.09%p 향상, 겨울에도 ...

작은 점 하나도 놓치지 않는다—‘DFAS-YOLO’가 드론 영상에서 미세 표적을 건지는 법

이미지
  드론과 위성은 하루에도 수십만 장의 하늘 사진을 쏟아낸다. 그런데 화면 속 자동차, 보행자, 자전거가 겨우 몇십 픽셀짜리 점으로 찍힌다면? 이 “작은 물체”를 얼마나 정확히 찾아내느냐가 안전·교통·재난 대응의 성패를 가른다. 이번에 발표된 DFAS-YOLO는 바로 그 난제를 정면으로 파고들었다. 요지는 간단하다. 업샘플링에서 생기는  특징 정렬 오차 와 다운샘플링에서 생기는  디테일 손실 을 동시에 줄이면, 작은 물체도 또렷하게 잡힌다! 작은 물체 검출이 왜 어려울까. 보통은 해상도를 늘리는 업샘플링에서 위치가 미묘하게 틀어지고, 해상도를 줄이는 다운샘플링에서 가장 중요한 모서리·윤곽 정보가 사라진다. DFAS-YOLO의 출발점은 바로 이 두 고질병이다. 연구진은 “멀티스케일 융합에서 정렬 오류, 다운샘플링에서 디테일 소실”을 핵심 병목으로 규정했다. 그래서 업샘플링엔  SAAF(Soft-Aware Adaptive Fusion) , 다운샘플링엔  GDLA(Global Dense Local Aggregation) 라는 두 맞춤형 모듈을 심었다고 설명한다. ‘부드럽게’ 키우고, ‘알뜰하게’ 줄였다—핵심 아이디어 두 가지 첫 번째 비밀병기는 SAAF다. 보통 최근접/쌍선형 보간은 빠르지만 “내용 인지(content-aware)”가 아니다. SAAF는 여기에  학습 가능한 스케일링 계수(α) 와  공간 주의(spatial attention) 를 얹어, 업샘플된 특징의 크기와 관심 영역을  학습적으로 보정 한다. 계산식은 간단하다. 업샘플된 특징에 α를 곱하고, 얇은 1×1 합성곱 두 층으로 만든 주의 맵을 시그모이드로 눌러 곱해준다. 이렇게 하면 과장된 반응은 낮추고 필요한 위치만 또렷해진다. “빠른데 똑똑한” 업샘플링인 셈이다. 두 번째는 GDLA다. 해상도를 줄이는 길목에서 정보를 최대한  버무려 보존 하자는 전략이다. 평균 풀링으로  전역 문맥 , 최대 풀링으로...

위성으로 본 칼리만탄 석탄광 복구의 성적표

이미지
  인도네시아 남칼리만탄의 석탄광. 경제를 굴리는 엔진이지만, 숲과 흙은 그 대가를 치렀다. 그런데 현장을 일일이 찾아다니지 않고도 복구가 제대로 이뤄지는지 가늠할 수 있다면? 연구진은 유럽연합의 ‘센티널‑2’ 위성 사진을 여러 해에 걸쳐 이어 붙이고, 딥러닝을 얹어 그 해답을 찾아냈다. 이 논문은 2016년부터 2021년까지의 위성 영상을 학습시켜, ‘채굴’과 ‘복구’의 흔적을 시간 순으로 추적했다. 그리고 허가 구역(컨세션)별로 복구 준수 정도를 점수화했다. 결과는 어땠을까? 회사마다 편차가 컸다. 어떤 곳은 파낸 만큼 메웠고, 어떤 곳은 빚만 쌓았다. 숫자는 정직했다. 위성, 딥러닝, 그리고 땅 표면의 다섯 얼굴 연구진은 위성 사진에서 땅 표면을 다섯 가지로 나눴다. ‘표토(topsoil)’, ‘심토(subsoil)’, ‘식생(숲/풀)’, ‘석탄 노출부(coal body)’, ‘물(저수/채광 웅덩이)’. 이름이 낯설다면 이렇게 이해하면 쉽다. 표토는 씨앗이 자랄 수 있는 살찐 흙, 심토는 갓 벗겨진 속살 같은 흙, 석탄 노출부는 말 그대로 까만 광석이 드러난 자리다. 여기에 ‘유넷(U‑Net)’이라는 이미지 분할용 딥러닝 모델을 썼다. 사진의 각 픽셀을 어느 분류에 넣을지 하나하나 판단하는 기술이다. 모형의 등뼈(backbone)로는 ‘레즈넷‑34(ResNet‑34)’를 붙여 가장자리와 질감 같은 미세한 단서를 더 잘 읽게 했다. 10m~20m 해상도의 센티널‑2 밴드(가시광선+근적외선+단파적외선)와 NDVI, NDWI 같은 분광지수를 함께 학습시켜 판별력을 끌어올렸다. 학습 성적은 어떨까. 전체 정확도 0.94, 카파계수 0.91이라는 높은 점수를 받았다. 다만 대세가 ‘식생’이라 모델이 그쪽을 더 잘 맞히는 경향이 있고, 표토와 심토는 경계가 흐려 간혹 뒤바뀌었다. 현장에서는 흙이 섞이고 상태가 수시로 바뀌는 탓이다. 그럼에도 대면 조사 없이 넓은 지역을 한 번에 훑는 데는 이만한 도구가 드물다. 해마다 바뀌는 색의 흐름을, ...

지구가 보내는 ‘갈색 경고’를 읽어내다: 위성으로 사막화의 숨겨진 비밀 추적

이미지
  사라지는 초록, 갈색으로 변하는 지구의 경고 지구는 지금 심각한 위기에 직면했다. 전 세계적으로 가뭄과 이상 기후가 잦아지면서, 예전 같았으면 푸른빛을 뽐냈을 식물들이 힘을 잃고 누렇게, 혹은 갈색으로 변하고 있다. 과학자들은 이러한  말라 죽은 식물 , 즉  비광합성 식생(NPV) 의 면적 비율을 재는 일에 집중했다. 왜냐고? 이 NPV는 땅이 점점 사막으로 변해가거나(사막화), 가뭄이 얼마나 심각한지 알려주는  가장 확실한 '조기 경보 시스템' 이기 때문이다. 쉽게 말해, 초록빛의  광합성 식생(PV) 은 건강한 생태계를 의미하지만, 이들이 갈색의 NPV로 바뀌는 것은 농사짓던 땅이 황폐해지고 토양이 침식되며, 결국 지구의 탄소 저장고가 줄어든다는 섬뜩한 신호다. 따라서 이 NPV를 정확하게 측정하는 것은 지구 생태계의 건강을 진단하고, 심지어 미래의 기후 변화에 대비하는 데  매우 중요한 열쇠 가 된다. 하지만 기존의 방식에는 심각한 한계가 있었다. 오래된 위성 분석 모델들은 마치 ‘전 세계의 모든 사과가 똑같은 빨간색’이라고 가정하는 것과 같았다. 즉, 연구 지역 전체에서 똑같은 종류의 식물이면 똑같은 색깔(빛 반사 특징, 스펙트럼 서명)을 가질 것이라고 전제한 것이다. 하지만 실제 현장에 나가보면 어땠을까? 땅의 종류(흙 색깔)가 다르고, 식물의 종류가 다르니, 같은 죽은 식물이라도 지역마다 색깔이 미묘하게 다를 수밖에 없었다. 이  '지역별 색깔 차이'  때문에 위성이 알려주는 NPV 면적의 정확도는 들쭉날쭉했고, 과학자들은 더는 이 부정확한 정보에 의존할 수 없었다. 이제 과학자들은 물었다. 어떻게 하면 이 지역별 차이까지 꼼꼼하게 따져서, 위성이 사막화의 경고를  가장 정확하게  읽어내도록 만들 수 있을까? 이 연구는 바로 이 질문에 답하기 위해 시작됐다. 하늘의 눈과 땅의 지혜를 합쳐, '스마트 위성 모델'을 만들다 연구진은 이 문제를 해결하기 ...

항체가 ‘몸을 비틀 수 있다면’?

이미지
  우리 몸을 지키는 단백질의 놀라운 유연성, 그리고 이를 예측하는 인공지능의 등장 우리가 감기에 걸리거나, 백신을 맞거나, 혹은 코로나19처럼 낯선 바이러스에 노출될 때마다 한 가지 공통점이 있다. 바로 ‘항체’와 ‘T세포 수용체’가 활약한다는 점이다. 이들은 마치 맞춤형 열쇠처럼 바이러스 표면의 돌기(항원)에 꼭 맞게 달라붙어 병원체를 무력화한다. 하지만 이 열쇠는 고정된 형태가 아니다. 때로는 구부러지고, 때로는 휘면서 새로운 자물쇠에도 맞춰진다. 마치 변신하는 만능 열쇠처럼 말이다. 그렇다면 이 유연성, 즉 항체가  모양을 얼마나 바꿀 수 있는지 를 미리 알 수 있다면 어떨까? 새로운 바이러스가 등장해도 대응할 수 있는 ‘초특급 항체’를 설계할 수 있지 않을까? 이번에 발표된 연구는 바로 이 상상을 현실로 만들기 위한 놀라운 도전을 다뤘다. 항체와 T세포 수용체에서 가장 중요한 부분인 ‘CDR 루프’가 얼마나 유연한지를  AI가 예측 할 수 있도록 만든 것이다. 이름하여  ‘ITsFlexible’ . 말 그대로 “얘는 유연해요!”라고 알려주는 도구다. 항체의 손가락, ‘CDR 루프’의 유연함이 승부를 가른다 항체는 마치 손처럼 생긴 구조를 갖고 있다. 이 손끝, 그러니까 항원에 직접 닿는 부위가 바로  CDR 루프 (Complementarity Determining Region)다. 특히 그중에서도  CDR3 는 ‘손가락 끝’이라 할 수 있는데, 이 부분이 얼마나 휘어지고 움직일 수 있는지가 항체의 성능을 좌우한다. 어떤 항체는 딱딱하게 고정되어 있어 하나의 바이러스에만 작용하는 반면, 어떤 항체는 말랑말랑하게 여러 가지 모양을 만들어 다양한 항원에 적응할 수 있다. 이처럼  CDR 루프의 유연성은 항체의 ‘정확도’와 ‘다재다능함’을 동시에 결정짓는다. 그러니 이걸 미리 안다면, 우리가 백신을 개발하거나 치료용 항체를 만들 때 훨씬 더 똑똑하게 설계할 수 있을 것이다. 하지만 문제는,...

미래를 읽는 인공지능, 숫자 속에 감춰진 비밀을 찾아내다

이미지
  기상예보, 주식시장, 에너지 소비량, 와인 판매량. 얼핏 보면 전혀 관련 없어 보이지만, 이들에겐 공통점이 있다. 바로 ‘시간에 따라 변화하는 데이터’라는 것. 과학자들은 이런 데이터를 ‘시계열 데이터’라고 부른다. 그런데 이런 데이터는 단순히 과거를 기록하는 데만 쓰이지 않는다. 잘만 분석하면, 미래를 예측할 수도 있다. 그런데 문제는 이 시계열 데이터가 아주 까다롭다는 데 있다. 계절 따라 변하기도 하고, 중간에 갑자기 방향을 바꾸기도 하며, 데이터가 빠지거나 틀리기도 한다. 특히 여러 개의 시계열 데이터가 동시에 얽혀 있을 땐 그 복잡함이 몇 배로 뛴다. 그래서 전문가들이 머리를 싸매고 분석에 수십, 수백 시간씩 투자한다. 그런데 여기, 그런 고생을 줄여줄 똑똑한 알고리즘이 등장했다. 미국 플로리다대학교의 연구진이 만든  GRU 기반 AutoML  시스템이다. 이건 마치 “누구나 쉽게 사용할 수 있는 시계열 예측 비서”다. 복잡한 수학이나 프로그래밍을 몰라도, 클릭 몇 번이면 미래를 예측할 수 있게 해준다. 이 알고리즘, 도대체 어떻게 그런 일을 해내는 걸까? 예측은 ‘기계’가, 아이디어는 ‘사람’이 기존의 시계열 예측 방식은 보통 다음과 같다. 사람이 데이터를 직접 살펴보고, 어디에 계절성이 있는지, 어디서 추세가 바뀌는지 확인한 뒤, 적절한 수식을 골라 집어넣는다. 이런 수식엔 ‘ARIMA’나 ‘VAR’ 같은 어려운 이름이 붙어 있다. 물론 이런 방식도 효과는 있다. 단,  사람이 시간을 아주 많이 써야 한다는 단점이 있다. 그래서 인공지능을 이용한 방법들이 등장했다. 대표적인 게  LSTM 이나  GRU 라는 신경망 알고리즘이다. 이들은 뇌처럼 과거의 정보를 기억하며 예측을 수행한다. 특히 GRU(Gated Recurrent Unit)는 구조가 간단하면서도 똑똑해서, 복잡한 시계열 예측에 아주 잘 맞는다. 이번 연구의 핵심은 여기에  AutoML , 즉 ‘자동화된 머신러닝 시스...