8월, 2025의 게시물 표시

소프트웨어 이상을 감지하는 로봇: 오직 '정상'만을 배우는 AI의 가능성

이미지
협업 로봇은 이제 제조업뿐 아니라 헬스케어, 가정용 서비스 등 다양한 분야로 빠르게 확산되고 있다. 하지만 이처럼 인간과 가까이에서 일하는 로봇에게 있어서 신뢰성 은 단순한 효율 문제를 넘어 안전 과 직결된다. 그중에서도 하드웨어보다 훨씬 더 탐지하기 어려운 것이 바로 소프트웨어 이상(anomalies) 이다. 이번에 소개할 논문 "Detecting Software Anomalies in Robots by Means of One-class Classifiers"(Quintián et al., 2025)는 바로 이 복잡한 문제에 대해 도전하며, 일반적인 이상 탐지 알고리즘이 아닌 One-class Classification(단일 클래스 분류) 방법을 활용한 탐색을 제안한다. 이 방식은 '정상' 상태만 학습하고, '이상'은 직접적으로 학습하지 않아도 감지할 수 있다는 점에서 특히 로봇 시스템에 유용할 수 있다. 왜 소프트웨어 이상 감지가 중요한가? 하드웨어 고장은 눈에 보이는 경우가 많다. 로봇 팔이 멈추거나, 센서가 데이터를 보내지 않으면 곧바로 이상을 감지할 수 있다. 반면 소프트웨어 이상은 조용히 성능을 갉아먹으며, 장기적으로는 큰 사고나 다운타임을 유발할 수 있다. 예를 들어, 메모리 누수, 무한 루프, 리소스 과다 사용 등의 문제는 즉각적으로는 드러나지 않지만 시스템을 점차 마비시킨다. 이런 문제에도 불구하고, 그동안 연구는 하드웨어 이상 탐지에 집중되어 있었다. 본 논문은 이를 보완하고자 로봇 구성요소 단위(component-based) 로 소프트웨어 이상을 감지할 수 있는 방법론을 실험적으로 제시한다. One-Class Classification이란? One-class Classification(OCC)은 일반적인 머신러닝처럼 여러 클래...

“AI가 병든 잎을 구별했다” — 농사를 바꾸는 가벼운 똑똑이

이미지
밭 한가운데, 한 농부가 스마트폰을 들고 옥수수 잎에 대본다. 몇 초 뒤, 화면엔 메시지가 뜬다. “잎마름병 의심, 방제 필요.” 이건 더 이상 SF 영화 속 장면이 아니다. 2025년 7월, 중국 샤먼대학교와 르완다 카네기멜론 대학 연구진은 농작물 병해충을 정확히 구별해내는 인공지능 모델을 발표했다. 이름은 ‘LitePlantProto’. 이름처럼 ‘가볍고 똑똑한’ 녀석이다. 이 모델은 복잡한 컴퓨터가 없어도 휴대폰 하나면 쓸 수 있고, 겨우 몇 장의 잎 사진만으로도 병을 진단해낸다. 농사에 중요한 건 ‘눈썰미’였다 작물에 병이 들었는지 알려면, 지금까지는 농부의 경험에 의존하는 경우가 많았다. “이 잎 색깔은 이상하네… 물이 부족했나?” “아냐, 이건 벌레 먹은 흔적이지.” 하지만 이런 판단은 숙련자의 오랜 노하우가 필요하고, 주관적이다. 무엇보다 실수할 확률도 높다. 이에 따라 농업 분야에서도 인공지능 기술이 빠르게 도입되고 있다. 특히 ‘딥러닝(Deep Learning)’이라 불리는 기술은 이미 여러 분야에서 큰 성과를 보여줬다. 하지만 문제는 여기서부터다. AI가 학습하려면 엄청난 양의 ‘라벨링된 이미지’, 즉 병이 있는지 없는지 일일이 표시된 데이터가 필요하다. 이걸 만들려면 시간도 돈도 많이 든다. 특히 농업처럼 다양한 환경이 존재하는 분야에선 불가능에 가깝다. ‘몇 장의 사진’만으로도 진단한다면? 그래서 최근 각광받는 기술이 바로 ‘Few-shot Learning’, 직역하면 ‘적은 예제로 학습하기’다. 사람이 사과 한 번만 봐도 알아보듯, AI에게도 적은 예제로 학습할 수 있도록 하는 것이다. 하지만 여기도 문제가 있다. 기존의 방법들은 비슷한 병을 헷갈려 하거나, 잎에 병이 퍼지는 모양새처럼 ‘미묘한 차이’를 잘 구분하지 못했다. LitePlantProto는 이 문제에...

축구장에 들어온 인공지능, 승부를 읽다

이미지
   “감”의 시대는 끝났을까 경기장 밖의 노트북과 서버가 경기장 안의 흐름을 바꾸고 있다. 최근 발표된 한 체계적 문헌 맵핑 연구는 2019~2024년 사이 출판된 172편의 논문을 모아, 머신러닝(ML)이 프로 축구에서 무엇을 바꾸고 있는지 큰 그림을 그렸다. 결론부터 말하면, ML은 두 축에서 가장 강하게 작동한다. 하나는 선수·팀의  퍼포먼스 향상 , 다른 하나는  경기 결과 예측 이다. 알고리즘은 결정나무·XGBoost 같은 앙상블, 인공신경망(ANN)과 합성곱신경망(CNN) 등 딥러닝이 주연으로 등장했고, 여러 기법을 섞는 하이브리드 모델이 급격히 늘었다. 데이터 공개성과 센서 통합의 한계 같은 숙제도 분명히 드러났다. 하지만 그 빈틈조차 ML의 기회로 읽힌다니, 흥미롭지 않은가! 데이터가 축구를 읽는 법 1) 무엇을 어떻게 측정했나 연구진은 스코퍼스 데이터베이스에서 ‘Machine Learning’과 ‘Football/Soccer’를 핵심어로 걸고 458편을 1차 수집한 뒤, 포함·제외 기준을 수차례 토론으로 다듬어 최종 172편을 분석했다. 범주는 두 갈래다.  퍼포먼스 (선수 위치·이동 궤적·개별/팀 행동·패스/슛 같은 게임 액션·선수/팀 퍼포먼스 지표)와  예측 (경기 결과, 시즌 승리 가능성)이다. 이 과정에서 지도학습이 가장 널리 쓰였고, 딥러닝과 하이브리드가 뒤를 이었다. 주 알고리즘은 결정나무, 랜덤포레스트, SVM, KNN, 로지스틱 회귀, 그리고 부스팅의 강자  XGBoost 였다. 2) 퍼포먼스 향상: ‘잘 뛰는 법’을 가르치는 모델들 선수 개인을 보면, 패스 성공률·가속도·심박·스프린트 빈도 같은 지표가 ML의 먹잇감이다. 팀 차원에서는 포메이션 유지도, 라인 간 간격, 압박 타이밍이 함께 분석된다. 지도학습 은 라벨이 분명한 과제—예컨대 “좋은 패스/나쁜 패스” 분류, “슈팅 성공 확률” 회귀—에서 강력했다. 기대득점(xG)을 비롯해, 위치·각도·수비수와의 ...

AI, 혁신인가 위기인가: 인공지능이 사회를 바꾸는 두 얼굴

이미지
아침에 스마트폰을 열자마자 우리는 이미 인공지능과 마주한다. 일정 알림이 뜨고, 뉴스가 요약되고, 이동 경로가 추천된다. 이렇게 삶의 전면으로 들어온 AI가 사회 전체를 어떻게 바꾸고 있을까? 최근 발표된 한 리뷰 논문은 의료, 금융, 교육, 제조, 교통, 행정 등 다양한 분야의 사례를 모아 “AI가 혁신의 촉매이자 혼란의 씨앗”이라는 양면성을 조목조목 짚었다. 특히 일자리, 프라이버시, 편향과 같은 뜨거운 논쟁거리에 대해 “장밋빛 기대와 냉정한 리스크 관리가 동시에 필요하다”고 말한다.   왜 지금, 왜 AI인가 AI의 역사는 두 갈래로 요약된다. 규칙과 논리로 추론하는 기호주의(‘고전 AI’)와, 데이터에서 패턴을 학습하는 연결주의(오늘날의 머신러닝/딥러닝)다. 전자는 사람이 만든 규칙을 착실히 따르고, 후자는 경험에서 스스로 규칙을 끌어낸다. 이 차이는 곧 사회적 파장으로 이어진다. 규칙 기반 시스템은 ‘왜 그렇게 결정했는지’...

호텔 리뷰 분석을 통해 드러난 인공지능의 숨은 편향

이미지
AI는 왜 자꾸 ‘중립’이라 할까? 요즘 기업들은 고객이 남긴 후기를 일일이 사람이 읽는 대신, 인공지능(AI)을 활용해 감정이나 주제를 분류한다. 리뷰가 수만 건이라면, AI의 힘은 절대적이다. 그러나 이 과정에서 중요한 질문이 생겼다. “AI가 사람처럼 판단하고 있을까?” 최근 키프로스공과대학 연구팀은 이 질문에 정면으로 도전했다. 호텔 이용 후기를 분석하는 데 쓰이는 대형언어모델(LLM)들이 감정(긍정·부정·중립)이나 주제를 분류할 때 어떤 편향을 보이는지 면밀히 조사한 것이다. 결론은? "AI도 충분히 편향된다"는 것이다. “중립”이라는 AI의 회피 전략 연구진은 실제 고객이 남긴 호텔 리뷰 2만 3천여 건과, AI가 생성한 가짜 리뷰 2천 건을 분석 대상으로 삼았다. 사람 전문가가 하나하나 직접 분류한 감정·주제·측면 데이터를 기준으로, ChatGPT-3.5, ChatGPT-4, ChatGPT-4-mini 세 모델의 분류 결과와 일치하는지 비교했다. 결과는 놀라웠다. 세 모델끼리는 일관된 결과를 보여줬지만, 사람과의 일치도는 ‘보통’ 수준 에 그쳤다. 특히 감정 분류에서는 ‘중립’으로 답하는 경향이 두드러졌는데, 애매하거나 판단이 필요한 문장일수록 AI는 무조건 중립으로 도망치는 경향 을 보였다. 이를 연구진은 “ 중립성 편향(neutrality bias) ”이라 명명했다. 부정적인 내용을 담고도 AI는 ‘중립’이라며 피하고, 감정을 복합적으로 표현한 문장도 회피하는 성향이 나타난 것이다. 한마디로, AI는 애매한 감정 앞에서 판단을 유보하거나 회피하는 ‘소심함’을 보인 셈이다. 가짜 리뷰엔 강하고, 진짜 리뷰엔 약한 AI 이 연구는 또 다른 흥미로운 지점을 드러낸다. AI는 스스로 만든 가짜 리뷰(즉, 문법적으로 깔끔하고 예측 가능한 문장들)를 처리할 때는 일치도가 높았다. 그러나 사람의 ...

망막 사진과 유전자로 2년 뒤 실명 위험 예측… TV-LSTM의 도전

이미지
  다음 진료가 한 달 뒤일지, 반년 뒤일지 모르는 노인 환자를 떠올려보자. 망막 사진은 쌓이는데 방문 간격은 들쭉날쭉하고, 검사 때마다 눈의 상태도 조금씩 다르다. 이런 ‘현실적인’ 데이터를 그대로 받아들여 두 눈앞의 질문—“이 사람이 2년 안에 실명 위험이 큰 늦은 연령관련 황반변성(AMD) 단계로 갈까?”—에 답하려는 연구가 나왔다. 이름하여 TV-LSTM.  시간 간격이 고르지 않은 장기 추적 데이터를 그대로 먹고, 망막 사진과 유전 정보를 한데 섞어 미래를 예측하는 딥러닝 모델이다. 결과는? 4번의 방문 기록만으로도 2년 내 늦은 AMD 진행을 높은 정밀도로 맞췄다. 왜 중요한가 AMD는 선진국에서 실명의 가장 큰 원인이다. ‘건성’(지리적 위축)과 ‘습성’(신생혈관) 단계로 진행하면 중심시야가 무너지며, 이미 망가진 시세포를 되살릴 방법은 없다. 치료가 있어도 진행을 늦추는 정도라서, 조기 경고와 예방이 무엇보다 중요하다. 문제는 외래 현실이다. 환자마다 방문 주기가 제각각이고, 사진 품질도 천차만별이다. 기존 연구는 한 시점의 사진이나 정해진 간격의 시계열만 써서 ‘현장감 있는’ 불규칙 데이터의 풍부한 정보를 놓치곤 했다. TV-LSTM은 바로 그 틈을 파고든다. 무엇을 어떻게 했나 연구진은 미국 AREDS 코호트(장기 추적 임상연구)에서 수집된 18만여 장의 안저 사진과 일부 환자의 유전형 데이터를 이용했다. 핵심 아이디어는 두 가지다. 이미지 표현은 ‘기성복’ 대신 ‘기초모델’로 최근 160만 장의 망막 사진으로 자가학습한 ‘RetFound’라는 기초 모델이 있다. 이 모델이 뽑아주는 1024차원 임베딩을 안저 사진마다 생성해, 사람이 일일이 특징을 설계하지 않아도 풍부한 질병 단서를 벡터로 간편하게 담았다. 시간의 ‘가중치’를 직접 넣는다 전통 LSTM은 보통 일정한 간격의 시퀀스에 최적화되어 있다. 연구진은 각 방문이 예측 시점에 얼마나 가까운지 0~1 사이의  시간 가중치 를 계산해 입력 벡터에 함께 주입...

“고정된 AI는 그만”—흐르고, 스스로 커지는 ‘리퀴드 AI’가 온다

이미지
  도입: 학습이 끝나면 멈추는 AI, 그다음은? 대형 언어모델이 문제를 술술 풀어내도, 막상 구조 자체는 굳어 있다. 학습이 끝나는 순간부터 모델은 파이프라인 속 부품처럼 정지된 형태로 산다. 새로운 분야를 만나면 사람 손으로 다시 미세조정하고, 더 큰 문제가 오면 구조를 통째로 바꾸고 재훈련한다. 번거롭다. 왜 기계는 스스로 자라지 못할까? 미국·LANL·메이요클리닉 연구진이 제안한 ‘리퀴드 어댑티브 AI(Liquid Adaptive AI, 이하 리퀴드 AI)’는 이 질문을 정면으로 건드렸다. 핵심은 “학습 중에도, 배포 후에도 스스로 구조를 바꾸며 성장하는 AI”다. 논문은 이를 위한 수학적 원리와 구성도를 제시하며, 장기적으로는  에피소드형 훈련에서 ‘지속적 자기발달’로의 패러다임 전환 을 예고한다. 단, 현실 구현엔 현재 LLM 학습시설급의 인프라가 필요하다는 단서가 붙는다. 세 개의 엔진이 만드는 ‘흐르는’ 지능 리퀴드 AI를 관통하는 이미지는 말 그대로 ‘액체’다. 문제의 용기에 따라 형태를 바꾸되, 체계를 잃지 않는다. 이를 위해 논문은 서로 맞물린 세 가지 메커니즘을 정식화했다. 1) 엔트로피로 스스로 재배선하는 ‘동적 지식그래프’ 첫 번째 축은  고차원 동적 지식그래프 다. 새 정보가 들어오면 그래프는 엔트로피(불확실성) 지형을 훑어 ‘헐거운’ 구역을 찾고, 그 지점에서 추가·병합·가지치기 같은  구조 변형 을 제안한다. 정보 병목(Information Bottleneck) 기준으로 변형의 이득을 평가해 유리하면 적용하고, 가치 낮은 연결은 정리한다. 요컨대, 파라미터만 미세조정하는 대신  지식의 배치와 경로 자체 를 손본다. 이 과정은 수식과 알고리즘으로 명시돼 있어, ‘어떻게 바꿀지’가 사람이 아니라  정보이론적 기준 에 의해 결정된다. 2) 배포 중에도 진화하는 ‘자기개발 엔진’ 두 번째는  자기개발(Self-Development) 엔진 이다. 여기서는 아키텍처 변형을...

임상시험 보고서, 이젠 ‘AI가 초안을 뚝딱’…

이미지
  대만 의료진이 시험한 RAG-LLM의 속도전과 정확성의 균형 임상시험이 끝난 뒤 진짜 마라톤은 그때부터였다. 수많은 표와 그래프(TLF)를 문장으로 풀어 쓰고, 의사·통계전문가·규제팀이 줄줄이 확인하는 데 석 달이 훌쩍 가곤 했다. 그런데 한 대만 의료 시스템이 실전 데이터로 시험한 새 도구는 이 시간을 ‘몇 분’대로 끊어냈다.  핵심은 두 축—외부 근거를 찾아 꽂아 주는 검색증강(RAG)과, 그 근거를 바탕으로 보고서를 써내려가는 대규모언어모델(LLM)의 결합이다.  연구진은 전자의무기록(EHR), 건강보험 청구코드, 영상 리포트까지 한데 묶어 검색하고, LoRA/QLoRA 같은 경량 미세조정과 강화학습으로 모델을 다듬었다고 밝혔다.  결과는? 정확도, 일관성, 속도 모두 유의하게 개선됐다. 종합품질지수(CQI)는 78.3점으로 기존 강력한 의료 LLM들을 앞섰고, 초안 작성 시간은 75% 넘게 줄었다. 왜 지금 RAG-LLM인가 임상시험 보고서는 한 글자 한 글자가 규제의 언어다. 훈련 데이터에 없는 최신 환자 정보, 코드 체계, 영상 소견을 반영해야 한다. LLM만으론 현실 근거가 빈약해 헛말(환각)이 끼어들 위험이 있는데, RAG는 필요한 증거를 외부에서 ‘즉시’ 끌어와 창 안에 넣어준다.  이 연구는 병원 다기관 환경에서 EHR·보험 청구(NHI)·영상 임프레션을 벡터로 색인하고, 질문이 들어오면 단계적으로 좁혀 가는 ‘계층형 검색’을 돌린다. 그 다음, 검색된 텍스트·이미지 근거를 가중합으로 정리해 LLM에 넘기고, 모델은 출처 인용이 박힌 서술을 뽑아낸다. 어떻게 만들었고, 무엇이 달라졌나 연구팀은 우선 데이터 표준화를 손봤다. 서로 다른 병원 전자의무기록과 청구·검사·약물 필드를 ICD-10, LOINC, ATC로 매핑하고, 개인정보는 k-익명성과 차등프라이버시(ε≈1)로 처리했다. 텍스트는 256토큰 단위로 잘라 768차원 임베딩을 만들고, 영상은 방대한 픽셀 대신 판독문 ‘Findings...