1월, 2026의 게시물 표시

당신의 데이터가 털리고 있다? 클라우드 보안의 '셜록 홈즈'가 나타났다!

이미지
  우리 일상을 지배하는 클라우드, 하지만 그 뒤에 숨은 검은 그림자 오늘날 우리가 스마트폰으로 배달을 시키고, 은행 업무를 보고, 친구와 메시지를 주고받는 모든 과정 뒤에는 클라우드와 API라는 복잡한 연결 통로가 존재한다. API는 서로 다른 프로그램들이 대화를 나누는 일종의 약속인데, 문제는 해커들도 이 대화에 끼어들어 정보를 빼가려 한다는 것이다. 기존의 보안 시스템들은 미리 정해진 규칙만 감시했기 때문에, 교묘하게 말을 바꾸는 최신 해킹 기법 앞에서는 속수무책이었다. 마치 똑같은 단어를 써도 상황에 따라 욕이 될 수도 있고 인사가 될 수도 있는 것처럼, 보안 세계에서도 문맥을 읽는 능력이 절실해졌다. 숫자와 언어를 동시에 잡는 인공지능 탐정의 탄생 최근 연구진은 기계 학습(ML)과 자연어 처리(NLP) 기술을 결합한 혁신적인 보안 파이프라인을 개발했다. 이 시스템의 핵심은 두 개의 눈으로 위협을 감시한다는 점이다. 첫 번째 눈인 ML은 데이터의 크기나 요청 횟수 같은 숫자 데이터를 분석하여 이상한 낌새를 챈다. 두 번째 눈인 NLP는 해커가 보내는 메시지 자체를 읽는다. 마치 형사가 범인의 행동(숫자)뿐만 아니라 범인이 남긴 쪽지의 내용(언어)까지 분석하여 범행을 확신하는 것과 같다. 이 두 기술이 합쳐지면서 기존에는 놓치기 쉬웠던 SQL 인젝션이나 데이터 노출 같은 위험한 공격들을 실시간으로 잡아낼 수 있게 되었다. 위험도에 따라 척척! 스마트한 판단과 해결책 제시 이 똑똑한 시스템은 단순히 위험하다고 소리만 지르지 않는다. 공격이 발생한 곳이 연습용 서버인지, 아니면 실제 돈이 오가는 결제 시스템인지 문맥을 파악한다. 결제 시스템에서 발생한 이상 징후는 즉시 크리티컬 등급으로 분류하고, 보안 요원에게 어떤 조치를 취해야 하는지 상세하게 알려준다. 예를 들어 데이터베이스 공격이 감지되면 단순히 차단만 하는 것이 아니라, 어떤 기록을 조사해야 하는지도 친절하게 가이드라인을 제공한다. 실험 결과, 이 시스템은 98% 이상의 높은...

10년을 헤매던 자궁내막증 진단, AI가 단축시킬 수 있을까?

이미지
  초음파·MRI·수술 영상까지… 인공지능이 바꾸는 여성 질환 진단의 미래 아랫배 통증이 반복됐다. 진통제를 먹어도 소용없었다. 병원을 옮겨 다니며 검사를 받았지만 원인은 늘 불분명했다. 이런 시간을  수년 , 때로는  10년 이상  보내는 여성이 적지 않다. 질환의 이름은  자궁내막증 이다. 자궁내막증은 흔하지만, 진단은 여전히 어렵다 자궁내막증은 자궁 안에 있어야 할 조직이 난소, 장, 복막 같은 다른 장기에 자라는 질환이다. 전 세계 가임기 여성의 약  10% 가 겪는 것으로 추정된다. 하지만 진단까지 걸리는 시간은 평균  4~11년 이나 된다. 왜 이렇게 오래 걸릴까? 증상이 사람마다 다르고, 초음파나 MRI 같은 영상 검사는 의사의 경험과 숙련도 에 크게 좌우되기 때문이다. “영상은 찍었지만, 해석이 다르다”는 현실 현재 자궁내막증 진단의 핵심은 영상 검사다. 질 초음파는 1차 검사로 가장 많이 쓰이고 MRI는 병의 범위를 더 자세히 볼 때 사용된다 수술 영상은 실제 병변을 직접 확인하는 수단이다 하지만 같은 영상을 보고도 의사마다 판단이 달라지는 경우가 적지 않다. 여기서 등장한 것이  인공지능(AI) 이다. AI는 자궁내막증 영상을 어떻게 분석했을까 연구진은 지난  10년간 발표된 논문 413편 을 모았다. 그중 조건을 충족한  32편 을 정밀 분석했다. 분석 대상은 초음파, MRI, 복강경 수술 영상이었다. AI는 영상 속에서 병이 있는지 없는지 를 구분하고, 병변의 위치와 크기 를 표시하며, 심지어  다른 질환과의 감별 까지 시도했다. 가장 많이 쓰인 영상은 ‘초음파’ 전체 연구의 절반은  초음파 영상 을 사용했다. 그다음은 수술 영상, 그리고 MRI다. AI가 가장 자주 분석한 병변은 난소 자궁내막종 과 깊이 침윤된 자궁내막증 이다. 이는 실제 임상에서 가장 문제를 일으키는 유형과도 겹친다. AI의 성능은 생각보다 높다 ...

나보다 나를 더 잘 아는 AI 선생님? 공부 의욕 뿜뿜 만드는 에이전틱 AI의 비밀

이미지
  요즘 학교나 학원에서 챗GPT 같은 인공지능(AI)을 써본 적이 있는가? 단순히 질문에 답만 하는 수준을 넘어, 이제 AI는 우리가 무엇을 어려워하는지 미리 알고 공부 방향을 제안하는 똑똑한 학습 파트너로 진화하고 있다. 사우디아라비아의 제하드 알쿠르니(Jehad Alqurni) 교수는 최근 발표한 연구를 통해, 스스로 판단하고 행동하는 이른바 에이전틱 AI(Agentic AI)가 대학생들의 공부 자신감과 의욕을 어떻게 끌어올리는지 그 흥미로운 과정을 밝혀냈다. 공부를 포기하게 만드는 뻔한 수업은 이제 그만 전통적인 교실 수업은 모든 학생에게 똑같은 내용을 똑같은 속도로 가르친다. 하지만 사람마다 잘하는 분야가 다르고 이해하는 속도도 제각각이다. 그러다 보니 어떤 학생은 수업이 너무 쉬워 지루해하고, 어떤 학생은 너무 어려워 포기하게 된다. 게다가 선생님의 피드백은 늦게 오기 일쑤여서, 내가 지금 맞게 공부하고 있는지 답답할 때가 많다. 연구팀은 이러한 전통적인 방식이 학생들의 공부 의욕을 꺾는 주범이라고 지목했다. 바로 이 지점에서 스스로 생각하고 돕는 에이전틱 AI가 구원투수로 등장한다. 280명의 대학생이 경험한 AI의 놀라운 변화 알쿠르니 교수는 280명의 대학생을 대상으로 정밀한 조사를 실시했다. AI가 단순히 시키는 일만 하는 도구인지, 아니면 스스로 상황을 판단해서 도움을 주는 능동적인 존재(에이전틱)인지를 학생들이 어떻게 느끼느냐에 따라 학습 효과가 어떻게 달라지는지 분석한 것이다. 연구 결과는 놀라웠다. 학생들이 AI를 주체적인 파트너로 인식할수록 그 도구가 훨씬 유용하다고 느꼈고, 사용하기도 편하다고 생각했다. 특히 눈에 띄는 점은 AI가 사용하기 편할수록 학생들의 자신감, 즉 자기효능감이 쑥쑥 올라갔다는 사실이다. 내가 이 도구를 잘 다룰 수 있다는 느낌이 들자, 공부에 대한 두려움이 사라지고 스스로 학습을 이끌어나갈 힘이 생긴 것이다. 억지로 시키는 공부가 아닌 스스로 즐기는 공부 공부에서 가장 중요한 것은 누...

"내 뇌 사진이 밖으로 나간다고?" 병원 밖 안 나가는 데이터로 병 고치는 마법, 연합학습의 비밀!

이미지
  혹시 병원에서 MRI를 찍어본 적이 있나? 커다란 기계 속에 들어가 "우우웅" 하는 소리를 들으며 뇌나 장기를 촬영하는 그 장치 말이다. 이 사진들은 의사 선생님이 병을 진단하는 데 아주 중요하지만, 한편으로는 나의 가장 민감한 개인정보이기도 하다. 그래서 병원들은 이 소중한 데이터를 함부로 다른 곳에 보내지 못한다. 그런데 여기에 큰 고민이 하나 있다. 인공지능(AI)이 암이나 치매를 더 정확하게 찾아내려면 아주 많은 사람의 MRI 사진을 공부해야 한다. 하지만 병원마다 데이터를 꽁꽁 싸매고 있으니, AI가 똑똑해질 기회가 부족했다. "데이터는 지키면서 AI는 똑똑하게 만들 순 없을까?" 이 말도 안 될 것 같은 고민을 해결하기 위해 전 세계 과학자들이 머리를 맞댔다. 그리고 드디어 답을 찾아냈다. 이름하여 연합학습(Federated Learning)이다! 데이터는 병원에, 공부는 AI가? '연합학습'이 뭐길래! 인공지능을 공부시키는 기존 방식은 마치 전교생의 일기장을 한곳에 모아 선생님이 읽는 것과 같았다. 당연히 일기 주인이 반대할 수밖에 없다. 하지만 연합학습은 완전히 다르다. 선생님이 일기장을 모으는 대신, 각 학생의 집에 "일기 쓰는 법"이 담긴 작은 로봇을 보낸다. 로봇은 집 안에서만 일기를 읽고 "아, 이런 문장은 이렇게 쓰는구나!"라는 요약 정보(가중치)만 배운 뒤 선생님에게 돌아간다. 선생님은 로봇들이 가져온 요약본만 합쳐서 최고의 글쓰기 비법을 완성한다. 실제 일기장은 단 한 번도 집 밖으로 나가지 않았는데, 선생님은 전교생의 지혜를 모두 모은 셈이다. MRI 연구에서도 마찬가지다. 병원(노드)에 있는 소중한 환자 사진은 그대로 둔 채, AI 모델만 병원을 오가며 학습한다. 중앙 서버는 각 병원에서 배운 '지식의 조각'들을 모아 하나의 강력한 '천재 의사 AI'를 만들어낸다. MRI와 AI의 만남, 그런데 ...

AI의 지능을 측정하는 ‘MBTI’가 나왔다!

이미지
  내가 사용하는 챗봇이나 인공지능 서비스가 진짜로 ‘지능적’인지 궁금했던 적이 있나? 단순히 말을 잘하는 것을 넘어, 이 시스템이 얼마나 학습하고, 기억하며, 우리와 교감하는지 측정할 수 있는 획기적인 방법이 공개되어 화제다. 마치 사람의 성격을 MBTI로 파악하듯, 인공지능의 ‘인지 능력’을 낱낱이 분석하는 새로운 공식이 탄생한 것이다. 인공지능의 머릿속을 들여다보는 새로운 눈, CAIE 프레임워크 지금까지 우리는 인공지능을 평가할 때 주로 얼마나 빠르게 답하는지, 혹은 얼마나 정확하게 사진을 분류하는지 같은 단편적인 성능에만 집중해 왔다. 하지만 이는 마치 학생의 성적표에서 수학 점수 하나만 보고 그 학생의 전체적인 잠재력을 판단하는 것과 같다. 최근 헝가리 ELTE 대학의 연구진은 인공지능의 지능을 다각도에서 평가할 수 있는  CAIE(Cognitive and Artificial Intelligence Evaluation) 라는 새로운 틀을 제안했다. 이 연구는 인공지능이 단순한 계산기를 넘어, 인간처럼 생각하고 적응하는 ‘인지적 시스템’으로 진화하기 위해 반드시 거쳐야 할 관문을 제시했다는 점에서 매우 중요하다. 90가지 성적표로 분석하는 AI의 6가지 핵심 능력 연구진은 인공지능의 능력을 단순히 '좋다/나쁘다'로 나누지 않았다. 대신 인간의 인지 과정을 본떠 총 90가지의 세부 특징을 정의하고, 이를 6가지 커다란 영역으로 분류했다. 과연 우리 곁의 AI는 어떤 점수를 받을 수 있을까? 첫째는  학습과 적응 이다. 새로운 정보를 얼마나 빨리 배우고, 상황이 바뀌었을 때 스스로를 얼마나 잘 변화시키느냐를 본다. 둘째는  지각과 인식 으로, 주변 상황을 얼마나 정확하게 파악하고 주의를 기울이는지를 측정한다. 셋째는  추론과 의사결정 이다. 복잡한 문제 앞에서 논리적으로 생각하고 최선의 답을 내놓는 능력이다. 넷째는  상호작용과 개인화 인데, 사용자의 특징을 이해하고 맞춤형 서비스를 제...

사람의 ‘예측’을 읽는 가상현실, 뇌가 먼저 움직이기 시작한다

이미지
  공이 날아오기 전, 이미 뇌는 답을 알고 있다 테니스공이 날아오기 전, 사람의 눈은 이미 공이 나올 자리를 바라본다. 그리고 가상현실은 그 시선을 읽는다. 뇌가 무엇을  예상 하는지, 기계가 먼저 알아차린 것이다. 영국 연구진이 개발한 새로운 가상현실 기술은 사람의 ‘주의(attention)’를 따라가는 수준을 넘어 사람의  예측(prediction)  자체를 계산해 환경을 바꾼다. 이 기술의 이름은 Prediction-based Attention Computing , 줄여서  PbAC 다. 단순한 VR 게임 실험이었지만, 이 연구는 “기계가 인간의 뇌 상태를 실시간으로 읽고 반응하는 시대”의 시작을 알린다. 뇌는 세상을 ‘보는’ 것이 아니라 ‘맞히고’ 있었다 우리는 보통 눈으로 보고, 생각하고, 움직인다고 믿는다. 하지만 뇌과학은 오래전부터 다른 이야기를 해왔다. 뇌는 세상을 그대로 받아들이는 장치가 아니라 항상 “다음에 무엇이 올지”를  예측 하는 기관이라는 것이다. 이를  예측 처리 이론 이라 부른다. 뇌는 끊임없이 가설을 세운다. “공은 아마 왼쪽에서 나올 거야.” 그리고 실제 결과가 다르면 그 차이만큼 놀라고, 배우고, 전략을 바꾼다. 이 ‘차이’를 과학자들은  예측 오류(prediction error) 라고 부른다. 이번 연구의 핵심은 바로 이것이었다. 이 예측 오류를 가상현실 속에서 실시간으로 만들어낼 수 있을까? 가상 라켓볼 코트에서 벌어진 실험 연구진은 참가자들을 가상현실 라켓볼 코트에 세웠다. 정면 벽에는 공이 나올 수 있는 두 개의 구멍이 있었다. 참가자는 공이 튀어나오면 컨트롤러로 라켓을 휘둘러 맞혀야 했다. 중요한 건 공이 나오기  직전 의 순간이었다. VR 헤드셋에 달린 시선 추적 장치는 참가자의 눈이 왼쪽을 보고 있는지, 오른쪽을 보고 있는지를 0.05초 단위로 기록했다. 그 시선은 곧 참가자의  예측 이었다. “아, 이 사람은 지금 ...