“GPT-4보다 더 똑똑하다고?”… 단 8B 소형 AI가 스스로 틀린 답을 고쳐가며 진화한 놀라운 실험

이미지
  요즘 인공지능은 뭐든 척척 해내는 것처럼 보인다. 질문하면 답하고, 글도 쓰고, 요약도 한다. 그런데 여기엔 치명적인 문제가 하나 있다. AI는 사실  자기가 틀렸는지 잘 모른다 는 점이다. 한 번 답을 내놓으면 끝이다. 사람이 “그건 좀 아닌데?”라고 말해도 대부분의 작은 AI 모델은 왜 틀렸는지 이해하지 못한다. 마치 시험지를 제출한 뒤 오답노트를 보지 않는 학생과 비슷하다. 그런데 최근 흥미로운 연구가 등장했다. 작은 오픈소스 AI에게 “이전 답이 좋았는지 나빴는지”를 계속 알려주자, AI가 스스로 더 좋은 답을 찾아가기 시작한 것이다. 놀랍게도 일부 작업에서는 GPT-4o보다 더 뛰어난 성능까지 보였다. 이 연구는 단순히 “AI 성능이 좋아졌다” 수준이 아니다. 앞으로 값비싼 초거대 AI 없이도, 저렴하고 작은 AI가 스스로 발전하는 시대가 올 수 있다는 신호에 가깝다. AI는 왜 같은 실수를 반복할까? 지금 대부분의 AI는 “한 번에 답 하나”를 생성한다. 질문을 받으면 그 즉시 가장 그럴듯한 답을 뱉어낸다. 문제는 여기서 끝난다는 점이다. 예를 들어 AI에게 “이 글의 핵심 키워드를 10개 뽑아라”라고 시키면, 처음 몇 개는 꽤 괜찮다. 하지만 뒤로 갈수록 이상한 단어나 중복 표현이 튀어나온다. 왜 그럴까? AI는 이전에 자기가 어떤 답을 냈는지, 그 답이 좋은지 나쁜지 충분히 고려하지 못하기 때문이다. 연구진은 여기서 인간 학습의 핵심 원리를 떠올렸다. 사람은 보통 이렇게 배운다. 답을 쓴다 피드백을 받는다 틀린 이유를 이해한다 다음 답을 수정한다 그런데 기존 소형 AI에는 이 과정이 거의 없었다. 연구진이 만든 핵심 아이디어… “GOOD / BAD” 이번 연구의 핵심은 놀라울 정도로 단순했다. AI에게 이전 답변마다 “GOOD” 또는 “BAD”라는 라벨을 붙여주는 것이다. 예를 들면 이런 식이다. GOOD: 아주 적절한 키워드 BAD: 엉뚱하거나 중복된 키워드 AI는 이 기록을 계속 프롬프트 안에 쌓아가며 다음 답을 생성한다....

“흐릿한 금속 사진이 순식간에 초고화질로”… AI가 산업 현장의 ‘눈’을 바꾸기 시작했다

이미지
  공장 자동화 시대가 본격화되면서 산업 현장의 카메라는 이제 단순한 촬영 장비가 아니다. 기계의 눈이자, 품질을 판단하는 검사관이며, 때로는 인간보다 더 정밀한 측정 도구 역할까지 한다. 그런데 여기엔 오래된 문제가 있었다. 바로  금속 이다. 반짝이는 금속 표면은 빛을 난반사한다. 카메라 입장에서는 악몽 같은 대상이다. 표면이 번쩍이면 이미지가 흐려지고, 작은 흠집이나 미세한 균열은 사라져버린다. 특히 초정밀 산업에서는 머리카락보다 훨씬 작은 오차까지 잡아내야 하기 때문에 이미지 품질은 곧 생산 품질과 직결된다. 하지만 초고해상도 카메라는 너무 비싸다. 저장 공간도 엄청나게 먹는다. 그래서 연구진은 오래된 질문 하나를 다시 꺼내 들었다. “저화질 이미지를 AI로 초고화질처럼 복원할 수는 없을까?” 홍콩이공대 연구진은 여기에 한 발 더 나아갔다. 단순히 한 장의 사진을 선명하게 만드는 수준이 아니라, 여러 각도에서 찍은 금속 이미지를 동시에 복원하는 AI를 개발한 것이다. 그리고 결과는 놀라웠다. 여러 대의 카메라가 동시에 찍은 사진을 AI가 합쳐버렸다 우리가 스마트폰으로 사진을 찍을 때는 보통 한 장만 사용한다. 하지만 산업 현장에서는 다르다. 금속 부품을 여러 방향에서 동시에 촬영한다. 그래야 입체 구조와 표면 상태를 정확히 볼 수 있기 때문이다. 문제는 각 이미지가 모두 저해상도라는 점이다. 연구진은 여기서 독특한 아이디어를 냈다. 가운데 카메라 한 대만 고해상도로 촬영하고, 주변 카메라들은 저해상도로 찍는 방식이다. 그리고 AI가 이 이미지들을 서로 비교하면서 부족한 디테일을 채워 넣는다. 쉽게 말하면 이런 원리다. 가운데 사진은 선명하지만 각도가 제한적이다. 주변 사진들은 흐리지만 다양한 방향 정보를 가지고 있다. AI가 이 둘을 합쳐 “고화질 다각도 이미지”를 만들어낸다. 마치 퍼즐 조각을 맞추듯 여러 사진의 정보를 조합해 하나의 초고화질 세계를 재구성하는 셈이다. 금속은 왜 AI에게도 어려운 상대였을까 사람 눈에는 그냥 번쩍이는 ...

“AI야, 왜 그런 결론을 냈어?”… 드디어 답할 수 있는 시대가 왔다

이미지
  인공지능이 추천한 영화, 병원에서 AI가 내린 진단, 금융 앱이 권한 대출 결과. 요즘 우리는 하루에도 수십 번씩 AI의 판단 속에서 살아간다. 그런데 이상하지 않은가? AI는 점점 똑똑해지는데, 정작 사람들은 가장 중요한 질문 하나에 답을 듣지 못했다. “그래서 왜 그렇게 판단했는데?” AI 업계는 이 문제를 오래 고민해왔다. 그리고 최근, 놀라운 연구 하나가 등장했다. AI가 단순히 결과만 내놓는 것이 아니라, 사람처럼 “규칙”으로 설명할 수 있는 길이 열린 것이다. 영국 옥스퍼드대와 런던대학교, 노르웨이 오슬로대학교 연구진이 발표한 이번 논문은 그래프 신경망(GNN)과 데이터로직(Datalog)을 연결하는 새로운 방법을 제시했다. 쉽게 말하면, “블랙박스 AI”였던 최신 AI 모델이 인간이 읽을 수 있는 규칙으로 변환될 수 있다는 뜻이다. AI 업계에서는 벌써부터 “설명 가능한 AI의 결정적 전환점”이라는 평가가 나온다. 인간은 규칙으로 생각하지만 AI는 숫자로 생각한다 지금까지 대부분의 AI는 엄청난 숫자 계산을 통해 결론을 냈다. 예를 들어 유튜브 추천 알고리즘은 다음처럼 작동한다. 어떤 영상을 오래 봤는지 어떤 채널을 구독했는지 어떤 사람들과 취향이 비슷한지 어떤 시간대에 영상을 보는지 이런 수많은 데이터를 계산해 “당신이 좋아할 영상”을 추천한다. 문제는 여기서부터다. AI는 왜 그 영상을 추천했는지 스스로 설명하지 못한다. 정확히는 “설명 가능한 언어”로 바꿔 말하지 못한다. 사람은 보통 이렇게 설명한다. “도스토옙스키 책을 좋아했으니 같은 작가의 다른 작품도 추천한 거야.” 하지만 AI 내부에서는 이런 식이다. 벡터 3,421 증가 노드 연결 강도 상승 임베딩 거리 감소 일반인은 물론 개발자조차 이해하기 어려운 수준이다. AI의 ‘뇌 구조’를 규칙으로 번역한 연구 이번 연구의 핵심은 여기 있다. 연구진은 그래프 신경망(GNN)이 실제로는 일정한 “논리 규칙”처럼 행동한다는 사실을 발견했다. 그래프 신경망은 인간관계를 분석하는 데 매우...