“GPT-4보다 더 똑똑하다고?”… 단 8B 소형 AI가 스스로 틀린 답을 고쳐가며 진화한 놀라운 실험
요즘 인공지능은 뭐든 척척 해내는 것처럼 보인다. 질문하면 답하고, 글도 쓰고, 요약도 한다. 그런데 여기엔 치명적인 문제가 하나 있다. AI는 사실 자기가 틀렸는지 잘 모른다 는 점이다. 한 번 답을 내놓으면 끝이다. 사람이 “그건 좀 아닌데?”라고 말해도 대부분의 작은 AI 모델은 왜 틀렸는지 이해하지 못한다. 마치 시험지를 제출한 뒤 오답노트를 보지 않는 학생과 비슷하다. 그런데 최근 흥미로운 연구가 등장했다. 작은 오픈소스 AI에게 “이전 답이 좋았는지 나빴는지”를 계속 알려주자, AI가 스스로 더 좋은 답을 찾아가기 시작한 것이다. 놀랍게도 일부 작업에서는 GPT-4o보다 더 뛰어난 성능까지 보였다. 이 연구는 단순히 “AI 성능이 좋아졌다” 수준이 아니다. 앞으로 값비싼 초거대 AI 없이도, 저렴하고 작은 AI가 스스로 발전하는 시대가 올 수 있다는 신호에 가깝다. AI는 왜 같은 실수를 반복할까? 지금 대부분의 AI는 “한 번에 답 하나”를 생성한다. 질문을 받으면 그 즉시 가장 그럴듯한 답을 뱉어낸다. 문제는 여기서 끝난다는 점이다. 예를 들어 AI에게 “이 글의 핵심 키워드를 10개 뽑아라”라고 시키면, 처음 몇 개는 꽤 괜찮다. 하지만 뒤로 갈수록 이상한 단어나 중복 표현이 튀어나온다. 왜 그럴까? AI는 이전에 자기가 어떤 답을 냈는지, 그 답이 좋은지 나쁜지 충분히 고려하지 못하기 때문이다. 연구진은 여기서 인간 학습의 핵심 원리를 떠올렸다. 사람은 보통 이렇게 배운다. 답을 쓴다 피드백을 받는다 틀린 이유를 이해한다 다음 답을 수정한다 그런데 기존 소형 AI에는 이 과정이 거의 없었다. 연구진이 만든 핵심 아이디어… “GOOD / BAD” 이번 연구의 핵심은 놀라울 정도로 단순했다. AI에게 이전 답변마다 “GOOD” 또는 “BAD”라는 라벨을 붙여주는 것이다. 예를 들면 이런 식이다. GOOD: 아주 적절한 키워드 BAD: 엉뚱하거나 중복된 키워드 AI는 이 기록을 계속 프롬프트 안에 쌓아가며 다음 답을 생성한다....