“고정된 AI는 그만”—흐르고, 스스로 커지는 ‘리퀴드 AI’가 온다

 




도입: 학습이 끝나면 멈추는 AI, 그다음은?

대형 언어모델이 문제를 술술 풀어내도, 막상 구조 자체는 굳어 있다. 학습이 끝나는 순간부터 모델은 파이프라인 속 부품처럼 정지된 형태로 산다. 새로운 분야를 만나면 사람 손으로 다시 미세조정하고, 더 큰 문제가 오면 구조를 통째로 바꾸고 재훈련한다. 번거롭다. 왜 기계는 스스로 자라지 못할까?

미국·LANL·메이요클리닉 연구진이 제안한 ‘리퀴드 어댑티브 AI(Liquid Adaptive AI, 이하 리퀴드 AI)’는 이 질문을 정면으로 건드렸다. 핵심은 “학습 중에도, 배포 후에도 스스로 구조를 바꾸며 성장하는 AI”다. 논문은 이를 위한 수학적 원리와 구성도를 제시하며, 장기적으로는 에피소드형 훈련에서 ‘지속적 자기발달’로의 패러다임 전환을 예고한다. 단, 현실 구현엔 현재 LLM 학습시설급의 인프라가 필요하다는 단서가 붙는다.


세 개의 엔진이 만드는 ‘흐르는’ 지능

리퀴드 AI를 관통하는 이미지는 말 그대로 ‘액체’다. 문제의 용기에 따라 형태를 바꾸되, 체계를 잃지 않는다. 이를 위해 논문은 서로 맞물린 세 가지 메커니즘을 정식화했다.

1) 엔트로피로 스스로 재배선하는 ‘동적 지식그래프’

첫 번째 축은 고차원 동적 지식그래프다. 새 정보가 들어오면 그래프는 엔트로피(불확실성) 지형을 훑어 ‘헐거운’ 구역을 찾고, 그 지점에서 추가·병합·가지치기 같은 구조 변형을 제안한다. 정보 병목(Information Bottleneck) 기준으로 변형의 이득을 평가해 유리하면 적용하고, 가치 낮은 연결은 정리한다. 요컨대, 파라미터만 미세조정하는 대신 지식의 배치와 경로 자체를 손본다. 이 과정은 수식과 알고리즘으로 명시돼 있어, ‘어떻게 바꿀지’가 사람이 아니라 정보이론적 기준에 의해 결정된다.

2) 배포 중에도 진화하는 ‘자기개발 엔진’

두 번째는 자기개발(Self-Development) 엔진이다. 여기서는 아키텍처 변형을 ‘행동’으로 보고, 과거 성능과 변형 비용을 함께 고려하는 계층적 베이지안 최적화로 다음 설계를 고른다. 변형은 한 번에 확 뒤집지 않고, 현재 구조와 후보 구조 사이를 연속적으로 보간하며 안정적으로 이행한다. 연구진은 이렇게 변화하는 시스템의 **수렴 조건과 안정성(리야푸노프 기반)**을 제시해 “스스로 고치다 폭주할 것”이라는 우려를 수학적으로 다룬다.

3) 역할이 ‘자라나는’ 연합형 다중에이전트

세 번째는 연합(federated) 다중에이전트 프레임워크다. 에이전트는 처음부터 역할이 정해져 있지 않다. 상호작용과 정보 교환을 거치며 **전문화가 ‘발현’**된다. 통신 구조도 고정이 아니다. 병목을 탐지하면 링크를 추가하고, 효용 낮은 경로는 잘라낸다. 보상 설계에는 다양성 보너스가 포함돼 서로 다른 역량을 키우도록 유도한다. 결과적으로 시스템은 중앙의 지시 없이도 집단 지능을 형성한다.


무엇이 달라지나—다섯 가지 병목을 건드리다

리퀴드 AI는 오늘의 AI가 겪는 다섯 가지 난제를 한꺼번에 겨냥한다.

  1. 파라미터 경직: LoRA 같은 “가벼운 덧대기”를 넘어, 토폴로지 자체를 바꾼다.
  2. 지식 단절: 사람이 관계를 지정하지 않아도, 그래프가 도메인 간 숨은 연결을 스스로 길낸다.
  3. 인간 의존 진화: NAS처럼 훈련 전 한 번 찾고 끝이 아니라, 배포 후 계속 변형을 시도한다.
  4. 파국적 망각: 기존 지식을 지키는 건 단순 가중치 고정이 아니라, 정보 가치 낮은 경로의 정리와 재배선이다.
  5. 고정된 메타학습: 학습률·손실만이 아니라 학습 알고리즘과 구조의 메타규칙까지 조정한다.


안전·인프라·평가—현실로 오려면

물론 전제조건이 있다. 첫째, 자원. 변형·평가·롤백이 동시에 돌아가려면 대규모 분산 인프라가 필요하다. 논문은 TPU·GPU 혼합 정밀, 동적 부하분산, 체크포인트 중복 등으로 가용성과 효율을 끌어올리는 운영 알고리즘을 스케치한다. 둘째, 안전. 변형 범위를 제한하는 경계, 카나리 배포와 자동 롤백, 차등프라이버시와 안전한 연산(SMC) 같은 보호 장치를 기본값으로 넣는다. 셋째, 평가. 고정 벤치마크만으론 부족하다. 연구진은 시간에 따른 능력 성장률(gC), 도메인 간 지식 이전, 인간 피드백에 대한 적응 궤적 등 **‘시간축을 가진 지표’**를 제안했다.


어디에 쓰일까—가능성의 지형

리퀴드 AI가 약속하는 장면을 몇 가지 그려보자.

  • 정밀의료: 환자 반응이 들어올 때마다 치료정책과 모듈 구성이 미세하게 바뀌어, 부작용은 낮추고 효과는 높인다.
  • 재난·전염병 대응: 데이터 흐름이 바뀌면 그래프 구조도 함께 재편되어 모형의 가정이 뒤처지지 않는다.
  • 제조·에너지 그리드: 공급망 충격이나 수요 급등에 따라 에이전트 간 역할과 통신망이 실시간 재정렬된다.

이 모든 사례의 공통점은 “사후 튜닝”이 아니라 현장 적응이다.


‘성장하는 기계’를 위한 10년 로드맵

연구진은 이 작업을 **“생각 실험이자 이론적 토대”**로 규정했다. 당장 구현하자는 제안이 아니라, 10년에 걸친 점진적 개발 경로와 안전 가드레일, 평가 체계를 깔아두는 일이다. 무엇보다 중요한 메시지는 분명하다. 지능은 고정 구조의 성능경쟁이 아니라, 구조 자체를 바꾸는 적응의 문제라는 것. “대형모델 vs 더 큰 모델”의 레이스에 피로감을 느껴왔다면, 리퀴드 AI는 다른 방향을 가리킨다.


물론, 진짜 난제는 시작일 뿐이다. 구조 변형의 검증 가능성, 인간 통제와 자율성의 균형, 진화하는 시스템의 책임성과 설명성—이 질문에 답하지 못하면 ‘액체’는 쉽게 불안정성으로 번질 수 있다. 그럼에도, 리퀴드 AI는 한 가지 직관을 되살린다. 살아 있는 지능은 환경과 함께 흐른다. 이제 기계도 그렇게 자라도록, 바닥부터 수학과 공학을 다시 깔아보자는 제안이다.





출처:
Caulfield, T. R., Islam, N. N., & Chitale, R. (2025). Liquid Adaptive AI: A theoretical framework for continuously self-improving artificial intelligenceAI, 6(8), 186. https://doi.org/10.3390/ai6080186