“AI야, 왜 그런 결론을 냈어?”… 드디어 답할 수 있는 시대가 왔다

이미지
  인공지능이 추천한 영화, 병원에서 AI가 내린 진단, 금융 앱이 권한 대출 결과. 요즘 우리는 하루에도 수십 번씩 AI의 판단 속에서 살아간다. 그런데 이상하지 않은가? AI는 점점 똑똑해지는데, 정작 사람들은 가장 중요한 질문 하나에 답을 듣지 못했다. “그래서 왜 그렇게 판단했는데?” AI 업계는 이 문제를 오래 고민해왔다. 그리고 최근, 놀라운 연구 하나가 등장했다. AI가 단순히 결과만 내놓는 것이 아니라, 사람처럼 “규칙”으로 설명할 수 있는 길이 열린 것이다. 영국 옥스퍼드대와 런던대학교, 노르웨이 오슬로대학교 연구진이 발표한 이번 논문은 그래프 신경망(GNN)과 데이터로직(Datalog)을 연결하는 새로운 방법을 제시했다. 쉽게 말하면, “블랙박스 AI”였던 최신 AI 모델이 인간이 읽을 수 있는 규칙으로 변환될 수 있다는 뜻이다. AI 업계에서는 벌써부터 “설명 가능한 AI의 결정적 전환점”이라는 평가가 나온다. 인간은 규칙으로 생각하지만 AI는 숫자로 생각한다 지금까지 대부분의 AI는 엄청난 숫자 계산을 통해 결론을 냈다. 예를 들어 유튜브 추천 알고리즘은 다음처럼 작동한다. 어떤 영상을 오래 봤는지 어떤 채널을 구독했는지 어떤 사람들과 취향이 비슷한지 어떤 시간대에 영상을 보는지 이런 수많은 데이터를 계산해 “당신이 좋아할 영상”을 추천한다. 문제는 여기서부터다. AI는 왜 그 영상을 추천했는지 스스로 설명하지 못한다. 정확히는 “설명 가능한 언어”로 바꿔 말하지 못한다. 사람은 보통 이렇게 설명한다. “도스토옙스키 책을 좋아했으니 같은 작가의 다른 작품도 추천한 거야.” 하지만 AI 내부에서는 이런 식이다. 벡터 3,421 증가 노드 연결 강도 상승 임베딩 거리 감소 일반인은 물론 개발자조차 이해하기 어려운 수준이다. AI의 ‘뇌 구조’를 규칙으로 번역한 연구 이번 연구의 핵심은 여기 있다. 연구진은 그래프 신경망(GNN)이 실제로는 일정한 “논리 규칙”처럼 행동한다는 사실을 발견했다. 그래프 신경망은 인간관계를 분석하는 데 매우...

“VR 속 건물이 사람 감정까지 읽는다?”… 건축·AI·뇌과학이 합쳐진 충격의 미래 기술 등장!

이미지
  가상현실(VR) 속 건물이 사람의 감정과 생각, 심지어 마음속 갈등까지 읽어낸다면 어떨까. 영화 같은 이야기처럼 들리지만, 실제 학계에서는 이미 이런 연구가 시작됐다. 최근 발표된 한 논문은 건축, 인공지능(AI), 뇌파 분석, 심리학을 한데 묶어 완전히 새로운 개념의 건축 평가 시스템을 제안했다. 이름도 꽤 낯설다.  “Neutrosophic Technarrative Architecture(NTA)” . 직역하면 ‘중성철학 기반 기술서사 건축’ 정도다. 쉽게 말하면 이렇다. “어떤 공간이 사람에게 정의롭게 느껴지는가?” “왜 어떤 건물은 희망을 주고, 어떤 장소는 불안하게 만드는가?” “사람은 공간 속에서 왜 동시에 편안함과 압박감을 느끼는가?” 연구진은 이런 질문을 VR과 뇌파 데이터로 분석하려 했다. 놀라운 건 단순히 “좋다/싫다” 수준이 아니라 인간의  복잡한 감정의 모순 까지 측정하려 했다는 점이다. “좋은 건물”의 기준이 완전히 바뀌기 시작했다 지금까지 건축 평가는 대부분 기능 중심이었다. 채광은 좋은가. 동선은 편한가. 에너지는 절약되는가. 안전한가. 물론 중요하다. 하지만 인간은 단순히 기능만으로 공간을 느끼지 않는다. 예를 들어 어떤 광장은 넓고 아름다운데도 왠지 위압적일 수 있다. 반대로 낡은 골목인데도 이상하게 따뜻하고 편안하게 느껴질 때가 있다. 연구진은 바로 여기에 주목했다. 건축 공간에는 단순한 구조 이상의  상징 이 숨어 있다는 것이다. 논문에서는 이를 다섯 개 핵심 감정 코드로 정리했다. 정의(Justice) 정체성(Identity) 희망(Hope) 저항(Resistance) 생태공존(Eco-symbiosis) 예를 들어 투명한 유리 구조와 열린 공간은 ‘정의’와 ‘공정성’을 느끼게 만들 수 있다. 반대로 폐쇄적이고 미로 같은 구조는 긴장감과 불안을 유발할 수 있다. 특히 흥미로운 부분은 ‘희망’을 건축으로 표현하려 했다는 점이다. 연구진은 높은 천장, 위로 뻗는 시선, 밝은 자연광 같은 요소가...

“AI가 설명서를 읽다가 길을 잃는 이유”… 한국 연구진이 찾아낸 충격적인 원인

이미지
  자동차 설명서를 펼쳐본 적 있는가. 어떤 버튼은 12페이지 그림을 보라고 하고, 경고 문구는 또 다른 표를 참고하라고 한다. 문제는 AI도 이 설명서를 읽을 때 똑같이 헤맨다는 점이다. 아니, 어쩌면 인간보다 더 심각하게 길을 잃는다. 최근 공개된 한 연구는 바로 이 문제를 정면으로 파고들었다. 그리고 놀라운 결론을 내놨다. 지금까지의 AI 검색 시스템은 “문서를 읽는 척만 하고 있었다”는 것이다. 연구진은 AI가 기술 문서를 제대로 이해하지 못하는 이유가 단순히 성능 부족이 아니라, 문서 속 “관계”를 잃어버리기 때문이라고 분석했다. 그리고 그 해결책으로 등장한 것이 바로  TechDocRAG 다. AI는 왜 설명서를 읽다가 엉뚱한 답을 할까 요즘 AI 챗봇은 웬만한 질문에는 척척 답한다. 하지만 제품 설명서나 공학 문서처럼 복잡한 자료가 등장하면 이야기가 달라진다. 예를 들어 이런 질문을 한다고 가정해보자. “센서 Y를 재보정하려면 어떻게 해야 하나요?” 인간은 보통 이렇게 읽는다. 절차 단계 확인 경고 문구 확인 관련 그림 확인 온도 조건 표 확인 하지만 기존 AI는 이 모든 정보를 따로따로 잘라서 읽는다. 문서를 “조각난 텍스트”로만 처리하기 때문이다. 그러다 보니 경고 문구는 놓치고, 그림 설명은 잃어버리고, 표와 문장의 연결도 끊어진다. 결국 AI는 문맥 없이 일부 문장만 읽고 대답하게 된다. 연구진은 이것을 “증거 사슬 붕괴”라고 설명했다. 쉽게 말하면, 답을 만드는 데 필요한 정보들이 서로 연결돼 있어야 하는데 AI가 그 연결선을 끊어버린다는 뜻이다. 지금까지의 RAG는 왜 한계가 있었나 최근 AI 업계에서 가장 주목받는 기술 중 하나가 바로 RAG다. Retrieval-Augmented Generation, 즉 “검색 기반 생성” 기술이다. 쉽게 설명하면 AI가 답을 만들기 전에 외부 문서를 검색해서 참고하는 방식이다. 예를 들어 AI에게 “USB 포트 최대 전압은?”이라고 물으면 AI는 설명서에서 관련 내용을 찾아 읽고 답...