“VR 속 건물이 사람 감정까지 읽는다?”… 건축·AI·뇌과학이 합쳐진 충격의 미래 기술 등장!

이미지
  가상현실(VR) 속 건물이 사람의 감정과 생각, 심지어 마음속 갈등까지 읽어낸다면 어떨까. 영화 같은 이야기처럼 들리지만, 실제 학계에서는 이미 이런 연구가 시작됐다. 최근 발표된 한 논문은 건축, 인공지능(AI), 뇌파 분석, 심리학을 한데 묶어 완전히 새로운 개념의 건축 평가 시스템을 제안했다. 이름도 꽤 낯설다.  “Neutrosophic Technarrative Architecture(NTA)” . 직역하면 ‘중성철학 기반 기술서사 건축’ 정도다. 쉽게 말하면 이렇다. “어떤 공간이 사람에게 정의롭게 느껴지는가?” “왜 어떤 건물은 희망을 주고, 어떤 장소는 불안하게 만드는가?” “사람은 공간 속에서 왜 동시에 편안함과 압박감을 느끼는가?” 연구진은 이런 질문을 VR과 뇌파 데이터로 분석하려 했다. 놀라운 건 단순히 “좋다/싫다” 수준이 아니라 인간의  복잡한 감정의 모순 까지 측정하려 했다는 점이다. “좋은 건물”의 기준이 완전히 바뀌기 시작했다 지금까지 건축 평가는 대부분 기능 중심이었다. 채광은 좋은가. 동선은 편한가. 에너지는 절약되는가. 안전한가. 물론 중요하다. 하지만 인간은 단순히 기능만으로 공간을 느끼지 않는다. 예를 들어 어떤 광장은 넓고 아름다운데도 왠지 위압적일 수 있다. 반대로 낡은 골목인데도 이상하게 따뜻하고 편안하게 느껴질 때가 있다. 연구진은 바로 여기에 주목했다. 건축 공간에는 단순한 구조 이상의  상징 이 숨어 있다는 것이다. 논문에서는 이를 다섯 개 핵심 감정 코드로 정리했다. 정의(Justice) 정체성(Identity) 희망(Hope) 저항(Resistance) 생태공존(Eco-symbiosis) 예를 들어 투명한 유리 구조와 열린 공간은 ‘정의’와 ‘공정성’을 느끼게 만들 수 있다. 반대로 폐쇄적이고 미로 같은 구조는 긴장감과 불안을 유발할 수 있다. 특히 흥미로운 부분은 ‘희망’을 건축으로 표현하려 했다는 점이다. 연구진은 높은 천장, 위로 뻗는 시선, 밝은 자연광 같은 요소가...

“AI가 설명서를 읽다가 길을 잃는 이유”… 한국 연구진이 찾아낸 충격적인 원인

이미지
  자동차 설명서를 펼쳐본 적 있는가. 어떤 버튼은 12페이지 그림을 보라고 하고, 경고 문구는 또 다른 표를 참고하라고 한다. 문제는 AI도 이 설명서를 읽을 때 똑같이 헤맨다는 점이다. 아니, 어쩌면 인간보다 더 심각하게 길을 잃는다. 최근 공개된 한 연구는 바로 이 문제를 정면으로 파고들었다. 그리고 놀라운 결론을 내놨다. 지금까지의 AI 검색 시스템은 “문서를 읽는 척만 하고 있었다”는 것이다. 연구진은 AI가 기술 문서를 제대로 이해하지 못하는 이유가 단순히 성능 부족이 아니라, 문서 속 “관계”를 잃어버리기 때문이라고 분석했다. 그리고 그 해결책으로 등장한 것이 바로  TechDocRAG 다. AI는 왜 설명서를 읽다가 엉뚱한 답을 할까 요즘 AI 챗봇은 웬만한 질문에는 척척 답한다. 하지만 제품 설명서나 공학 문서처럼 복잡한 자료가 등장하면 이야기가 달라진다. 예를 들어 이런 질문을 한다고 가정해보자. “센서 Y를 재보정하려면 어떻게 해야 하나요?” 인간은 보통 이렇게 읽는다. 절차 단계 확인 경고 문구 확인 관련 그림 확인 온도 조건 표 확인 하지만 기존 AI는 이 모든 정보를 따로따로 잘라서 읽는다. 문서를 “조각난 텍스트”로만 처리하기 때문이다. 그러다 보니 경고 문구는 놓치고, 그림 설명은 잃어버리고, 표와 문장의 연결도 끊어진다. 결국 AI는 문맥 없이 일부 문장만 읽고 대답하게 된다. 연구진은 이것을 “증거 사슬 붕괴”라고 설명했다. 쉽게 말하면, 답을 만드는 데 필요한 정보들이 서로 연결돼 있어야 하는데 AI가 그 연결선을 끊어버린다는 뜻이다. 지금까지의 RAG는 왜 한계가 있었나 최근 AI 업계에서 가장 주목받는 기술 중 하나가 바로 RAG다. Retrieval-Augmented Generation, 즉 “검색 기반 생성” 기술이다. 쉽게 설명하면 AI가 답을 만들기 전에 외부 문서를 검색해서 참고하는 방식이다. 예를 들어 AI에게 “USB 포트 최대 전압은?”이라고 물으면 AI는 설명서에서 관련 내용을 찾아 읽고 답...

“사진 한 장과 목소리만 있으면 정체를 알아낸다?”… AI가 ‘처음 보는 사람’까지 구별하기 시작했다

이미지
  공항 보안 검색대, 은행의 생체 인증, 범죄자 추적 시스템, 스마트폰 얼굴 인식까지. 오늘날 AI는 사람을 구별하는 데 점점 더 능숙해지고 있다. 하지만 지금까지의 인공지능에는 치명적인 약점 하나가 있었다. 바로  “처음 보는 사람”  에 대한 판단이었다. 기존 얼굴 인식 AI는 학습한 사람만 잘 알아봤다. 한 번도 본 적 없는 사람이 등장하면 어떻게 될까? 놀랍게도 AI는 종종 그 사람을 “아는 사람 중 하나”라고 착각해버렸다. 마치 처음 보는 학생을 억지로 반 친구 이름 중 하나로 부르는 셈이다. 그런데 최근 스페인 알리칸테 대학 연구진이 이 문제를 해결할 새로운 AI 기술을 공개했다. 이 AI는 단순히 얼굴만 보지 않는다.  목소리와 얼굴을 동시에 분석  한다. 더 놀라운 건, 학습한 적 없는 사람까지도 “이 사람은 처음 보는 인물”이라고 판별해낸다는 점이다.  연구진은 이를 통해 미래의 보안 시스템이 훨씬 더 안전해질 수 있다고 설명했다. AI는 왜 ‘처음 보는 사람’을 구별하지 못했을까 사람은 생각보다 쉽게 타인을 구분한다. 얼굴이 조금 달라도 목소리로 알아보고, 목소리가 달라도 걸음걸이나 분위기로 눈치챈다. 하지만 기존 AI는 그렇지 못했다. 대부분의 얼굴 인식 시스템은 사진 데이터만 사용한다. 예를 들어 AI에게 100명의 얼굴을 학습시키면, AI는 세상에 존재하는 모든 사람을 그 100명 중 하나로 분류하려 한다. 문제는 여기서 발생한다. 전혀 다른 사람이 등장해도 AI는 “이 사람은 아마 37번일 거야”라고 잘못 판단한다. 실제 보안 시스템에서는 이런 오류가 매우 위험하다. 감시 카메라가 낯선 침입자를 기존 직원으로 오인할 수도 있기 때문이다. 연구진은 이런 문제를 해결하기 위해 인간처럼 여러 감각을 동시에 사용하는 방법을 떠올렸다. 얼굴만 보지 말고, 목소리까지 함께 분석하면 어떨까? 얼굴과 목소리를 같은 공간에 넣은 AI 연구진이 만든 시스템의 핵심은  “멀티모달 대조 학습” ...