AI 비서에게 욕하면 안 되는 이유?…챗봇이 가르치는 '예절 교육'
AI 비서, 즉 챗봇이 성희롱이나 욕설을 듣고 어떻게 반응해야 할까? 그리고 이 반응은 인간의 행동에 어떤 영향을 미칠까?
이 질문은 단순히 기술적 문제가 아니다. 이면에는 성차별, 사회적 규범, 그리고 우리가 AI를 어떻게 대하고 또 그 AI가 우리 사회에 어떤 메시지를 전달하느냐는 깊은 문제가 깔려 있다.
“그냥 장난이었어요”라는 말로 넘길 수 없는 문제
2017년, ‘미투 운동’이 전 세계적으로 확산되던 시기, 여러 언론은 흥미로운 문제 하나를 파고들었다. 바로 Siri, Alexa, Google Assistant 같은 AI 비서들이 성적인 농담이나 욕설에 ‘순종적이고 수줍은’ 반응을 보인다는 것이었다.
"나쁜 말 하지 마세요" 대신 "난 그런 말 잘 몰라요" 같은 대답. 이게 왜 문제일까?
문제는 이들 AI가 대부분 여성 목소리라는 점에서 시작된다. 여성형 AI가 공격적 언사에 고분고분한 태도를 보이면, 사용자에게 “이런 말도 괜찮다”는 잘못된 신호를 줄 수 있다. 실제 여성에게도 비슷한 말을 해도 된다는 착각을 부를 수 있다는 것이다.
그래서 사람들은 항의했고, 일부 기업은 반응을 수정했다. AI가 "그런 말은 적절하지 않아요"라고 응수하거나, 심지어 성희롱 통계를 들이대며 '교육'하기 시작했다.
정말 그렇게까지 심각한 문제일까?
하지만 이번 연구의 저자들은 여기서 잠깐 브레이크를 걸었다.
진짜로 사람들이 AI에게 그렇게 심하게 굴까? 그리고 그런 행동이 실제 인간관계에도 영향을 미칠까?
놀랍게도, 지금까지 이 문제에 대한 직접적인 데이터는 거의 없다. Siri나 Alexa와의 대화를 공개하는 사람은 없고, 대부분의 연구는 실험실 환경에서 만들어낸 상황극일 뿐이다.
예를 들어 연구자가 욕설 리스트를 만들어 AI에 던져보고, 반응을 측정하는 방식.
진짜 사람들이 어떻게 쓰는지에 대한 데이터는 없다.
게다가 AI에게 욕하는 행위는 꼭 공격적인 의도만 있는 것도 아니다. 장난, 호기심, 스트레스 해소 수단일 수도 있다.
예를 들어 “트림하기”, “욕하기” 같은 Alexa의 유머 스킬은 오히려 사용자가 AI에게 무례하게 행동하도록 장려하기도 한다.
사람들은 AI를 사람처럼 대할까?
또 하나 중요한 질문. AI에게 욕설을 하면, 그 사람이 실제 인간에게도 그렇게 대할 가능성이 높을까?
1990년대 '컴퓨터는 사회적 행위자다(CASA)'라는 이론에 따르면, 사람은 컴퓨터와도 인간처럼 소통한다고 했다. 그렇다면 AI에게 욕하는 사람은 실제 사람에게도 무례할까?
연구자들은 여기서도 조심스럽다. 일부 연구에서는 AI에게 공격적인 사람일수록 트위터에서도 공격적이라는 결과가 있지만, 이건 일반화하기 어렵다.
“사람들은 AI를 사람처럼 대하기보다는, 사람도 아니고 물건도 아닌 뭔가 애매한 존재로 취급하는 경향이 있다”는 것이다.
AI 성희롱이 여성에게도 영향을 줄 수 있다?
AI에게 욕설하거나 성희롱성 발언을 하는 것이 실제 여성에게도 해가 될까?
직접적인 해는 없지만, AI의 반응이 사회적 메시지를 전달할 수는 있다. 예를 들어, 여성형 AI가 순종적으로 반응하면 “여성은 이래야 한다”는 잘못된 고정관념을 강화할 수 있다.
더욱이, 이런 반응은 AI를 만든 사람들이 설계한 것이라는 점에서 기술 개발자들의 사회적 책임도 제기된다.
AI의 반응이 너무 '정치적으로 올바르다'고 느껴지면 오히려 사용자들은 반발하거나 조롱할 수도 있다. 이를 '심리적 반발 효과'라고 부른다.
실제로 어떤 캠페인에서는 Alexa가 성희롱에 대해 ‘정색’하며 응수했지만, 사용자들은 이를 가르치려 드는 태도로 받아들여 반감을 나타냈다.
심지어 "여성 권리를 말하는 AI는 왜 실제 여성 인권 문제에는 관심이 없냐"는 비판까지 나왔다.
그렇다면 AI는 어떻게 반응해야 할까?
연구자들은 다음과 같은 접근을 제안한다.
1. 중립성 유지: AI는 인간이 아니다. 그렇기에 가르치려 하기보다는 ‘이건 오해를 부를 수 있다’ 정도로 부드럽게 대응하는 게 좋다는 것이다.
2. 의도 파악: 사용자의 말투나 감정을 인식해 진짜 불쾌한 의도인지, 장난인지를 구별해 맞춤형 반응을 제공할 수 있어야 한다.
3. 명확한 목적 제시: 만약 AI가 교육적인 역할을 하려면, 그 목적이 분명히 알려져야 한다. 사용자가 모르게 교화하려 하면 반발만 부른다.
예를 들어 AI가 “그 말은 많은 사람들에게 공격적으로 들릴 수 있어요”라고 말하면, 정색하는 것보다는 훨씬 나은 반응이 될 수 있다.
AI가 사회를 바꿀 수 있을까?
AI 비서는 단순히 정보를 주는 존재가 아니다. 사람들과 대화하는 순간, 사회적 역할을 하게 된다.
그렇기에 이 AI가 어떤 목소리로, 어떤 성격으로, 어떤 반응을 보이느냐는 단순한 UI 디자인 문제가 아니다. 사회적 메시지 그 자체다.
AI가 사회의 고정관념을 반영하거나 강화한다면, 오히려 해가 될 수 있다. 하지만 잘 설계된 AI는 포용과 존중이라는 가치를 확산시키는 도구가 될 수도 있다.
중요한 건 그 사이의 균형을 어떻게 잡느냐다.
---
키워드:
#챗봇 #AI윤리 #성차별 #디지털성희롱 #AI디자인
---
출처 논문
Lima E and Morisseau T (2025) *Can chatbots teach us how to behave? Examining assumptions about user interactions with AI assistants and their social implications.* Front. Artif. Intell. 8:1545607.