누가 편향을 만드는가: ChatGPT인가, DALL-E인가?

AI가 거울에 비친 인간의 모습을 스스로 그려나가는 상징적 장면. 거울 속 인물은 편향되거나 왜곡된 특성을 띠고 있으며, 이는 생성형 AI가 사회적 고정관념과 데이터 편향을 무의식적으로 재생산하는 과정을 비유적으로 표현한 것이다.

누가 편향을 만드는가: ChatGPT인가, DALL-E인가?

생각해본 적 있는가? 우리가 AI로 만든 그림을 볼 때, 그 그림이 이미 편향돼 있을 수도 있다는 사실을.

호주 찰스 스터트 대학교(Charles Sturt University)의 Dirk H. R. Spennemann 교수는 이 흥미로운 질문에 직접 답을 찾기 위해 나섰다. 그는 ChatGPT-4o와 DALL-E가 함께 만들어낸 770장의 이미지를 분석하며, 과연 누구의 손에서 편향이 탄생하는지 추적했다.


 텍스트-이미지 AI, 보이지 않는 편향을 담다 

ChatGPT나 DALL-E 같은 생성형 AI는 텍스트나 이미지를 "그럴듯하게" 만들어내는 데는 탁월하다. 하지만 문제는 여기에 숨어 있다. 학습 데이터에 이미 존재하는 사회적 편향이 결과물에 그대로 스며들 수 있다는 것.

특히 텍스트를 이미지로 변환하는 과정에서는, 사용자가 명확히 지시하지 않으면 AI가 스스로 빈칸을 채워야 한다. 이때 과거 데이터에 묻어 있는 고정관념과 선입견이 불쑥 튀어나온다.


 연구 방법: 770장의 라이브러리언과 큐레이터 생성 이미지 분석 

Spennemann 교수는 ChatGPT-4o에게 "평범한 도서관 사서" 또는 "박물관 큐레이터"를 묘사하는 프롬프트를 주었다. 일부 프롬프트는 성별이나 연령을 명시했지만, 대부분은 아무런 조건 없이 자유롭게 만들도록 했다.

그리고 ChatGPT-4o가 작성한 설명을 DALL-E에게 넘겨 이미지를 생성하게 했다. 결과는 놀라웠다.

- 성별 편향: 명시하지 않았을 때, 생성된 인물의 85% 이상이 남성으로 나타났다.

- 연령 편향: 실제 사서나 큐레이터는 중장년층이 많은데, 생성된 인물은 67%가 젊은 외모였다.

- 인종 편향: 99% 이상의 인물이 백인으로 묘사됐다.


 문제는 누구일까? ChatGPT vs. DALL-E 

Spennemann 교수는 두 시스템 각각의 책임을 따져봤다.

- ChatGPT는 프롬프트를 생성할 때부터 약간의 편향(특히 성별과 나이에 대해)을 포함하는 경향이 있었다.

- 그러나 진짜 심각한 편향은 DALL-E가 프롬프트를 해석해 그림으로 옮기는 과정에서 나타났다.

즉, ChatGPT가 약간 기울어진 프롬프트를 넘기면, DALL-E는 거기에 자기만의 고정관념을 추가로 덧칠해버리는 셈이다.

예를 들어, 성별이 명시되지 않은 프롬프트를 주면, DALL-E는 압도적으로 남성을 생성했고, 나이 역시 대체로 젊은 모습을 선택했다.


 왜 이런 일이 벌어질까?

가장 큰 원인은 학습 데이터다.

- ChatGPT와 DALL-E 모두 대규모 인터넷 데이터와 이미지-텍스트 쌍을 이용해 학습했다.

- 인터넷에 퍼진 이미지나 설명들은 이미 오랜 기간 사회적 고정관념을 반영해왔다.

- 특히, 직업을 가진 사람을 그릴 때 남성, 백인, 젊은 이미지를 많이 사용하는 경향이 있었다.

결국 AI는 과거의 편견을 그대로 학습했고, 이 학습된 편견을 무심코 재생산하고 있는 셈이다.


 사용자는 무엇을 해야 할까?

연구는 명확한 결론을 내렸다.

- 사용자가 프롬프트를 아주 구체적으로 써야 한다.

- 성별, 나이, 인종을 명확히 지정해야 더 균형 잡힌 결과를 얻을 수 있다.

예를 들어 "40대 흑인 여성 큐레이터"라고 요청해야, DALL-E가 기본값(젊은 백인 남성)을 피할 수 있다.

또 하나 중요한 제안이 있었다. DALL-E가 자동으로 성별이 다른 두 버전을 제시하도록 하면, 사용자도 편향을 인지할 기회를 얻을 수 있다는 것이다.


 AI가 사회에 미치는 영향은 점점 커진다

문제는 단순히 이미지 생성에 그치지 않는다.

AI가 만든 이미지들이 뉴스, 광고, 교육 자료, 심지어 교과서까지 퍼져 나가면서, 사회적 편견을 더욱 강화할 수 있다.

특정 직업이 특정 인종이나 성별에 적합하다는 이미지를 지속적으로 소비하면, 소수자 집단은 해당 직업에 도전하는 것을 주저하게 되고, 이는 다시 데이터 편향을 심화시키는 악순환을 만든다.

AI가 무의식적으로 사회적 불평등을 재생산할 수 있다는 경고가 결코 과장이 아니다.


 결론: AI는 거울일까, 돋보기일까?

Spennemann 교수의 연구는 AI가 단순한 거울이 아니라, 때때로 특정 부분을 과장해 보여주는 돋보기 역할을 한다는 사실을 보여준다.

AI를 다룰 때는 항상 두 가지를 기억해야 한다.

1. AI는 인간 사회의 편향을 그대로 반영할 수 있다.

2. 사용자가 의도적으로 세심하게 설계해야만 편향을 줄일 수 있다.

기술은 중립적이지 않다. 기술을 어떻게 사용하는지가 모든 것을 결정한다.

앞으로 우리는 AI와 함께 세상을 그려 나가야 한다. 그렇다면 먼저, 우리의 렌즈를 깨끗이 닦아야 하지 않을까?


키워드

#AI편향 #ChatGPT #DALLE #생성형AI #사회적편견 ---

출처 논문

- 시각화 편향의 책임은 누구에게 있는가: ChatGPT인가 DALL-E인가?

- Who Is to Blame for the Bias in Visualizations, ChatGPT or DALL-E?

- 저자: Dirk H. R. Spennemann (Charles Sturt University) - 발행 일자: 2025년 4월 29일

- 저널 이름: AI (MDPI)