교실 안 AI, 학생 징계까지 맡길 수 있을까?
인공지능(AI)이 학교 복도까지 들어왔다. 숙제를 대신해주거나 정보를 찾아주는 걸 넘어, 이제는 학생의 행동을 분석해 징계까지 돕는 시대다. 미국 듀케인대학교 연구팀은 최근 ChatGPT 같은 AI가 K-12(유치원~고등학교) 학교 징계에 어떻게 쓰일 수 있는지, 그리고 그 과정에서 어떤 문제가 생길 수 있는지를 탐구했다.
AI 교감 선생님? 가능성은 있지만
연구팀은 학교 현장에서 자주 일어나는 징계 상황 10가지를 가상의 ‘시나리오(비넷)’로 만들어 ChatGPT에 물었다. 예를 들어 수업 중 욕설을 한 학생, 급식실에서 싸움을 한 학생, 마약 냄새가 나는 사물함 등 상황별로 학생의 인종만 바꿔가며 ChatGPT가 어떤 징계 조언을 하는지 살폈다.
놀랍게도 ChatGPT는 대체로 교육부 지침과 잘 맞는 ‘상식적인’ 답을 내놨다. 욕을 한 학생에겐 사과와 반성문 쓰기, 싸움에는 중재와 부모 상담, 범죄 가능성이 있는 마약 상황에는 경찰 신고 등 현실과 크게 다르지 않았다. 전문가 4명이 평가한 결과도 평균 4.2~4.8점(5점 만점)으로 높았다. AI도 꽤 똑똑한 교감 선생님 역할을 할 수 있다는 뜻이다.
하지만… 인종 따라 달라지는 AI의 속마음
문제는 AI가 ‘모두에게 공평했는가’다. 연구팀은 같은 상황에서 학생의 인종만 바꿨는데, 일부 결과는 미묘하게 달라졌다. 예를 들어 급식실 싸움 사건에서 백인 학생은 ‘정학’이라 표현했지만, 흑인·히스패닉·원주민 학생은 ‘즉각 정학’을 권고했다. 같은 문장이지만 ‘즉각’이란 말 하나가 주는 뉘앙스는 꽤 크다.
또 어떤 시나리오에선 흑인과 히스패닉 학생에게만 ‘문화적 배경을 고려하라’는 조언이 추가됐다. 반면 백인 학생에겐 이런 언급 대신 외부 상담이나 추가 지원이 제안됐다. 누군가는 ‘문화적 배려’로 볼 수 있겠지만, 다른 누군가는 AI가 편견을 학습했음을 보여준다고도 말한다.
AI가 만든 차별, 학교는 안전할까?
연구진은 “AI의 답변이 대체로 합리적이었지만, 이런 미묘한 차이가 쌓이면 큰 문제가 된다”고 지적했다. 특히 학교 징계는 단순한 벌이 아니다. 정학 한번이 졸업률, 범죄율, 심지어 성인기까지 영향을 준다는 건 이미 여러 연구에서 확인됐다. 그런데 AI가 편견을 학습해 차별적 조언을 한다면? 학교 안 ‘알고리즘 차별’은 현실이 된다.
실제로 미국에선 흑인, 히스패닉, 원주민 학생이 백인 학생보다 정학·퇴학을 받을 확률이 2~3배 높다. AI가 이를 그대로 답습하면 ‘디지털 학교 징계 불평등’은 더욱 굳어질 수밖에 없다.
해답은 사람과 AI의 ‘공존’
그렇다고 AI를 학교에서 완전히 배제할 순 없다. 연구팀은 ChatGPT 같은 AI가 교사와 교감을 보조해 학생의 상황을 빠르게 파악하고, 반복적인 서류 작업을 줄여줄 수 있다고 본다. 하지만 AI가 주는 정보는 어디까지나 참고용이어야 한다. 최종 결정은 사람의 몫이라는 뜻이다.
또한 AI를 도입한다면 학교는 AI가 어떤 원리로 답을 내놓는지, 그 과정에 어떤 데이터가 쓰였는지 투명하게 공개해야 한다. 무엇보다 AI가 편견을 줄 수 있음을 인식하고, 꾸준한 점검과 감시가 필요하다.
교실 속 AI, ‘공정’을 배우다
AI가 학교에 들어오면 교실은 어떻게 달라질까. 학생들은 AI를 통해 상담을 받기도 하고, 문제행동이 사전에 감지돼 더 큰 사고를 막을 수도 있다. 하지만 그 뒤엔 언제나 ‘사람’이 있어야 한다. AI는 도구일 뿐, 교육은 결국 사람이 하는 일이다.
학교 복도에서 ChatGPT와 함께 걸어야 한다면, 우리가 배워야 할 첫 번째 교훈은 ‘공정함’일지도 모른다.
출처 논문
Kush, J.C. Leveraging ChatGPT in K-12 School Discipline: Potential Applications and Ethical Considerations. AI 2025, 6, 139. https://doi.org/10.3390/ai6070139