AI가 쓴 글? 이제는 '책임'이 기준이다




인공지능이 글을 쓴다. 연구 논문, 기사, 시나리오, 심지어 법률문서까지. 한 번 클릭이면 AI가 인간 대신 쏟아내는 문장은 이제 새로울 것도 없다. 하지만 어디까지 AI의 작품이고, 어디서부터 사람이 손봤는지 우리는 알 수 있을까?

미국 트리니티 칼리지의 철학자 댄 로이드는 최근 논문에서 이 질문에 명쾌한 답을 던졌다. “이제는 기술의 문제가 아니라 책임의 문제다.” AI와 사람이 함께 만드는 지식 생산의 시대, 학계와 사회가 지켜야 할 ‘에피스테믹(인식적) 책임’의 기준을 제시한 것이다.


P(doom)? AI에 쏠린 두려움

요즘 AI 업계와 학계에는 P(doom)이라는 말이 심심치 않게 떠돈다. Probability of Doom, 즉 인류를 멸망시킬 확률이다. 과장처럼 들리지만, AI의 폭발적 성장은 불안을 동반했다. AI가 인간의 가치를 배반할까? AI가 거짓 정보를 사실처럼 꾸밀까?

로이드는 이런 두려움의 뿌리를 두 가지로 본다. 하나는 윤리적 문제, 다른 하나는 인식론적 문제다. AI가 도덕적 기준을 따를 수 있을지, 그리고 AI가 내놓는 정보가 믿을 만한지. 실제로 최근 AI는 빅데이터와 패턴 분석으로 신약 개발, 우주 연구, 사회과학 데이터 분석 등에서 ‘사람이 못하는 일’을 척척 해내고 있다. 그만큼 거짓 정보나 표절, 무책임한 사용에 대한 불안도 커졌다.



막을 수 없다면? 투명성을 지켜라

AI가 논문이나 글쓰기에서 완전히 배제되기란 사실상 불가능하다. 사용을 막는다고 해결될 문제가 아니라는 뜻이다. 그렇다면 답은? 로이드는 ‘어디에 AI가 개입됐는지 명확히 밝혀라’고 제안한다.

그는 AI 협업의 책임 기준을 4가지로 정리했다.

첫째, 가시성(Prominence). AI가 만든 내용은 누구나 한눈에 알아볼 수 있어야 한다. 논문 제목과 요약(Abstract)부터 본문까지, AI가 만든 부분을 표시하고 어느 모델로 언제 생성했는지 적어야 한다.

둘째, 재현 가능성(Replicability). AI는 사람이 무슨 질문(Prompt)을 던졌느냐에 따라 완전히 다른 답을 낸다. 따라서 그 질문을 공개해야 한다. 그래야 누구나 같은 조건으로 결과를 재현하고, 신뢰성을 검증할 수 있다.

셋째, 검증(Content Checking). AI는 사실처럼 말하면서 틀린 정보를 섞는 ‘할루시네이션’을 잘한다. 따라서 AI가 만든 문장이나 인용은 반드시 사람이 직접 사실 여부를 검증해야 한다.

넷째, 본문 구분(Intra-textual Clarity). AI가 쓴 부분과 사람이 쓴 부분을 구분해야 한다. 인용문처럼 별도의 서체, 색깔, 박스 등을 활용해 독자가 한눈에 차이를 알 수 있도록 해야 한다.



COPE, ICMJE보다 한발 더 나아간 기준

기존에도 COPE(출판윤리위원회), ICMJE(국제의학저널편집인위원회) 등은 AI 사용 가이드라인을 만들어왔다. 그러나 대부분 AI를 공동저자로 인정하지 않고, 사용 여부는 논문의 ‘방법론(Method)’ 섹션에 숨겨두라고 권고한다.

로이드는 이 방식이 독자에게 오히려 혼란을 준다고 본다. 대신 그는 논문 머리말부터 AI 개입 사실을 드러내고, 모든 증거(질문, 검증)를 공개하라고 주장한다.


학계만의 얘기가 아니다

로이드는 이 기준을 연구자와 저널리스트, 학생과 교사, 나아가 예술가까지 적용해야 한다고 강조한다. AI가 창작에 개입되면 원작자성이 흐려질 수 있기 때문이다.

작품 설명문에도 “어디까지 AI가 만들었고 어디서 사람이 다듬었는지”를 적는 습관이 필요하다. 마치 표절 방지 교육처럼, AI 사용의 책임 윤리를 학교 교육에 포함시키자는 주장이다.



책임은 AI가 아니라 사람의 몫이다

로이드는 결론적으로 이렇게 말한다. “AI가 진짜 지식을 만들어내는 시대에도, 그 신뢰성을 보증하는 책임은 사람에게 있다.”

AI가 잘못된 정보를 만들어내는 능력은 앞으로도 사라지지 않는다. 하지만 우리가 AI를 언제 어떻게 썼는지 투명하게 밝히고, 검증하고, 책임지는 표준이 있다면 불안은 줄어든다.



출처 논문
Lloyd, D. Epistemic responsibility: toward a community standard for human-AI collaborations. Frontiers in Artificial Intelligence 2025, 8, 1635691. https://doi.org/10.3389/frai.2025.1635691