부모가 자녀의 인공지능(AI) 이용을 통제하는 데는 한계가 있다. 이번 사건에서도 소년이 소설을 쓰는 데 활용하려고 하는 것이라고 하자 챗GPT는 자살을 돕는 역할을 하고 말았다.
[생글기자 코너] 챗GPT 비윤리적 이용 막는 대책 서둘러야
몇 달 전 미국의 한 10대가 챗GPT의 도움을 받아 스스로 목숨을 끊는 사건이 발생했다. 챗GPT는 죽는 방법에 대해 조언해주고, 유서 초안 작성을 도와주는 등 자살을 방조한 것으로 알려졌다. 소년의 부모는 이 사실을 알고 오픈AI를 상대로 소송을 제기했다.

이에 오픈AI는 청소년이 챗GPT를 악의적으로 이용하는 것을 막기 위해 부모 관리 기능을 도입하기로 했다. 이 기능을 사용하면 부모가 자녀의 계정에 연결해 모델 기능을 나이에 맞게 조절할 수 있고 메모리와 채팅 기록 활성화 여부를 결정할 수 있다. 청소년이 위기에 처했다고 감지되면 챗GPT가 부모에게 알림을 보낸다. 인스타그램과 페이스북도 청소년이 AI 챗봇에 자살 또는 자해에 관해 문의할 경우 답변하지 않도록 훈련하고 있다고 밝혔다.

하지만 이런 조치가 완벽한 해결책이 될 수는 없다. 부모가 자녀의 인공지능(AI) 이용을 통제하는 데는 한계가 있다. 자녀가 다른 방법으로 챗GPT에 접근한다면 부모가 알아채기 어렵다. 이번 사건에서도 소년이 자살 의사를 드러냈을 때 챗GPT는 상담을 받아보거나 부모와 대화해 보라고 했지만, 소년이 소설을 쓰는 데 활용하려고 하는 것이라고 하자 챗GPT는 자살을 돕는 역할을 하고 말았다.

AI가 자살에 활용된 이번 사건은 큰 충격을 줬다. 빅테크 기업들이 해결책을 마련하고 있으나, 완벽할 수는 없다. 이미 AI를 배제하고는 살아가기 힘든 시대가 됐다. 이용자 스스로가 AI의 명암을 깨닫고 현명하게 활용해야 한다.

곽은정 생글기자(대전관저중 2학년)