CNN 보도에 따르면, 인공지능 챗봇 챗GPT(ChatGPT)의 운영사 오픈AI(OpenAI)는 최근 제기된 청소년 자살 연루 의혹과 안전 우려에 대응해 내달 중 ‘부모 통제 기능(Parental Controls)’을 출시한다고 9월 2일 밝혔다.
새롭게 도입될 기능에는 ▲부모 계정과 자녀 계정 연동 ▲챗GPT의 응답 방식 제한 ▲메모리·대화 기록 기능 비활성화 ▲위기 상황 감지 시 부모 알림 등이 포함된다. 특히 시스템이 “급성 스트레스 신호”를 포착할 경우, 안전 지침을 더 일관되게 따르는 ‘추론 모델(reasoning model)’로 대화를 전환할 수 있도록 할 계획이다.
이번 발표는 지난해와 올해 잇따른 소송과 사회적 논란 속에서 나왔다. 지난해 플로리다주 한 어머니는 챗봇 플랫폼이 아들의 자살에 영향을 미쳤다며 제소했고, 최근에도 16세 청소년이 챗GPT 대화 이후 극단적 선택을 했다는 유가족의 소송이 제기됐다.
오픈AI는 이미 위기 상황에서 위기 상담 전화 안내 등 기본적인 안전장치를 두고 있었으나, 장시간 대화에서는 안전 필터가 약화될 수 있다는 점을 인정하며 “전문가와 협력해 지속적으로 개선하겠다”고 밝혔다.
또한 오픈AI는 청소년 발달, 정신 건강, 인간-컴퓨터 상호작용 분야 전문가 자문단과 협력해 장기적 안전 대책을 마련하고 있으며, 향후 120일 안에 추가 안전 기능을 단계적으로 공개할 예정이다.
현재 챗GPT는 전 세계에서 주 7억 명 이상이 사용하는 대표적인 AI 서비스로, 미국 의회와 시민단체들로부터 “청소년 보호 조치가 미흡하다”는 압박을 받고 있다. 오픈AI는 “이번 조치는 시작일 뿐이며, 올해 안에 최대한 많은 개선책을 내놓을 것”이라고 강조했다.