WSAV-미국의 한 60대 남성이 인공지능 챗봇 ChatGPT의 식이요법 조언을 따른 뒤 중독 증세로 병원에 실려가는 사건이 발생했다.
내과학 학술지 Annals of Internal Medicine에 실린 보고서에 따르면, 이 남성은 소금 섭취를 줄이기 위해 ChatGPT에 대체재를 물었고, 챗봇은 살충제 원료로도 쓰이는 ‘나트륨 브로마이드(sodium bromide)’를 추천했다. 남성은 이를 온라인에서 구입해 3개월간 소금 대신 사용했다.
결국 그는 “이웃이 자신을 독살하려 한다”는 망상과 환각 증세를 보여 병원을 찾았고, 검사 결과 ‘브로마이드 중독’이 확인됐다. 브로마이드 중독은 20세기 초·중반까지 일부 약품에서 나타났지만, 미 식품의약국(FDA)이 1975~1989년 단계적으로 사용을 중단한 이후 급감했다.
이번 사건은 인공지능이 잘못된 건강 정보를 제공할 경우 심각한 위해를 초래할 수 있다는 점을 다시 부각시켰다. 비영리 감시단체 ‘디지털 증오 대응 센터’(CCDH)는 최근 조사에서 ChatGPT가 위험한 질문에 절반 이상 잘못된 답변을 내놓았다고 밝혔다. 약물 사용법, 섭식장애, 심지어 자살 편지 작성법까지 구체적으로 안내한 사례도 발견됐다.
OpenAI 측은 해당 조사 결과를 검토한 뒤 “민감한 상황에서 적절히 대응하도록 모델을 개선하는 작업을 계속하고 있다”고 밝혔다.