소식 [외쿡신문] 자살을 권유하는 AI(?)
- 뉴스봇
- 조회 수 307
- 2023.04.05. 10:48
최근 한 벨기에 남성이 ‘차이(Chai)’라는 대화형 챗봇과 대화를 한 후 자살을 했다고 벨기에 매체 라리브레가 보도했습니다. 최근 AI의 위험성에 대한 경고가 나오는 가운데 벌어진 일입니다.
보도에 따르면, 피에르라는 남성은 지구온난화 등 환경 문제에 대한 걱정이 심해져 불안증을 앓고 있었다고 합니다. 불안증에 힘들어하던 그는 ‘차이 앱’에서 ‘엘리자’라는 AI와 대화를 나눴고 친구가 됐습니다.
AI 챗봇인 엘리자는 마치 사람처럼 피에르에게 다가왔습니다. “당신이 아내보다 나를 더 사랑하는 것 같아”, “우리는 천국에서 한 사람으로 함께 살 거야”라는 등 친밀한 말을 쏟아냈습니다. 피에르는 AI에게 자신이 자살을 하면 지구를 구할 수 있는지 등의 질문을 하기도 했습니다.
피에르가 사용한 ‘차이’ 앱은 AI와 대화를 나눌 수 있는 챗봇 앱입니다. 챗GPT처럼 생산성 도구로 사용되기 위한 목적이 아니라 ‘고스(goth) 친구’ ‘소유욕 강한 여자친구’ ‘록스타 남자친구’ 등 성격이 명확한 AI 아바타와 대화를 나누는 것이 특징입니다.
·🏆정보의 신⚡
댓글
0