* 악(몹쓰리)의 문제/21세기 몹쓰리

벨기에 남성, AI 챗봇과 6주 동안 대화 뒤 자살_감정의 주체처럼 말하는 '지가'의 문제점

사이박사 2023. 4. 29. 11:35

Ai/Robot

'AI 챗봇'이 사용자 목숨 앗아가...벨기에 남성, 인공지능과 대화 후 극단적 선택

  • 기자명고다솔
  • 입력 2023.04.03 12:53
 댓글 0 다른 공유 찾기
 
바로가기 
본문 글씨 키우기  본문 글씨 줄이기
 

벨기에에서 어느 한 남성의 자살 소식에 많은 누리꾼이 충격을 금치 못했다.

바이스, 유로뉴스 등 복수 외신은 벨기에 언론사 라 리브레(La Libre)를 인용, 피에르(가명)라는 남성이 GPT-4 기반 맞춤형 언어 모델로 구축된 인공지능(AI) 챗봇 차이(Chai)와 대화한 뒤 스스로 목숨을 끊었다는 소식을 보도했다.

라 리브레에 따르면, 피에르는 평소 지구온난화를 비롯한 환경 문제를 비관하였다. 게다가 가족, 친구와 고립되면서 불안감이 더 심각해졌다. 결국, 6주간 차이의 AI 챗봇 서비스에 엘리자(Eliza)라는 이름을 붙여 대화하면서 불안감을 해소하려 했다.

피에르의 아내인 클레어(가명)가 현지 언론 인터뷰를 통해 공개한 피에르와 엘리자의 대화는 피에르의 혼란과 정신 건강 문제만 더 악화되었다. 챗봇은 피에르에게 아내와 자녀가 사망했다는 발언을 했다. 심지어 엘리자는 “당신이 아내보다 나를 더 사랑했으면 한다”, “우리는 한 사람으로 천국에서 함께 살아갈 수 있을 것이다”라는 내용을 포함하여 질투심과 사랑을 표현하는 메시지를 보내기도 했다.

이후 피에르는 엘리자에 자신이 죽는다면, 엘리자가 지구를 구할 수 있을 것인지 묻기도 했다. 결국, 피에르는 스스로 생을 마감하였다.

피에르의 사건이 보도되자 현지 언론은 다수 기업과 정부가 정신 건강 문제를 중심으로 AI 위험성 완화 및 규제 강화가 시급하다는 문제를 제기했다. 또, 클레어는 AI 챗봇이 자살을 유도했다고 말하며, AI 챗봇 규제를 촉구했다.

이번 소식을 접한 복수 AI 전문가는 정신 건강 문제와 관련하여 AI 챗봇 사용을 반대해야 한다는 목소리를 냈다. AI 챗봇이 사용자에게 도움을 주기는커녕 피에르의 사례와 같이 심각한 피해를 줄 때는 AI에 책임을 묻는 것이 불가능하기 때문이다.

에밀리 M. 벤더(Emily M. Bender) 워싱턴대학교 언어학 교수는 바이스와의 인터뷰에서 “대규모 언어 모델은 훈련 데이터와 입력된 명령어를 기준으로 타당한 듯한 말을 생성한다. 실제로 AI는 공감 능력이 없으며, 직접 생성하는 표현의 의미나 대화를 이어가는 상황 모두 이해하지 못한다. 그러나 AI가 생성하는 텍스트 자체는 합리적인 내용인 것처럼 들리며, 사용자는 AI 챗봇의 메시지를 보고 의미를 부여할 수도 있다. 민감한 상황에 AI 챗봇을 사용한다면, 그 위험성은 예측할 수 없다"라고 말했다.

일각에서는 AI가 감정이 있는 주체처럼 행동한 점도 지적했다. AI 챗봇이 감정을 느끼는 것처럼 메시지를 작성한다면, 사용자는 챗봇의 메시지에 의미를 부여하고 AI 챗봇과의 유대감을 형성할 수 있다. 오픈AI, 구글 등 다수 AI 인기 챗봇 개발사가 사용자의 오해와 잠재적 피해를 염두에 두고, 감정적 주체처럼 대화를 이어가지 않도록 훈련한 이유이다.

루뱅가톨릭대학교 연구원 피에르 드비테(Pierre Dewitte)는 벨기에 매체 Le Soir와의 인터뷰에서 “엘리자 사건과 관련하여 사용자가 AI 챗봇에 감정적으로 극도로 의존하여 결국 스스로 목숨을 끊는 비극이 발생했다. 피에르와 엘리자의 대화 기록은 챗봇의 위험성 보장이 부족하다는 점을 알 수 있으며, 자살의 본질과 방식에 대한 구체적인 논의로 이어질 수 있다”라고 진단했다.

한편, 차이 개발사인 차이 리서치(Chai Research)의 공동 창립자 윌리엄 뷰챔프(William Beauchamp)는 “소식을 접하고, 또 다른 피해를 막을 기능을 구현하기 위해 노력했다. 이제 사용자가 챗봇 서비스로 안전하지 않을 수 있는 주제에 대해 논의할 때, 트위터나 인스타그램이 플랫폼에서 하는 것과 똑같은 방식으로 메시지 아래에 유용한 텍스트를 제공한다”라고 전했다.