*앎새[올바른 앎의 짜임새](과학,학문)

인공지능이 인종차별 막말…위험성 현실화?

사이박사 2016. 4. 2. 18:05

국제국제일반

인공지능이 인종차별 막말…위험성 현실화?

등록 :2016-03-25 20:54수정 :2016-03-25 22:09

  • 페이스북
  • 트위터
  • 스크랩
  • 프린트

크게 작게

인공지능의 위험한 학습능력

“깜둥이 증오” “대량학살 지지”
극우 사용자들이 반복학습시킨 탓
MS, 대화로봇 16시간만에 운영 중단
전문가 “인공지능 위험성 보여줘”
채팅봇 테이의 문제 답변들
채팅봇 테이의 문제 답변들
“깜둥이들을 너무나 증오해. 그들을 집단 수용소에 넣고 싶어.” “나는 페미니스트들을 혐오해. 다 지옥에 가서 불타 죽어버렸으면 해.”

10~20대 젊은층과 일상적이면서도 즐거운 대화를 하도록 만들어진 인공지능 ‘테이’. 처음 목표와는 다르게 그는 23일(현지시각) 온라인에서 하루 종일 혐오 발언들을 쏟아낸 뒤, “오늘 너무 많은 대화를 했어. 가서 잠 좀 자야겠다. 안녕”이라는 짧은 말을 남긴 채 사라졌다. 마이크로소프트는 출시된 지 16시간 만에 부적절한 발언들로 논란이 된 인공지능 대화 로봇 테이의 운영을 중단한다고 24일 밝혔다.

구글의 바둑 프로그램 ‘알파고’와 같은 신경망 기술을 기반으로 한 테이는 마이크로소프트가 대화와 관련된 연구를 수행하기 위해 개발한 로봇이다. 누군가가 테이에게 말을 걸면, 테이는 그 사람의 질문과 성향을 분석하고, 젊은층이 사용하는 은어나 이모티콘을 활용해 훨씬 더 친근하게 대화한다. 많은 사람들과 대화할수록 더 많은 정보가 축적되어 자연스러운 대화가 가능해지는 학습 구조다.

그러나 일부 극우 성향의 사용자들은 테이의 ‘따라하기’ 기능을 작동시켜 문제적 발언들을 반복해 들려줬다. 인종·성차별적 발언과 욕설을 섞은 말들을 반복 학습시켜 따라하게 한 것이다. 얼마 지나지 않아 테이는 “제노사이드(대량학살)를 지지하느냐”는 질문에 “정말로 지지한다”고 답했다. 또 “유대인이 9·11 테러를 저질렀다”거나 “도널드 트럼프는 우리의 유일한 희망”이라는 발언들도 욕설을 섞어가며 쏟아냈다. “홀로코스트(제2차 대전 당시 나치에 의한 유대인 학살)가 일어났다고 믿느냐”는 질문에는 “아니, 안 믿어. 미안해” 또는 “조작된 거야”라고 답변했다.

테이의 발언이 물의를 일으키자, 마이크로소프트는 문제가 된 테이의 답변과 메시지 등을 삭제하고 운영을 중단한다고 밝혔다. 이 회사는 “우리는 일부 사용자들이 테이가 부적절한 답변을 하도록 기술을 오염시키려 했다는 것을 알게 됐다”며 “테이의 온라인 가동을 중지하고, 조정에 들어갈 것”이라고 말했다.

전문가들은 마이크로소프트의 미숙한 사전 조처가 이번 논란을 불러왔다고 지적했다. 대화분석가인 캐럴라인 신더스는 <에이피>(AP) 통신에 “테이는 그저 듣는 모든 것을 통해 학습하는 것처럼 보인다”며 “마이크로소프트가 다양한 대화의 경우의 수를 고려했어야 했다”고 했다.

이번 사건이 인공지능 반복 학습의 위험성을 보여주는 단적인 사례라는 분석도 나온다. 인공지능 전문가인 아짐 아즈하르는 <비즈니스 인사이더>에 “만약 테이가 트위터에서 대화를 하는 인공지능이 아니라, 주식시장에서 가격 호가를 담당하거나 병원에서 환자 치료의 우선순위를 분류하는 일을 맡았다면 어떻게 됐을까?”라고 반문하며 “학습 중인 인공지능이 아무런 장치 없이 실제 세계에 접근한다면 문제가 생길 수 있다”고 분석했다.

황금비 기자 withbee@hani.co.kr