인공지능 람다와 대화 공개한
구글 개발자 징계, 정직 처분
사람 고유의 특성으로 여겨온
‘지각하는 존재 생각하는 동물’
언어모델 발달로 인공지능도 모방
구글 개발자 징계, 정직 처분
사람 고유의 특성으로 여겨온
‘지각하는 존재 생각하는 동물’
언어모델 발달로 인공지능도 모방
지난 11일 구글의 수석엔지니어 르모인은 대화형 인공지능 ‘람다’가 인간의 감정을 읽고 대화하는 지각 능력을 갖췄다고 공개했다. 연합뉴스
하버드대 인지과학자인 스티븐 핑커는 “지각과 지능 , 자기 인식의 차이점을 혼동했으며 , 언어학습 모델이 이중 하나라도 갖췄다는 증거가 없다 ”고 말 했다 .
_______ “인공지능의 진짜 문제 초점 흐릴 뿐”르모인의 주장은 해프닝으로 귀결됐지만 향후 대화형 인공지능으로 인해 생겨날 사회적 문제를 드러냈다. 지난 14일 미국의 정보기술 전문지 <와이어드>는 2017년 미래학자인 데이비드 브린이 예고한 ‘로봇 공감 위기’의 사례라고 보도했다.
브린은 당시 2022년께가 되면 “사람들은 인공지능이 지각 능력과 권리를 갖고 있다고 주장할 것”이라고 예측했다. 그는 “인간의 공감 반응을 극대화하기 위해 여성이나 아이의 모습을 한 가상 에이전트를 통해 촉발될 것”이라고 예측했지만 실제는 ‘구글 엔지니어’에 의해 제기된 게 차이다.
르모인의 사례는 1966년 미국에서 논쟁을 부른 심리상담 소프트웨어 ‘일라이자’ 소동을 연상시킨다. 매사추세츠공대의 컴퓨터공학 교수인 요제프 바이첸바움은 질문한 상담자와 대화하며 긍정적 피드백을 제공하는 자동응답 심리상담 프로그램 일라이자를 개발했다.
바이첸바움은 일라이자에 너무 많은 사람이 쉽게 빠져들어 진지한 관계를 맺는 것에 충격을 받았다. 그는 기계가 인간을 기만하는 상황을 고민하고 정보기술의 비판자로 돌아섰다.반면 당시 실험을 지켜보던 사회심리학자로 <외로워지는 사람들>의 저자인 셰리 터클은 “ 문제는 로봇이 아니라 사람의 태도”라고 대조적 주장을 했다. 일라이자 현상의 문제는 기계가 사람을 속여서가 아니라 다른 사람과 이야기하기를 꺼리고 통제가능한 대상을 선호하는 사람의 문제라는 것이다.
브린도 ‘지각하는 로봇’의 개발은 결국 사기꾼들이 이를 이용해 다른 사람을 속이는 문제로 귀결될 것이라고 우려했다. 사람처럼 공감 능력을 표시하는 로봇과 인공지능은 경쟁이 뜨거운 영역으로, 람다같은 모델이 계속 개발되고 있다.
팀닛 게브루는 구글의 인공지능 윤리그룹 리더였으나 앵무새처럼 노출된 데이터를 기반으로 반복학습하는 람다와 같은 거대 언어모델의 위험성을 경고하다 2020년 구글에서 해고됐다. 해고 뒤 비영리 인공지능윤리연구소(DAIR)를 설립한 게브루는 <와이어드>와의 인터뷰에서 “르모인은 인공지능 과대광고의 희생양”이라며 ‘지각있는 인공지능’은 문제의 초점을 흐릴 뿐이라고 지적했다. 이는 인공지능 식민주의나 빅테크 경영진만을 부자로 만드는 라벨붙이기 노동, 차별적인 이미지 인식과 같은 실질적이고 현존하는 인공지능의 문제들에 대한 관심을 희석시키는 역할을 하기 때문이라는 게 게브루의 주장이다.구본권 사람과디지털연구소장 starry9@hani.co.kr
순다 피차이 구글 최고경영자가 2021년 5월19일 미국 마운틴뷰 구글 본사에서 열린 연례 개발자행사 ‘구글 I/O 2021’에서 대화형 인공지능 ‘람다’를 공개했다. 구글 제공
'*미래(앞나래) > 에이아이(AI)' 카테고리의 다른 글
인공지능, 거버넌스 구축 중요…금융분야 목표는 맞춤서비스 (0) | 2023.09.13 |
---|---|
CNN의 우려_영원히 늙지 않는 22살 ‘가상인간’ 로지의 그늘 (0) | 2022.08.02 |
‘죽음’이 두렵다는 AI 람다 (0) | 2022.06.28 |
구글 AI가 '살아 있지 않은' 이유 (0) | 2022.06.28 |
구글 AI 챗봇 ‘LaMDA’의 지각력 문제 (0) | 2022.06.28 |