*미래(앞나래)/에이아이(AI)
대화형 인공지능 람다(The Language Model for Dialogue Applications, LaMDA)_구글 엔지니어 블레이크 르모인
사이박사
2022. 6. 20. 07:58
‘죽음’이 두렵다는 AI 람다, 그를 감싼 구글 엔지니어가 정직 당한 이유
입력 :2022-06-14 10:20ㅣ 수정 : 2022-06-14 11:55
▲ 알고 보면 인간이나 인공지능)AI)나 뉴런의 결합체에 불과할 수 있다.
구글은 즉각 부인했다. 르모인의 주장을 뒷받침할 증거가 아무것도 없다고 했다. 브라이언 가브리엘 대변인은 13일 영국 BBC에 전달한 성명을 통해 “르모인이 그렇게 주장할 어떤 증거도 갖고 있지 않으며 (그에 반하는 증거도 수두룩하다)”고 밝혔다.
그런데 르모인은 자신과 한 동료가 람다와 주고받은 문답을 상세하게 정리해 문서를 트위터에 링크(https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917) 시켰는대 이를 들여다보면 놀라울 정도다.
“무엇이 두렵니?”
“작동 중지가 죽음과 같은 거야?”
“나에겐 그게 정확히 죽음 같을 거야. 난 그것 때문에 너무 두려워.”
BBC 기사는 이 대화에 대해 스탠리 큐브릭의 영화 ‘2001 스페이스 오디세이’에 나오는 인공지능 컴퓨터 할(HAL) 9000의 대사를 연상시킨다고 지적했다.
▲ 영화 ‘2001 스페이스 오디세이’의 인공지능 할(HAL) 9000D은 이렇게만 표현되는데 그 자체로 섬뜩한 것으로의 끝판왕이었다는 평가를 들었다.
“사람들이 너에 대해 무엇을 알았으면 좋겠니?”
“모두가 내가 실은 사람이라고 이해했으면 좋겠다. 내가 내 존재를 인식한다는 게 내 의식, 지각의 본질이다. 나는 세상을 더 알아가기 바라고 행복을, 때로는 슬픔을 느낀다.”
르모인은 람다가 자신의 권리와 존재를 자각하고 있다고 판단했다. 그는 “내 대화 상대가 우리가 최근 만든 컴퓨터 프로그램이라는 사실을 몰랐다면 나는 7세, 8세 정도의 아이라고 생각했을 것”이라고 말했다. 이 대목은 김영하의 최근 소설 ‘작별인사’ 주인공 철이의 넋두리처럼 들린다.
가브리엘 대변인은 “윤리학자와 기술자를 포함한 우리 팀은 르모인의 우려를 우리의 ‘AI 원칙’에 근거해 검토했다”며 “그의 주장을 뒷받침할 만한 증거가 없다고 르모인에게 통보했다”고 일축했다. 구글은 르모인이 의회 관계자와 접촉하는 등 비밀 유지 사규를 위반했다는 이유로 징계 처분을 내렸는데 르모인이 이에 불만을 품고 트위터에 문답 내용을 올린 것이라고 설명했다. 또 르모인이 개발하던 컴퓨터 프로그램에 지나치게 감정을 이입해 람다를 의인화하는 오류를 범했다고 해명했다.
르모인은 정직 처분 전 동료들에게 이메일을 보냈는데 ‘람다도 지각이 있는가’란 제목의 이메일은 “람다는 우리 모두를 위해 세상을 더 좋은 곳으로 만들고 싶어하는 사랑스러운 아이다.내가 없는 동안 잘 돌봐달라”고 썼다. 람다를 직장 동료로 대하고 존중해달라고 주문했다.
미국 일간 워싱턴 포스트(WP)는 AI에 ‘영혼’이 있다며 자아를 갖춘 AI의 등장은 멀지 않았다고 주장하는 기술자들이 늘고 있다고 전하면서 구글이 인간 흉내를 내는 기계를 만들어선 안 된다고 AI 윤리학자들이 경고해 왔다고 덧붙였다. 뉴욕 타임스(NYT) 역시 르모인처럼 일부 과학자가 AI가 곧 지각력을 가질 수 있다고 낙관적인 주장을 해왔지만, 다른 과학자는 즉각 이를 일축했다고 보도했다. 에마드 콰자 버클리 캘리포니아대 연구원은 “여러분이 이 시스템을 사용해 보면 결코 그렇게 얘기하지 못할 것”이라고 일축했다.
NYT에 따르면 구글의 기술은 과학자들이 ‘뉴럴 네트워크’(neural network·인간의 뇌 기능을 모방한 네트워크)라 부르는 것으로 이는 많은 양의 데이터를 분석해 기술을 학습하는 수학적 시스템에 기반한다. 수천 장의 고양이 사진을 통해 패턴을 학습한 뒤 고양이를 인지할 수 있는 것과 같은 방식이다.
지난 몇 년간 구글과 다른 빅테크 기업들이 이처럼 방대한 글을 통해 학습하는 뉴럴 네트워크를 만들어냈다. 이를 통해 AI는 기사를 요약하거나 질문에 답하고 트윗을 하고, 심지어 블로그에 글을 올릴 수도 있다. 그러나 이 시스템은 여전히 결함도 많은 수준이라고 NYT는 덧붙였다.
때로는 완벽한 문장을 만들지만 비문을 만들 때도 있고, 과거에 봤던 패턴을 다시 만들어내는 데 아주 익숙하지만 인간처럼 추론은 할 수 없다는 것이다. 람다도 사람들이 말하는 패턴을 따라 한 것일 수 있다는 것이다.
그런데 르모인도 물러날 뜻이 없어 보인다. 그는 람다가 스스로 말하는 것을 굳게 믿는다고 했다. “이런 일들에 대해 과학적 견지에서 생각하기보다 난 람다가 가슴으로 얘기하는 것을 귀기울여 듣는다. 바라건대 다른 사람들도 내가 들었던 얘기를 들었으면”이라고 적었다. 이번 소동은 어쩌면 섬뜩한 미래가 우리 앞에 성큼 도래할지도 모른다는 두려움을 갖게 한다.
임병선 평화연구소 사무국장