컨텐츠 바로가기[Skip to contents]
HOME > Magazine > 스페셜 > 스페셜1
영화 속 인공지능에 대한 5문5답
2001-08-17

미래의 친구들을 만나보실래요?

A 도대체 왜 로봇들은 사람이 되려고 하는 걸까요? SF를 보면 사람이 되려고 발버둥치는 로봇들로 가득하잖아요. 이번에 나온 <A.I.> 도 예외는 아니지요.

B 그건 서구 기독교문화의 유물이라고 할 수 있죠. 자, 기독교문화권에서 영혼이라는 것을 가지고 불멸할 가능성이 있는 존재들은 인간뿐입니다. 동물들은 털 달린 기계에 불과해요. 요정이나 인어와 같은 초자연적인 존재들도 그 정도 해택은 못 받지요. 따라서 인간보다 능력이 많고 또 인간보다 훨씬 오래 사는 이런 초자연적인 존재들이 우리와 같은 미약한 인간이 되려고 하는 것도 논리적으로는 이상하지 않습니다. 인간이 되는 건 영혼을 얻을 수 있는 유일한 방법이고, 영혼을 얻는 것은 영생할 수 있는 유일한 길인걸요.

A 물론 우리는 진짜 소년이 되고 싶어하는 로봇 이야기가 <피노키오>에서 나왔다는 것을 잊어서는 안 됩니다. <피노키오>는 로봇 이야기의 선조이기는 하지만 진짜 로봇 이야기는 아니고 당연히 옛 시대의 동화적 아이디어를 잔뜩 지니고 있지요.

그러나 그뒤에 나오는 로봇들 이야기를 보면 특별히 <피노키오>보다 나은 것 같지도 않아요. 대표적인 예로 아이작 아시모프가 미국 독립 200주년을 기념으로 해서 쓴 중편을 영화화한 <바이센테니얼 맨>을 보세요. 그 영화에서 로빈 윌리엄스가 연기한 로봇 앤드루 마틴이 하는 행동은 도가 좀 지나칩니다. 인간들한테 인정받고 싶어하는 갈망까지는 좋아요. 로봇이라고 자존심이 없으라는 법이 있나요. 하지만 죽음을 무릅쓰면서까지 인간이 될 필요가 있는 건가요?

B 영화에는 작은 아씨의 손녀에 대한 로맨틱한 사랑을 이유로 달았지요. 비평가들은 감상적이라고 비난했지만, 저한테는 오히려 원작보다 더 논리가 맞는 것 같아요. 영화 속의 앤드루는 작은 아씨가 자기를 사랑했다는 것을 알고 사랑하지 않는 사람과 결혼해서 불행한 결혼 생활을 했다는 걸 알았잖아요. 그렇다면 포샤가 작은 아씨와 똑같은 선택을 하는 걸 막는 게 로봇공학 제1원칙에 맞는 일이죠. 포샤를 행복하게 해주기 위해서는 인간과 닮아가는 것, 로맨틱하고 성적인 반응으로 보답하는 것도 당연한 귀결이고요. 마지막 결말도 그런 식으로 해석할 수 있지 않을까 싶어요. 로맨틱한 사랑 자체는 비논리적이지만 논리 전개를 위해 전제의 비논리성을 꼭 따져야 할 필요는 없으니까요.

A 그런 식으로 본다면 <A.I.> 의 데이빗도 앤드루 마틴과 비슷한 동기를 지니고 있다고 할 수 있겠네요? 데이빗은 그냥 무작정 인간이 되려는 것이 아닙니다. 진짜 소년이 되어서 어머니 모니카의 사랑을 받는 것이 목표지요.

B 여기서 우린 데이빗이 왜 그렇게 모니카의 사랑을 받기 위해 필사적인지 물어볼 수밖에 없습니다. 이유는 영화에 나오죠. 데이빗은 사랑하고 사랑받게 프로그래밍되었습니다. 모니카가 불러주는 일곱개의 패스워드를 통해 데이빗의 두뇌 속에 있던 감정이 활성화되었던 것이죠. 한마디로 데이빗의 감정은 인공적인 기성품입니다.

이런 면에서 데이빗의 이야기는 <터미네이터2>나 <아이언 자이언트>처럼 로봇들이 ‘인간성’을 배워가는 영화들과 다릅니다. 데이빗의 감정은 처음부터 ‘거기에 있습니다’.

우리는 ‘인공적’이라는 말을 ‘자연적인 것보다 나쁜 것’이라는 뜻으로 해석하는 데 익숙합니다. 하지만 꼭 그래야 할 필요는 없지요. 우리가 이처럼 편한 문명생활을 누릴 수 있는 것도 우리가 자연적인 것보다 더 좋은 인공물들을 만들어냈기 때문입니다. 우리가 자연적인 것보다 더 좋은 인공적인 물건들을 만들어낼 수 있다면 자연적인 것보다 더 좋은 인공적인 감정을 만들어내지 말라는 법이 있습니까?

이 역시 <A.I.> 의 중요한 주제입니다. 인공물과 자연물, 가짜와 진짜 사이의 경계에 대한 의문을 제기하는 것이죠. 원작이 된 브라이언 올디스의 <Super-Toys Last All Summer Long>에 나오는 데이빗과 테디 사이의 대화를 한번 들어보세요.

“테디, 내가 무슨 생각을 하고 있었는지 알아? 어떻게 ‘진짜’와 ‘가짜’를 구별하지?” 컴퓨터 곰인형은 주어진 한 쌍의 개념을 속으로 헤아렸다. “진짜는 좋은 거야”

“그럼 시간은 좋은 걸까. 엄마는 그다지 시간을 좋아하는 것 같지 않아. 전번에,여러 날 전에, 엄마는 시간이 엄마 옆을 지나간다고 말했어. 시간은 진짜야, 테디?”

A 하긴 자연적인 사랑은 결점투성이이고 솔직하지도 못하죠. 모두 종의 생존을 위해 생물학적으로 디자인된 것들이니까요. 화학물질과 호르몬에 의해 조종되고 수명도 짧아서 믿음직스럽지도 못하고요. 우리가 로맨틱한 연애소설을 읽으면서 ‘진정한 사랑’이니, ‘영원한 사랑’이니 ‘순수한 사랑’이니 하는 것들을 꿈꾸는 것도 그 때문입니다. 그런 게 우리한테는 불가능하기 때문이지요.

B 인간들의 사랑은 모두 뒤에 음흉한 음모를 숨기고 있습니다. 부모가 아이들을 사랑하는 것은 아이들의 그들의 유전자를 일부나마 후대에 남기기 때문입니다. 아이들이 부모를 사랑하는 것은 그렇지 않으면 살아남을 수 없기 때문이지요. 물론 연인들의 로맨틱한 사랑에는 종족 보존의 제1차적인 목적이 숨어 있습니다.

우리와는 달리, 데이빗은 아무런 숨은 뜻이 없는 ‘순수한 사랑’을 할 수 있습니다. 그의 사랑에는 그와 같은 로봇들을 팔아먹으려는 회사의 목적이 숨어 있지만, 그거야 회사의 문제이고 데이빗 자신과는 상관없는 일이지요. 데이빗의 사랑은 순수하고 영원합니다.

A 하지만 그건 자연스러운 것이 아닙니다. 우린 그런 종류의 사랑에 익숙치 못해요. 동화책이나 로맨스 판타지에서 ‘영원한 사랑’ 어쩌구를 떠드는 건 상관없습니다. 하지만 정말로 그런 지속적인 사랑을 할 수 있는 존재가 우리 주변에 있다면? 굉장히 불편할 겁니다. 우리가 어떻게 책임을 져야 하겠어요?

B 여기서 창조주의 책임이라는 또다른 주제가 튀어나오지요. 보통 우리는 창조물이 창조주의 법칙을 따르는 수직관계에 익숙해 있고 아직도 많은 사람들이 창조주의 법칙을 도덕적 준칙으로 내세웁니다. 하지만 이건 따지고 보면 말도 안 되는 거예요. 창조주가 만들었다는 이유만으로 그 법칙이 올바르다는 법은 없으니까요. 오히려 책임을 져야 할 쪽은 창조주죠. 창조물이 기쁨을 느끼고 고통받을 수 있는 존재라면 당연히 창조주는 창조물의 행복을 책임져야 합니다.

그러기 위해서는 대상에 대한 이해가 필수적입니다. 문제는 창조주라고 창조물을 모두 이해한다는 법도 없다는 것이죠. 이미 우린 그런 것들을 만들어내고 있어요. 급발진 소동을 보세요. 자동차는 데이빗보다 수천배는 단순한 기계입니다. 하지만 우린 그런 기계가 저지르는 정체불명의 행동에 놀라서 기겁하고 있지요.

에 나오는 디스커버리호의 비극도 마찬가지 이유로 생겼다고 할 수 있겠지요. 그 똑똑한 과학자들은 슈퍼컴퓨터한테 진실을 감추라고 시키는 것이 얼마나 스트레스를 주는 일인지 전혀 모르고 있었습니다(영화엔 없는 이야기라고요? 아, 맞아, 소설에만 나오는 이야기군요. 상관없습니다. 둘은 상호보완적이니까요). 결국 수많은 사람들을 죽인 살인행위는 착각과 몰이해에서 온 것이었죠.

<A.I.> 의 데이빗도 어떻게 보면 HAL 9000의 후예입니다. 자기 실수를 커버하기 위해 인간들을 죽이지는 않지만, 특별히 다를 것도 없어요. 데이빗의 행동은 인간을 닮았지만 비슷하기만 할 뿐 자체 논리는 아주 다릅니다. 인간들은 그 유사성과 차이점 사이에서 갈팡질팡하면서 데이빗의 행동을 계속 오판하고요. 심지어 데이빗의 창조주인 하비 박사도 데이빗을 특별히 더 잘 이해하지 못합니다.

<A.I.> 는 그런 면에서 흥미로운 사고 실험의 기회를 제공합니다. 우리와 유사하게 만들어졌지만 기본적으로는 전혀 다른 존재가 우리와 공존한다면 서로가 서로에게 어떤 식으로 반응할 것인가에 대한 실험 말이죠. 유익한 영화라고 해야겠어요. 지구상에 ‘지능’을 가진 존재가 언제나 인간뿐이라는 법도 없습니다. 우린 언젠가 다가올지도 모르는 미래를 위해 공존을 예습해야 해요.

듀나/ djuna01@hanmail.net

▶ 스티븐 스필버그와 <A.I.>

▶ 큐브릭+스필버그

▶ 영화 속 인공지능에 대한 5문5답