[정형철의 멋진 신세계?] 킬러 로봇과 안락을 향한 전체주의

15:38

[편집자 주=‘정형철의 멋진 신세계?’는 매월 셋째 주 수요일에 연재합니다.]

지난 4월 4일(현지 시각), 토비 월시 호주 뉴사우스웨일스대학교 교수 등 전 세계 인공지능 분야 학자 57명은 한국과학기술원(KAIST)과 어떤 연구 협력도 하지 않겠다는 보이콧을 선언했다. 이번 선언은 제네바에서 열리는 유엔(UN) 킬러 로봇(자율살상무기) 관련 논의를 앞두고 이루어졌다는 점에서 전 세계적으로 커다란 이슈가 됐다.

인공지능 분야 학자들이 집단 보이콧을 선언한 데에는 KAIST가 지난 2월 국내 방위산업 기업인 한화시스템과 손잡고 ‘국방인공지능 융합연구센터’를 개소한 배경이 자리하고 있다. 월시 교수 등은 KAIST에 몇 차례 서한을 보내 융합연구센터가 킬러 로봇 개발과 연루된 것 아니냐는 질문했으나, KAIST는 일체의 반응을 보이지 않았다고 한다. 보이콧 선언에 놀란 KAIST가 킬러 로봇 개발 계획이 전혀 없다는 해명을 하면서 결국 보이콧 선언은 철회되었지만, 과학기술의 윤리적 책임에 둔감한 우리사회의 단면이 극명하게 드러났다는 점에서 이번 사태가 남긴 과제는 결코 가볍지 않다.

▲[사진=영화 터미네이터 제네시스 일부]

가공할 위협에 둔감한 사회

그런가 하면 KAIST 사태와 비슷한 시기에 글로벌 IT 기업 구글에서 일하는 직원 3,100명도 구글이 전쟁과 연관된 사업을 해서는 안 된다는 탄원서를 순다 피차이 구글 CEO에게 전달했다. 이들이 제출한 탄원서에는 미 국방부 펜타곤이 추진하는 메이븐 프로젝트(Maven Project)에서 구글이 손을 뗄 것과 앞으로 전쟁 관련 사업을 해서는 안 된다는 내용이 담겨 있다.

‘메이븐’은 머신 러닝(인공지능 기계학습)으로 방대한 영상자료를 분석하여 무인항공기의 타겟 식별력을 향상시키기 위해 지난해 5월부터 펜타곤이 추진하고 있는 군사 프로젝트다. 구글은 메이븐 프로젝트에 자사의 인공지능 알고리즘 오픈 소스인 텐서플로우(TensorFlow)를 비밀리에 제공해 왔던 것으로 드러났으며, 이 사실을 알게 된 일부 직원들이 이번 탄원서 제출을 주도한 것으로 밝혀졌다.

구글은 자사 알고리즘이 메이븐 프로젝트의 비군사적인 분야에만 활용된다고 주장하고 있다. 그러나 구글 알고리즘을 이용한 영상자료 분석 결과는 대테러 업무와 같은 군사 작전에 일상적으로 활용되고 있는 게 사실이다. 펜타곤과 구글은 구글의 알고리즘이 자율살상무기 시스템을 만드는 데 사용되지 않을 것임을 강조하고 있지만, 이미 군사 프로젝트에 활용되고 있는 이상 이러한 해명은 설득력이 크게 떨어진다.

구글의 이러한 태도는, 무기체계 핵심 기술을 개발하는 방위산업 업체와 손잡고 융합연구센터의 문을 연 KAIST가 자신들이 연구한 인공지능이 결코 군사적으로 활용되지 않을 것이라고 주장하는 것과 크게 다르지 않다. 이들은 자신들이 개발하는 기술은 결코 인류에 위해를 끼칠 수 없다고 확신하고 있는 것처럼 보인다. 순진한 것인지 영악한 것인지 모르겠지만, 이들이 보유한 기술이 어떠한 형태로든 군사 프로젝트와 손을 잡는 순간 이들의 기대와 바람은 물거품이 될 가능성이 매우 높다.

▲카타르에 있는 복합 항공 운영 센터 내부는 미국의 메이븐 프로젝트 기술을 적용할 계획이다. [사진=미국 공군]

한편에서는 벌써 자국의 안보를 위해 킬러 로봇 개발을 허용해야 한다는 목소리가 터져 나오고 있다. 미국, 중국, 러시아, 영국 등 군사 강대국들이 킬러 로봇 개발 경쟁을 벌이고 있는 상황에서 다른 나라의 개발을 제한하려는 시도는 실효성이 없다는 주장이다. 킬러 로봇에 대해서도 핵무기와 마찬가지로 표면적으로는 금지에 동의하는 것처럼 보이지만, 물밑에서는 개발 경쟁이 치열하게 이루어지고 있는 것이 엄연한 현실이 되어 가고 있다.

무조건적 금지만이 유일한 대안!

최근 사태를 바라보며 이제서야 인공지능과 로봇 활용의 윤리적 기준이 마련되어야 한다는 논의가 우리사회 곳곳에서 제기되고 있다. 사실 이러한 문제제기는 인공지능 기술이 비약적으로 발전하기 전부터 계속 있었다. 그러나 문제제기는 기술의 가공할 폭주 앞에서는 무력하기만 하다. 제도나 윤리가 논의되기도 전에 기술은 이미 저 멀리 다른 세상을 만들고 있기 때문이다.

국제인권단체 휴먼라이츠워치가 킬러 로봇의 위험성을 경고하는 활동을 수년 전부터 적극적으로 벌이고 있지만 개발 경쟁은 더 거세지고 있다. UN도 문제를 심각하게 받아들이고 논의하려는 움직임이 있지만, 안전보장이사회 상임이사국이 킬러 로봇 개발국가이거나 보유국가라는 점에서 제대로 된 논의가 이루어질지 의심스러운 것이 사실이다.

이들 주요 군사강대국들은 다른 군사적 문제와 마찬가지로 자국의 개발에는 눈 감으면서 타국의 개발은 견제하는 전형적인 여전히 ‘내로남불’의 자세를 유지하고 있다. 이들 국가들이 킬러 로봇 개발 금지에 미온적인 태도를 보이고 있는 것은 달리 말하면 킬러 로봇 개발 가능성이 무궁무진함을 방증하는 것이다. 킬러 로봇 개발이 가져다줄 막대한 경제적 이익과 군사적 우위를 스스로 포기할 리는 만무하다.

따라서 킬러 로봇 문제를 인공지능의 활용 문제나 윤리적 기준 문제로 바라봐서는 안 된다. 인공지능이나 로봇의 윤리 기준에 관한 단일 국가 내에서의 사회적 합의조차 요원한 일인데, 국제적 합의는 어떻겠는가? 윤리적 기준을 놓고 설왕설래하는 사이에 킬러 로봇은 전 세계 곳곳에서 인명을 학살하고 있을 것이다. 유엔인권위원회의 보고에 따르면 이미 2013년부터 러시아의 킬러 로봇이 IS전투에 투입되어 적을 살상하고 있다고 한다.

이미 킬러 로봇 문제를 윤리적 기준 마련이라는 불확실한 대응으로는 막아내기 어려운 현실이 됐다. 방법은 단 하나, ‘개발과 사용의 무조건적 금지’라는 분명한 정치적 저항이다. 인공지능 기술의 선용이나 혹은 인공지능 윤리 강령 문제는 차후의 일이다. 이미 개발된 자율살상무기 전면 폐기를 포함하여 ‘킬러 로봇 개발과 사용 전면 금지’라는 국제적인 정치적 합의 말고는 이 문제를 해결할 가능성은 거의 없다고 보아야 한다.

‘기술의 선용’이라는 허울

기술의 무정부성, 혹은 자율성은 이미 인간의 통제 영역을 벗어난 지 오래다. 특히 최근에 급속하게 발전하는 인공지능 기술은 모든 영역에서 완벽하게 인간을 배제하는 방향으로 치닫고 있다. 기술이 인간을 배제한다는 것은 인간으로부터 완전한 자율을 향해 나아간다는 의미다. 인공지능 시대는 결국 ‘무인의 시대’를 지향한다. 인공지능과 로봇 기술이 펼칠 이러한 ‘무인의 시대’는 결국 인간의 소멸로 이끌 것이다.

이 같은 ‘무인의 시대’를 향한 기술의 고도화는 인간의 편의와 안락이라는 외피를 둘러쓰고 진행되어 왔다. 일본의 정치사상가 후지타 쇼조는 『전체주의 시대경험』에서 일본 사회를 ‘안락을 향한 전체주의’로 규정한 바 있다. 후지타는 일본사회 전체주의의 근원을, 안락을 향한 자발적 예속이 집단주의적으로 표출된 데에서 찾았다. 후지타가 여기서 말하고 있는 ‘안락’이란, 조금이라도 불쾌하거나 고통스러운 상태조차 용인하지 않는 감정에서 나오는 마음의 움직임이다. 불쾌감의 근원 그 자체를 추방하려 한 결과 불쾌감이 없는 상태의 일면적 ‘안락’을 우선적 가치로 추구하게 된다는 것이다. 그 결과 일본사회는 오로지 ‘고도 경제성장’과 ‘기술의 첨단화’만을 낳는 전체주의 사회로 전락하게 되었다.

킬러 로봇과 같은 극단적 기술을 예로 들지 않더라도, 인공지능이나 로봇 기술은 그 자체로 ‘안락을 향한 전체주의’가 만들어낸 ‘기술의 첨단화’이다. 일체의 불편함이나 고통 자체를 아예 없애려는 ‘안락’을 향한 광기와 예속이 멈추지 않는다면 기술의 폭주를 막아내기란 불가능에 가깝다. 과거와 달리 오늘날의 기술 폭주가 가져올 결과는 우리의 힘으로는 도저히 감당할 수 없는 재앙이 될 것임에 틀림없다.

결국 우리가 선택할 여지는 많지 않다. 킬러 로봇과 같이 인류에게 재앙이 될 기술 개발은 어떤 조건과 이유를 불문하고 멈춰야 한다. 인류의 생존보다 더 위대한 기술은 존재하지 않는다. 핵무기와 같이 지금 존재하는 기술 재앙만으로도 인류의 생존은 기약할 수 없는 지경에 처해 있다. 여기에 무엇을 더하고 싶은가?