머니투데이

머니투데이 페이스북 머니투데이 트위터
통합검색

오늘의 증시

오늘의 증시
코스피 코스닥 원/달러
2090.67 689.84 1129.40
▲2.61 ▲8.46 ▲0.2
+0.12% +1.24% +0.02%
메디슈머 배너 (7/6~)조 변호사의 가정상담소 (10/18)
블록체인 가상화폐

인간적인 로봇, 비인간적인 인간…"누가 더 인간적인가?"

[팝콘 사이언스-72]AI로봇과 인간의 공존 그린 SF영화 '채피'…로봇윤리 접근 빠르고 신중해야

류준영의 팝콘 사이언스 머니투데이 류준영 기자 |입력 : 2015.03.28 06:05|조회 : 8717
폰트크기
기사공유
편집자주영화나 TV 속에는 숨겨진 과학원리가 많다. 제작 자체에 디지털 기술이 활용되는 것은 물론 스토리 전개에도 과학이 뒷받침돼야한다. 한번쯤은 '저 기술이 진짜 가능해'라는 질문을 해본 경험이 있을터. 영화·TV속 과학기술은 현실에서 실제 적용될 수 있는 것일까. 상용화는 돼있나. 영화·TV에 숨어있는 과학이야기. 국내외 과학기술 관련 연구동향과 시사점을 함께 확인해보자.
영화 채피의 한 장면/사진=UPI 코리아
영화 채피의 한 장면/사진=UPI 코리아

10여 년간 친딸 자매를 성폭행한 '인면수심' 아버지 등 혀를 차게 하는 최근 각종 사건·사고 뉴스를 접하다 보면, AI(인공지능)로봇과 공존할 미래 세계에선 사회 퇴출 1순위에 인간이 명단에 오를 지도 모른다는 생각을 해보게 된다.

스크린에선 인간과 로봇의 동거는 이전부터 있어 왔다. '트랜스포머'에 등장하는 외계 로봇 종족 말이다. 다만, 평시에 자동차로 둔갑해 숨어 지내므로 인간과 로봇의 공존이란 문제를 제기하기에는 적합하지 않았다.

마침 이 같은 의문에 정면 돌파를 시도한 영화가 개봉돼 눈길을 끈다. 인간보다 더 인간다운 로봇에 대한 얘기 '채피'이다. 채피는 스스로 진화하는 AI 로봇과 이들을 통제하는 인간과의 대결을 그렸다.

영화 '채피'의 한 장면/사진=UPI 코리아
영화 '채피'의 한 장면/사진=UPI 코리아

인간 형상 로봇 스카우트는 도시 범죄자들을 잡아들이는 경찰로 활동한다. 이중 고장이 잦아 폐기 직전까지 간 스카우트 22호가 개발자 디온(데브파텔 분)에 의해 완벽한 AI 프로그램을 갖춘 로봇 채피로 재탄생하고, 아기 상태인 채피는 차츰 세상을 배워간다.

순수하고 어리숙한 로봇 채피의 성장과정에 관객은 매료된다. 극 초반에 이 같은 전개가 진부하다는 평단에 혹평도 있지만, 이 과정에서 관객은 채피를 통해 인간과 로봇의 경계가 모호해 진다는 생각을 가지게 된다. 감독이 작품 종료 직전에 크게 던질 메시를 받을 수 있는 전 단계에 놓이는 것이다.

영화 후반부부턴 휴 잭맨이 로봇 무스의 개발자 빈센트로 등장한다. 그의 악역 도전도 이 작품에서 볼거리 중 하나이다. 영화는 오로지 자신의 자리를 지키는 것이 중요한 빈센트를 통해 권력 지향적인 인간의 감춰진 모습을 그대로 보여준다. 로봇을 돈과 권력의 도구로 사용하는 인간의 이기적이고 탐욕스러운 모습이 적나라하게 스크린에 비춰진다. 이에 비해 채피는 인간보다 더 도덕적이고 양심적이다.

"누군가를 죽이면 안 됩니다. 나쁜 짓을 하면 안 됩니다"라고 말하는 채피의 모습은 인간성을 상실한 인간보다 한 수 위에 있는 그런 존재로 투영된다. 비인간적인 '인간'과 인간적인 '로봇'의 공존, 이를 통해 영화에서 채피는 관객들에게 이렇게 묻는다. "누가 더 인간적이지?"

인간적인 로봇, 비인간적인 인간…"누가 더 인간적인가?"
◇로봇윤리, 어떻게 세워야 하나

로봇은 결국 인간과 공존형으로 발전해 갈 것이다. 지금은 단기적으로는 주어진 일을 수행하는 정도에 불과하나 장기적으로 볼 때 논리적인 소통이 가능하고, 사람이 말하고자 하는 것의 핵심을 파악해 즉각 결정을 내리는 수준에 도달하게 될 것이란 게 전문가들의 중론이다.

이 같은 과학기술계 예측으로 최근 '로봇윤리'가 큰 관심을 받고 있다.

미군은 로봇윤리를 가르치는 연구를 위해 예일대와 조지타운대에 5년간 750만 달러(약 79억 원)를 지원했다. 로봇 전문가는 "앞으로 윤리적인 로봇 시스템이 개발되면 전쟁터에서 발생하는 민간인 희생은 크게 줄 것"이라고 전망했다.

미국은 2006년, 이라크와 아프가니스탄 전투에 로봇 전투병을 투입했다.

로봇 전투병은 적군을 죽여야 하는 전투에 참가한다. 때문에 아군에게 피해를 줘선 안 된다. 또 로봇은 위험에 처한 인간을 방관해서도 안 된다. 여거 가지 규칙이 로봇으로 하여금 혼선을 일으킨다. 그렇다면 로봇 전투병은 도대체 언제, 어디에서 누구를 향해 총을 겨눠야 하나. 로봇은 다양한 변수가 얽킨 전쟁터에서 끊임없이 판단하고 행동해야 한다.

'왜 로봇의 도덕인가'의 저자는 "옳고 그름을 구별할 수 있는 로봇 설계 과정이 인간의 윤리적 의사결정에 대해 많은 것을 드러내 주는 일인 만큼 로봇 도덕을 구현하는 일은 인간을 이해하는 과정일 것"이라고 설명한다.

로봇 윤리 SW(소프트웨어)를 만들려는 시도는 다양하다. '왜 로봇의 도덕인가' 책에선 3가지 기법을 소개한다.

우선 △도덕에 기준한 원칙을 세워 로봇 판단을 결정하는 '논리 기반 접근법' △다양한 사례를 통해 자신의 판단 근거를 찾는 '사례 기반 접근법' △여러 사람의 행동이 충돌할 때 어떤 결과를 낳는지를 알아보는 시뮬레이션으로 합리적인 행동을 찾아내는 '다중 행위자 접근법' 등이다.

미국 렌슬레어공대 셀머 브링스요드 박사는 독특한 방식으로 로봇 윤리에 접근하고 있다. '장애물이 나타나면 피할 것'이라는 규칙 대신 '생명은 소중하다'는 큰 원칙으로 프로그램한 후 로봇이 스스로 상황을 파악해 피하는 방향으로 행동하도록 하고 있다. 그의 프로그램은 '공리주의' 원칙을 토대로 세워졌다.

이는 사람의 사고체계와 가장 근접해 윤리적인 인공지능을 만드는 데 가장 적합한 방법처럼 보이나 사람도 결정 내리기 힘든 복잡한 상황들이 많아 적합하지 않다는 주장도 나온다.

기술과 관련된 윤리는 항상 뒤늦게 세워져 인간을 힘들게 한다. 편리함으로 인해 그 부작용이 크게 부각되지 않은 탓이다. 따라서 머지 않아 실제로 존재할 AI 로봇에 대한 윤리를 세우려는 지금의 노력은 반길만한 일일 것이다.

류준영
류준영 joon@mt.co.kr twitter facebook

※미래부 ICT·과학 담당

이 기자의 다른기사 보기 >
  • 0%
  • 0%


오늘의 주요뉴스




종료된칼럼

베스트클릭

실시간 급상승

10.0초

5분간 수집된 조회수 기준

오늘의 운세

많이 본 뉴스