AIㆍML / 미래기술

“옳은 행동 vs. 잘못된 행동”…동화책으로 학습한 로봇이 더 잘 안다

Sharon Gaudin | Computerworld 2016.02.17
미래의 언젠가 로봇이나 로봇 연합이 인간에게 등을 돌리고 물리적인 공격을 가하지 않을까 두려워하는 사용자도 많을 것이다. 이들 사용자는 어떻게 로봇에게 도덕을 가르칠 수 있는가라는 질문을 던진다. 로봇의 품행 교정에 대한 사용 설명서는 물론 존재하지 않는다.

최근 미국 조지아 공과대학의 연구자들이 이야기 책을 읽는 것으로 훌륭한 사회적 행동을 배울 수 있다는 연구 결과를 발표했다. 리들 교수의 연구는 미국 해군 연구소(Office of Naval Research)와 국방성 연구 기관(Defense Advanced Research Projects Agency)의 후원을 받아 진행됐다.


조지아 공과대학 인터랙티브 컴퓨팅 협력 교수이자 엔터테인먼트 인텔리전스 연구소장 마크 리들은 “우화, 소설 등의 문학 작품에서 다양한 문화의 이야기 묶음은 아이들에게 사회적으로 용인되는 행동이 무엇인지 적절한 표본과 부적절한 예시를 제시한다”며, “로봇에 있어서도 이야기에 대한 이해로 문제적인 행동을 제거하고 인간에게 위해를 끼치지 않는 행동을 선택하도록 권장하는 동시에 목적을 달성할 것”이라고 밝혔다.

저명한 물리학자 스티븐 호킹은 지난해 미래의 로봇이 위험할 수 있으며 100년 안에 인간을 따라잡을 수 있다고 경고했다. 2014년에도 호킹은 인공 지능 분야에서의 진보가 인류의 멸종을 불러올 수 있다고 주장하기도 했다. 비슷한 시기에 테슬라 CEO 일런 머스크 역시 인공 지능 발전이 인류에게 미칠 위험을 언급한 바 있다. 일부 컴퓨터 과학자와 로봇공학자들은 머스크의 의견에 완전히 반대하지는 않았으나, 그런 위험성을 지닐 단계의 인공지능은 아직도 한참 먼 이야기라고 덧붙였다.

로봇이 인류에 해를 끼치는 방향으로 발전하고 그런 로봇보다 한 발 더 앞서가야 한다는 노력은 로봇도 인간 사회의 일부로 인식하고 올바른 행동을 가르쳐야 한다는 주장을 내포한다.

부모가 자녀들이 자기 전 머리 맡에서 동화책을 읽어주면서 교훈을 가르치는 것과 마찬가지로, 로봇 과학자들은 로봇이 잘못된 행동과 옳은 행동을 구분할 수 있도록 책을 읽는 행동을 제안한다.

리들 교수는 로봇이 인간 사회의 가치를 배우는 것은 물론, 사회적으로 용인되는 연속된 일련의 사건 관계를 익힐 수 있다고 말했다. 누군가가 어떤 행동을 하면 로봇은 그에 적절한 반응이 어떤 것인지를 학습할 수 있다는 것이다.

예를 들어, 인간이 로봇에게 약국에 가서 가능한 한 빨리 처방전대로 약을 받아오라고 말할 경우, 로봇은 임무를 완수하는 가장 빠른 방법이 약국에 침입해 약을 훔치고 도망치는 것이라고 생각할 수도 있다. 그러나 이야기를 읽고 적절한 인간 행동에 대해 학습한 로봇은 약국에 가서 줄을 서고 대기한 후 약을 받아 곧바로 집으로 돌아오는 방식을 알 수 있다.

리들은 인간 사회의 도덕을 학습하는 방식이 목적에 제한이 있으나 목적 달성을 위해서 인간과 상호 작용을 해야 하는 종류의 로봇에 가장 적합하다고 말했다. 또, 이러한 학습 방식이 기계의 전반적인 종합 추론의 첫 단계라고 덧붙였다. “인공 지능은 특정 사회의 가치를 내재하도록 개발돼야 한다. 이를 위해서는 용인되지 않는 행동을 최대한 피하려는 노력이 수반돼야 한다. 로봇에게 이야기를 읽고 이해하는 능력을 부여하는 것은 인간의 수동 조작이 불가능할 경우 가장 편리한 수단이 될 수도 있다”고 덧붙였다. editor@itworld.co.kr 

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.