[하이빔]인공지능, 자율로봇 그리고 자율주행

입력 2022년01월06일 00시00분 권용주
트위터로 보내기카카오톡 네이버 밴드 공유
 -로봇의 판단 권한, 과연 줄 수 있을까

 공상과학(SF) 소설의 전설인 아이작 아시모프(Isaac Asimov) 교수는 이른바 "로봇의 3원칙"을 주장한 인물로 유명하다. 로봇은 인간에게 위해를 가할 수 없고 인간이 위험할 때 방관해선 안되며 인간 명령에 복종하되 자신을 스스로 보호해야 한다는 원칙이다. 훗날 "인간"을 "인류"로 바꾼 "0번째 법칙"이 추가됐지만 근본적인 개념은 인간이 로봇을 통제하되 그렇지 못하다면 로봇이 인간을 위해 스스로 통제해야 한다는 뜻이다. 이를 토대로 만들어진 영화가 2004년 개봉한 윌 스미스 주연의 "아이 로봇(i, ROBOT)"이다. 인간의 통제를 벗어난 로봇 이야기를 소재로 다뤄 흥미를 이끌었다. 

 그런데 정말 로봇이 인간을 대신해 스스로 통제될 수 있을까? 대표적인 논란이 전투 로봇이다. 흔히 "자율형 살상무기시스템(LAWS)"로 부르는 무기는 인간의 판단이나 조작에 의존하지 않는다. 공격 명령 자체가 사람이 아니어서 아시모프의 로봇 원칙에 위배된다. 여기서 논란은 AI 무기에게 사람을 죽일 수 있는 권한을 줄 수 있느냐다. 권한을 주는 것이 인간이라면 공격 판단은 로봇이 하게 된다. 따라서 권한 자체를 줄 수 없다는 목소리가 적지 않지만 전쟁의 목적 자체가 승전이라는 점에서 필요하면 로봇이 공격 권한을 가져야 한다는 목소리도 적지 않다. 그리고 이런 논란은 한국도 예외가 아니다. 

 그러자 미국에선 구글을 중심으로 군사용 AI에 5가지 윤리 지침을 정했다. 책무성, 공정성, 추적가능성, 신뢰성, 통제가능성이 그것이다. 하지만 어디까지나 미국 내의 이야기일 뿐 나라마다 속내는 조금씩 다르다. 이미 살상 로봇을 실전에 배치한 국가도 있어서다. 그럼에도 윤리 논란이 제기되는 가장 큰 이유는 인간 사이의 아군과 적군을 로봇이 어떻게 인식하느냐다. 또한 군인과 민간인이 다르다는 점을 로봇에게 인식시킬 수 있을까이다.  

 그런데 이런 논란은 자율주행도 예외가 아니다. 극단적이기는 하지만 예측 불가한 상황이 발생했을 때 사람을 충격해야 한다면 AI가 누구를 충격할 것이냐의 문제다. 이른바 "트롤리의 딜레마"로 불리는 상황에서 사람을 피해 사물을 충격하면 탑승자 상해로 이어져 이용자에게 두려움을 줄 수 있고 이때는 탑승을 거부하게 된다. 결국 이때도 자율주행 자동차가 누구 또는 어디를 충격할 지 선택할 수 있는 권한을 가지게 할 것인가? 아니면 권한은 여전히 인간에게 남아 있어야 하는 지가 갈등이다. 만약 자율주행에 맡긴다면 AI는 "과연 어떤 판단을 하게 될 것이고 그것은 곧바로 윤리적인가?"로 다시 연결된다. 

 자동차에서 로봇 이야기를 하는 이유는 모빌리티 기업을 표방하는 수많은 이동 기업들이 로봇을 경쟁적으로 들고 나오는 탓이다. 전자 기업이 가정에서 이동하며 편의성을 높여주는 가정용 로봇을 내놓고, 자동차회사는 이동의 모든 과정에 함께 하는 반려 로봇을, 바이오 및 헬스 기업은 건강을 유지하도록 도와주는 케어 로봇을 쏟아내는 탓이다. 한 마디로 모든 영역에서 로봇을 일상화하려는 움직임이 본격 전개됐다는 뜻이고 CES 2022는 현재 로봇의 진화와 당장의 현실을 보여주며 로봇과 공존하는 시대로의 전환을 예고하는 중이다. 대표적으로 현대차그룹 정의선 회장은 앞으로 로봇과 생활 자체를 함께 하는 시대를 만들겠다고 공언까지 했다. 

 동시에 일부 국가에선 로봇 아바타를 만드는 움직임도 있다. 사람과 함께 다니며 운전도 하고 문도 열어주는 일종의 비서 역할이다. 2018년 등장한 토요타의 휴머노이드 로봇 무사시는 74개의 모터로 손발 및 손가락까지 움직여 자동차 운전에 성공했다. 고령자 이동을 위한 개발이지만 로봇이 스티어링 휠, 가속 및 브레이크 페달을 직접 조작해 시선을 끌기도 했다. 일종의 사람을 보호하는 로봇인 셈이다. 그러자 인간을 보호하는 로봇이 인간과 인간이 타툼을 벌일 때 과연 누구 편을 들어야 할지 되묻기도 한다. 모든 사람이 보호 로봇을 데리고 다니다 인간 사이의 싸움이 벌어질 때 인간을 보호해야 하는데 이때 각자의 보호 로봇은 어떤 행동을 취해야 하는지 말이다. 

 그래서 로봇도 이제 법의 판단을 받아야 하는 시점으로 흐르고 있다. 인간과 동일한 법의 잣대를 적용할 것인지 논의가 필요한 시점이다. 게다가 로봇이 자율 비행도 하려 한다. 하늘을 날다 위험 상황에 처했을 때 로봇은 어떤 판단을 내릴 것인가? 이 또한 학습을 통해 스스로 판단하고 행동하게 권한을 줄 것인가? 아니면 통제 권한은 인간이 가질 것인가? 그런데 둘 가운데 만약 인간의 판단이 오히려 위험을 더 초래했다면 어떻게 할 것인가? 로봇이 산업용에 머무를 때와 우리 일상에 깊이 들어올 때의 차이가 분명한 만큼 담론에 대한 고민이 필요할 때다. 

 권용주(국민대 자동차운송디자인 겸임교수)
무통장입금 정보입력
입금할 금액은 입니다. (입금하실 입금자명 + 입금예정일자를 입력하세요)