-하드웨어보다 소프트웨어, 핵심은 불확실성의 제거
흔히 이동의 편리함은 크게 두 가지 측면으로 평가된다. 먼저 물리적인 편안함이다. 대표적으로 "승차감이 편하다 또는 그렇지 않다"고 얘기할 때는 이동 수단의 기계적 특질에 기반한다. 충격흡수장치의 흡수력, 스프링의 탄성, 타이어, 시트 등의 다양한 하드웨어가 이용자의 주관적 평가에 영향을 미치는 요소다. 물론 실내 공간의 넓고 좁음도 중요하다. 그런데 이동 수단의 편리함과 달리 이동에만 초점을 맞추면 평가 요소는 하드웨어보다 훨씬 다양해진다. 이때는 이동 수단의 호출 방식, 이동하는 사람과 이동 수단의 커뮤니케이션 등이 중요 항목으로 떠오른다. 이 가운데 CES2024를 관통한 키워드는 이동하는 사람과 이동을 시켜주는 기계와의 쌍방향 커뮤니케이션이다. 홀로 탑승했지만 마치 누군가와 함께 있는 것 같은 느낌을 주려는 IT 기업들의 노력이 적극적이다.
지난 2013년 영국 서섹스 대학 심리학자 질리언 샌드스트롬과 브리티시 컬럼비아 대학 엘리자베스 던이 흥미로운 실험 결과를 발표했다. 커피숍에서 성인 30명이 웃으며 바리스타와 대화를 한 뒤 구매 경험을 조사했더니 대화가 없을 때와 비교해 훨씬 즐겁다는 응답을 내놨다. 하지만 반대적인 실험도 있다. 경제학자인 미국의 대니얼 엘스버그가 내놓은 "엘스버그의 역설(Ellsber’s Paradox)"이 대표적인데 사람들은 불확실성을 피하려 한다는 내용이다. 모르는 사람과 대화를 기피하는 것도 결국은 상대방을 잘 모른다는 점에서 일종의 불확실성이다. 따라서 이동 과정에서 편안함을 준다는 것은 이런 불확실성을 철저하게 배제하는 데서 출발한다.
CES2024 모빌리티의 키워드로 "불확실성의 확실성"을 꺼내든 이유는 이동의 주체인 사람이 이동 수단에 탑승했을 때 기술적으로 불확실성을 없애려는 노력이 가파르게 증가했기 때문이다. 그 중의 하나가 바로 사람과 AI 간의 원활한 대화다. 그런데 대화 수준이 일상에서 다른 사람과 얘기를 나누는 수준에 도달하려면 AI 또한 그만큼 탑승자 정보를 많이 가지고 있어야 한다. 탑승자는 AI에 대해 잘 몰라도 AI는 탑승자의 기본 정보를 바탕으로 어떤 음식을 좋아하는지, 취미로 무엇을 즐기는지 알아야 대화의 내용이 더 풍부해진다. 그래서 AI는 평소 탑승자가 어떤 단어를 검색하는지, 어떤 시간에 이동하는지, 주로 어느 동네에서 이동이 많은지 일상의 모든 정보를 취합하려 끊임없이 노력한다. 개인이 정보의 흔적을 많이 남길수록 대화는 한층 높은 수준에 도달하고, 이때 인간은 AI 대한 불확실성이 사라져 이동 과정이 즐거운 경험으로 남게 된다. 그리고 이들 경험이 이동 수단의 물리적인 편안함과 맞물릴 때 서비스와 제품에 대한 신뢰도가 향상되고 지속적으로 해당 제품과 서비스를 이용하게 된다.
그런데 정보 취합도 중요하지만 탑승자의 감정까지 읽어내는 것은 또 다른 문제다. 감정을 파악하려면 AI의 판단이 정확해지도록 인식의 방법도 다양해야 한다. 심박수를 확인하거나 얼굴 표정, 그리고 대화할 때 나오는 음성의 주파수 변동도 알아야 한다. 그래야 맞춤형이 완벽해질 수 있어서다. CES2024는 다양한 탑승자 인식 기술과 생성형 AI의 결합이 얼마나 강력한(?) 경험적 효과를 발휘할 수 있는지 가능성을 보여준 자리였던 셈이다.
하지만 인간이 AI와 대화하며 이동하는 것에 편안한 감정을 느끼려면 그만큼 개인의 정보가 많이 제공돼야 한다. 스스로 정보를 많이 제공할수록 이동 경험이 즐거워지기에(?) 생성형 AI는 가급적 대화 상대인 인간이 많은 정보를 제공하도록 대화를 유도한다. 그럴수록 개인의 사생활은 누군가에게 데이터로 제공되고 이들은 빅데이터로 변신한다. 그리고 데이터 연구자들은 이렇게 모아진 정보를 토대로 "더 나은 세상"을 추구한다고 목소리를 높인다. 그런데 이를 반대로 뒤집으면 AI가 인간을 지배하는(?) 세상으로 한발 이동했다는 점도 부인할 수 없다.
그래서 한편에선 윤리적인 부분도 이제 심도 있게 논의할 시점이라고 말한다. CES2024에 등장한 수많은 기술기업이 인간 사생활을 데이터로 읽어낼 때 과연 인간의 삶이 정말 윤택해질 것인지 고민해야 한다는 뜻이다. 인공지능(AI)의 대부로 널리 알려진 제프리 힌턴(75) 박사가 구글을 그만두면서 언급한 AI의 위험성이 그냥 나온 말은 아닐테니 말이다.
라스베이거스=권용주 편집위원