본문 바로가기
인공지능(AI)

구글, 사람의 무의식적 행동 읽는 AI 개발

by 아담스미스 2022. 3. 13.
728x90
반응형

구글, 사람의 무의식적 행동 읽는 AI 개발

 

기계가 비언어적인 방식으로 이해하는 상호작용 언어 연구
신체 움직임을 읽어 의도를 이해하고 반응하는 기술 공개
레이더를 사용해 주변 사람들의 접근, 방향 및 경로를 감지
움직임을 감지해 비언어적 신호를 이해하는 레이더 칩 개발
향상된 인간-컴퓨터 상호 작용을 볼 수 있을 것으로 기대

구글이 기기가 사람의 신체 움직임을 읽어 의도를 이해하고 적절하게 반응할 수 있도록 하는 기술을 공개했다.(사진=구글)

구글이 기기가 사람의 신체 움직임을 읽어 의도를 이해하고 적절하게 반응할 수 있도록 하는 기술을 공개했다. 이 기술은 TV, 전화 및 컴퓨터 등의 기기가 공간을 인식하고 사람들과 비언어적인 방식으로 상호 작용할 수 있도록 한다.

구글의 ATAP(Advanced Technology and Products Division) 팀은 수년동안 새로운 상호작용 언어(Interaction Language)에 대해 연구해 왔다. 이 상호작용 언어는 우리 주변의 기계가 신체 움직임과 같은 비언어적 신호를 이해함으로써 우리의 요구나 의도를 더 직관적으로 인식할 수 있게 한다. 

ATAP 팀은 '솔리(Soli)' 레이더 센서를 사용해 주변 사람들의 접근, 이동 방향 및 경로를 감지하도록 했다. 그런 다음 해당 데이터를 분석해 누군가가 센서를 쳐다보고, 지나가고, 접근하거나 센서를 향하고 있는지 확인한다. 

연구팀은 다가감(Approach), 쳐다봄(Glace), 돌아섬(Turn) 및 지나감(Pass)으로 구성된 동작 세트로 상호작용 언어를 구성했다. 이 동작세트는 스마트 디스플레이나 주변 컴퓨터에 대한 명령 또는 반응을 촉발 시키기 위해 사용할 수 있다. 이러한 상호작용 언어는 이미 기존  솔리 지원 장치에서 사용되고 있다. 예를 들어 구글이 만든 스마트폰 '픽셀(Pixel) 4'에는 손을 흔들면 알람을 일시 중지하거나 사용자의 손이 휴대폰을 향해 오는 것을 감지하면 휴대폰을 깨우는 모션 센스(Motion Sense)라는 기능이 있다. 구글의 네스트 허브(Nest Hub)는 카메라를 사용해 손바닥을 펼쳤을 때를 보고 미디어 재생을 일시 중지한다.

동작세트 중 ‘다가감’은 기존 구현 방식과 유사하다. 기기는 센서가 사용자(또는 신체 일부)의 접근 시점을 알려주므로 사용자가 볼 수 있는 정보를 불러올 수 있다. 픽셀 4와 마찬가지로 네스트 허브는 사용자가 가까이 있다는 것을 알게되면 예정된 약속이나 알림을 표시한다. 또한 가까이 있으면 화면에 터치 명령을 표시하고 멀리 있으면 더 크고 읽기 쉬운 글꼴로 전환한다.

ATAP의 솔리(Soli) 센서는 카메라를 사용하지 않고 레이더를 이용해  근처에 있는 물체의 위치를 감지할 수 있다.(사진=구글)

‘쳐다봄’은 ‘접근함’과 중복되는 것처럼 보일 수 있지만 여러 장치를 사용할 때 사람이 주의를 어디에 집중하고 있는지 이해하기 위한 것일 수 있다. 예를 들어 사용자가 누군가와 전화 통화를 하다가 우연히 집에 있는 다른 기기를 쳐다봤을 때 사용자가 다른 기기에 집중하고 있다는 것을 알기 때문에 대화를 영상 통화로 전환하도록 제안을 할 수 있다. ‘쳐다봄’을 사용해 간단한 정보를 빠르게 표시할 수도 있다.

새롭게 주목된 동작세트는 ‘돌아봄’과 ‘지나감’이다. 장치를 등졌다가 돌아 오거나 장치로부터 등을 돌려 떠나가는 동작은 기기가 반복적이거나 평범한 작업을 자동화하는데 도움이 될 수 있다. 화면 레시피를 따르는 것과 같은 다단계 절차의 다음 단계 또는 비디오 시작 및 중지와 같은 반복적인 작업을 수행할 준비가 되었는지 확인하는 데 사용할 수 있다. 반면에 ‘지나감’은 장치에 사용할 준비가 되지 않았음을 알려준다.

ATAP의 새로운 기술이 내장된 장치는 사용자가 접근하는 것을 감지한 다음 사용자가 원하는 작업에 따라 상태를 변경할 수 있다.(사진=구글)

ATAP 팀은 또한 ‘지나가면서 쳐다봄’ 또는 ‘다가가면서 쳐다봄’과 같이 결합된 동작을 이용하기도 했다. 이 모든 것이 제대로 작동하려면 구글의 센서와 알고리즘이 사용자가 특정 행동을 하고 있을 때 뿐 아니라 행동하지 않을 때도 매우 능숙해야 한다. 

ATAP의 새로운 기술은 사용자가 활성화하기 위해 적극적으로 무언가를 하는 것이 아니라 사용자가 반드시 의식하지 않아도 '솔리'가 작동한다는 점이다. 스마트 TV에 내장되어 있다면 우리가 잠든 것을 감지할 때 볼륨을 낮추는 것과 같은 결정을 내리는 데 사용될 수 있다. 기울어진 머리 위치에서 수집한 정보는 의자나 소파 옆에 머리를 기대고 있음을 알려준다. 사용자가 지나갈 때 자동으로 기상 조건을 깜박이는 벽의 온도 조절기나 책상에 앉아 있는 사용자가 없을 때 알림 소리를 없애는 컴퓨터가 있을 것이다. 사용자가 고개를 끄덕이면 TV를 끄거나 소파에서 일어날 때 넷플릭스(Netflix)를 자동으로 일시 중지할 수 있다.

머신 러닝 알고리즘을 훈련해 시스템을 더욱 정교하게 만들려면 더 많은 데이터를 수집해야 한다. 따라서 데이터에는 올바른 동작은 물론 유사하지만 잘못된 동작도 포함돼야 한다. ATAP의 디자인 책임자인 레오나르도 기우스티(Leonardo Giusti)는 "이것이 우리가 직면한 가장 큰 문제다"라고 말했다.

기우스티는 "이 위험을 완화하기 위한 다른 접근 방식은 UX 디자인을 사용하는 것이다"라고 말했다. 그는 시스템이 완전히 자동화된 응답을 하는 대신 사용자에게 확인을 요청하도록 할 수 있다고 설명했다. 

ATAP의 수석 인터랙션 디자이너인 로렌 베달(Lauren Bedal)은 "우리가 움직이는 자연스러운 방식을 활용해 컴퓨터와 상호 작용하는 미래 방식을 암시하고 있다고 믿는다"라고 말했다. 이어 "이렇게 함으로써 우리는 더 적은 일을 할 수 있고 컴퓨터는 백그라운드에서 작동해 적절한 순간에만 우리를 도울 수 있다"라고 덧붙였다. 

 

ATAP의 새로운 기술은 최신 R&D 연구를 보여주는 다큐멘터리 시리즈의 일부인 ATAP에서 발행한  비디오에 설명되어 있다.(영상=구글)

 

 

 

 

 

 

 
 
 
 
 
 
 
 
 
 
 
 
 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(출처:http://www.aitimes.com/news/articleView.html?idxno=143367)

728x90