직관의 시대 - 노블레스닷컴

Latest News

    LIFESTYLE
  • 2016-08-29

직관의 시대

스마트폰이 범람하면서 우리는 터치스크린의 세계에 익숙해졌다. 그다음은 뭘까?

탈믹(Thalmic)의 Myo는 근육의 전기 신호에 따라 다양한 움직임을 인식하고 장치를 제어할 수 있는 기술이다. 전용 앱을 설치하면 파워포인트 등을 팔이나 손가락의 움직임으로 컨트롤할 수 있다.

잠시 아날로그 시대로 시간을 돌이켜보자. 전축이라 불리던 오디오 기기 전면의 왼쪽 아래에 전원 버튼이 있었고, 그 옆에는 입력 소스를 선택할 수 있는 버튼이 있었다. 맨 오른쪽에는 볼륨을 조절하는 커다란 노브(knob)가 붙어 있었다. 물론 볼륨 조절 노브에 전원을 켜는 기능이 포함된 제품도 있었지만 대부분의 버튼이나 노브는 하나의 기능만 수행했다.
이 시대에 기기를 조작하기 위해 필요한 것은 논리보다 직관이었다. 조작 방식에서 직관이 중심이 된 이유는 간단하다. 아날로그 기기는 단 한 가지 기능만 수행했기 때문이다. 이후 초기 디지털 시대에 이르면 기술 발달로 기기의 크기가 비약적으로 줄어드는 동시에 하나의 기기에 여러 기능이 들어갔기에 기기에 조작 버튼을 많이 넣을 수 없는 상황이 되었다. 결국 버튼은 하나의 기능만 수행할 수 없어 여러 가지 기능이 들어가게 되었고, 기기와 사용자 간의 약속 혹은 논리성을 통해 조작하는 방식이 등장했다. 이것이 바로 UI(User Interface)의 본격적인 시작이다. 사실 우리 부모 세대가 스마트폰을 어려워하는 이유도 아날로그 시대와 디지털 시대의 UI가 전혀 다르기 때문이다. UI와 쉽게 혼동되곤 하는 UX(User Experience)는 기기를 조작하거나 사용하면서 사용자가 당면하게 되는 경험을 의미한다. 조작하면 소리를 내거나 화면이 작아져 사라지고, 다른 화면의 앞으로 나온다거나 하는 등의 효과가 이 영역이다.
실제로 버튼이나 다이얼로 조작하던 자동차에도 터치스크린 UI를 적용하기 시작했다. 문제는 자동차 환경의 특수성을 무시했다는 것이다. 기존 방식에서 에어컨의 온도를 낮추려면 시선을 아래로 내리지 않고 손을 뻗어 다이얼을 돌리면 된다. 반면 터치스크린은 차를 세우지 않는 한 시선을 옮기는 위험을 감수하면서 조작해야 한다. 이런 위험을 해결할 수 있는 방법은 의외로 가까이에 있다.











아날로그 시대의 기계들은 직관적이었다. 하나의 버튼이 하나의 기능만을 수행했다.

 

초기 디지털 시대의 총아였던 MP3 플레이어. 하나의 버튼으로 다양한 조작이 가능했다. UI가 본격적으로 시작된 시대였다.

현재 많은 기기가 터치스크린을 사용하고 있지만 최근 들어 조금씩 새로운 UI로의 이행이 감지되고 있다. 그중에 이미 우리가 사용하고 있는 것도 있으니 바로 음성인식이다. 자동차의 내비게이션은 꽤 오래전부터 음성으로 목적지를 검색할 수 있었다. 음성인식에서 한 단계 더 발전한 것이 애플의 Siri나 구글의 Google Now, 아마존의 Alexa 같은 음성 비서다. 원하는 것을 말하는 것만으로 바로 실행한다는 측면에서 논리성보다 아날로그 시대의 직관성에 기반을 둔 UI와 닮았다. 이 분야에서 가장 빠르게 움직이고 있는 것은 아마존. 이들은 이미 2014년 11월에 공개한 Echo(블루투스 스피커의 일종)에 탑재한 Alexa에 다양한 기능을 부여했다. 여러 사이트의 음악을 스트리밍해주기도 하고, 날씨를 알려주기도 한다. 최근에는 우버를 불러주고, 피자도 주문할 수 있다. 얼마 전부터는 아마존에서 필요한 물건을 구매해주는 기능도 생겼다. Alexa를 부르고 필요한 물건을 말하면 음성 비서가 할인 등의 구매 조건과 배송비를 포함한 총가격을 알려주는 형태다. 정말 편리한 기능이지만 문제는 사용자의 저항성이다. 공공장소처럼 사람들이 많은 곳에서 민감한 검색어를 말하긴 애매하다. 그래서 Siri나 Google Now를 쓰는 사람은 아직 많지 않다. 이런 상황을 감지하고 음성인식이나 음성 비서를 넘어 다른 방식을 연구하는 곳도 있다. 바로 뇌파 인식이다. 생각만 하면 기기가 이를 인식하고 해당 동작을 실행하는 방식이다.
수많은 회사가 뇌파 인식을 연구하고 있는데, 중국에서는 이미 뇌파를 이용해 드론은 물론이고 자동차 조종에 성공하기도 했다. 뇌파 인식이 더 발전하면 사지가 마비된 환자가 생각만으로 로봇 팔을 움직이는 것도 가능하다. 물론 이 역시 나름의 난관을 안고 있다. 아직 인식률이 100%에 미치지 못한다는 것이다. 실험 상황에서 인식률은 90% 후반대지만, 실제 상황과 일반적 환경에서의 인식률은 훨씬 떨어진다. 실제로 사용자가 큰 불편을 느끼지 않을 정도까지만 인식하면 되지만, 아직 그 정도 수준에 도달하지 못한 것이 흠이다.











구글의 Soli는 파장이 1mm〜1cm 수준인 밀리미터파 레이더를 이용해 사람의 미세한 손동작을 인식할 수 있다. 손가락을 문지르거나 튕기거나 흔드는 등의 동작을 기계가 구분해서 인식하도록 하는 프로젝트다.

그런가 하면 조금 과도기적인 UI도 있다. 말했듯이 음성인식이나 뇌파 인식은 아직 그 한계를 극복하지 못한 상황이다. 이런 문제를 해결하면서 나름의 성과를 내고 있는 기술이 바로 동작(제스처) 인식 기반의 UI다. 닌텐도 Wii를 기억하는가? Wii는 사용자의 움직임을 파악할 수 있는 센서가 붙은 리모컨을 이용해 게임 캐릭터를 조종할 수 있었다. 이후 MS는 카메라를 이용한 Kinect라는 장치를 선보였는데, 이는 리모컨 없이도 동작 인식이 가능했다. 이런 첨단 기술에서 구글이 빠질 수 없다. 구글은 Soli라는 이름의 동작 인식 컨트롤러를 선보였다. Soli는 레이저를 이용해 사용자 손의 움직임을 읽어내서 이를 반영하는 시스템이다. 레이저로 전파를 쏘고, 돌아오는 시간과 간격을 통해 움직임의 시간과 종류를 감지한다. 볼륨을 조정하려면 검지손가락에 엄지를 대고 좌우로 움직이거나 같은 상황에서 엄지손가락을 위아래로 움직이는 동작을 하면 다음 곡이 재생되는 식이다. Soli는 ‘인간은 모두 태어날 때부터 훌륭한 입력장치를 가지고 있다’는 스티브 잡스의 명제를 증명이라도 하듯 카메라에 비해 조금 더 세밀하게 움직임의 변화를 감지하고 다양한 형태의 움직임을 인식할 수 있다.
손가락의 움직임보다 조금 더 본질적인 움직임을 감지하는 장치도 있다. 탈믹(Thalmic)의 Myo는 손가락을 움직이는 근육에 집중했다. 이들이 근육에 집중한 것은 동작을 감지하는 데 근육을 이용하는 것이 가장 정확하며 인식률도 높기 때문이다. Myo는 실제 판매가 되었으며 전용 앱을 설치하면 파워포인트나 키노트 등을 팔이나 손가락의 움직임으로 컨트롤할 수 있다. 뭔가 새로운 사업을 기획하고 있는 이들에게는 꽤 유용한 장치일 것이다.
터치스크린 이후의 UI는 아직 정해지지 않았다. 물론 애플이 터치스크린을 본격화한 것처럼 거대 IT 기업의 행보 한 번으로 판도가 달라질 확률이 높긴 하다. 분명한 것은 지금까지 살펴본 것처럼 논리보다는 직관이 중심이 될 것이라는 점이다. 그때가 되면 노인들도 좀 더 편하게 새로운 기기를 사용할 수 있을 것이다.

 

에디터 이기원 (lkw@noblesse.com)
고진우(IT 칼럼니스트)  사진 제공 탈믹, 아이리버

관련 기사

페이지 처음으로