CLI와 CUI: 챗봇은 미래일까 과거일까

CLI와 CUI: 챗봇은 미래일까 과거일까

Summary:

오늘은 챗봇!


대화형의 두 축

대화형 인터페이스는 사용자가 사람의 언어, 즉 자연어를 사용하여 기계와 상호작용할 수 있게 해주는 인터페이스를 말한다. 대화형 인터페이스는 크게 두 가지 유형으로 나뉘는데 화면이 없는 음성 대화형(스마트 스피커)과 메신저 형태의 텍스트 대화형(챗봇)이 있다. 오늘은 챗봇에 대한 궁금증을 풀어보고자 한다.

대화형 두 갈래 음성, 채팅


챗봇이 새로워보이지 않았다

여느 트렌드 리포트, 컨퍼런스에서나 챗봇이 새로운 혁신이라 떠들었지만 내 눈엔 새로워 보이지 않았다. 챗봇이라고 이름붙인 서비스들이 챗봇의 탈을 쓴 터치 인터페이스라고 생각했다.

내 기준에는 사용자가 어떻게 말하든 자연어를 이해할 수 있어야 챗봇이라 말할 수 있다. 그러나 대부분 상용화된 챗봇은 사용자가 말하는 방식에 제약이 있었다. 챗봇이 말하라는 것만 말해야 하고 심지어는 텍스트 입력 없이 3~5개 보기 중에 터치하여 챗봇과 상호작용해야 한다.

챗봇이 알고 있는 문법, 정해진 시나리오로만 말해야 하는 건 명령어 인터페이스(CLI)이고 객관식 보기 중 선택하는 건 이건 터치 인터페이스가 아닐까? 정해진 프로세스를 조금이라도 벗어나면 도통 알아듣질 못하는 게 답답했다. 또 미리 준비된 대답만 하는 챗봇이 GUI에서 발전한 게 아니라 GUI보다 사용성이 떨어진다는 생각이 들었다.

챗봇인듯 챗봇아닌 터치 방식의 챗봇

음성 인터페이스는 화면이 없기에 특별하지만 챗봇은 기존 화면을 유지하면서 UI 배치만 바뀌었다는 점에서 CLI로의 회귀는 아닐까 의심스러웠다. 몇몇 챗봇 회의론자는 Why chatbots will never be popular와 같은 주장을 하기도 했다.

진짜 챗봇이 CLI랑 별다를 게 없을까? 왜 챗봇은 미래 트렌드에 항상 등장할까? 챗봇이 유용할까? 자연스럽게 말해서 컴퓨터가 알아듣는 것은 영영 불가능일까? 그렇다면 애초에 터치 인터페이스를 잘 구성하면 더 낫지 않을까?


CLI부터 CUI까지

인간과 컴퓨터는 다른 언어를 사용한다. 둘 사이의 상호작용을 위해 우리는 인간과 기계를 연결해주는 매개체를 사용해왔다. CUI, GUI 할 때 I(Interface)가 그 매개체를 의미한다.

인터페이스의 정의는 ‘사물 간 또는 사물과 인간이 만나는 경계면’인데, 컴퓨터와 인간을 연결하여 인간이 쉽게 컴퓨터를 사용할 수 있도록 하는 장치다. 명령어 인터페이스(Command Line Interface, CLI), 그래픽 사용자 인터페이스(Graphical User Interface, GUI) 등 종류가 다양하다.

CLI부터 CUI까지

CLI

컴퓨터가 등장한 초기엔 CLI(Command Line Interface)로 컴퓨터와 대화했다. CLI는 키보드로 명령어를 써서 컴퓨터와 대화하는 방식을 말한다. CUI(Character User Interface)라고도 불린다. 컴퓨터가 이해 가능한 규칙과 문법대로 말해야 기능을 수행할 수 있기에 사용자는 컴퓨터가 하는 말을 이해하려 노력했다.

한 글자라도 틀리면 컴퓨터는 알아듣지 못한다. 명령어를 잘못 입력하면 syntax error라는 응답이 나오는데 컴퓨터가 “무슨 말이야? 못 알아들었어.”라고 말하는 것과 같다. 지금도 리눅스 환경에선 CLI로 컴퓨터와 대화한다. 그림이 없이 까만 화면에 흰색 글자 뿐이라 불친절해보이지만 익숙해지기만 하면 CLI가 기능을 빨리 수행하는 데 최고다.

GUI와 TUI

CLI에서 발전한 인터페이스가 GUI(Graphical User Interface)다. 1980년대에 처음 등장한 GUI 환경에선 마우스 클릭으로 화면을 조작한다. 그래픽, 그림이 있으니까 사전지식이 없는 초보자도 기능 수행에 큰 지장이 없다. 사용자가 직관적으로 컴퓨터에게 명령하고 기능을 수행할 수 있으며 전체 요소들이 눈에 잘 띈다.

터미널(CLI 기반)이나 소스트리(GUI 기반)로 깃허브 코드를 관리할 수 있다

관점에 따라 GUI에서 TUI(Touch User Interface)를 분리시키기도 한다. TUI는 GUI처럼 그래픽 기반 인터페이스이지만 사용자가 마우스 입력장치를 사용하지 않고 손가락으로 터치한다. 2000년 말 스마트폰이 보편화되기 시작하면서 터치 인터페이스의 인기가 급상승했다.

모바일 기기는 PC보다 화면이 제한적이고 이동 중 또는 바깥에서 사용 비중이 높다. TUI 시대에선 작은 화면과 이동성에 적합한 인터페이스를 새로 구상해야 한다는 의견이 거세졌고 그에 따라 모바일에서 필요하지 않은 기능이 숨겨지고 뎁스 위계가 얕아졌다.

네이버 PC와 모바일 버전

CUI

GUI, TUI를 사용했을 땐 비교적 동시에 많은 옵션을 표시할 수 있었다. 스크롤, 스와이프 등으로 화면을 다양하게 활용할 수 있고 사용자가 어떤 작업을 수행하고 있는지 바로 눈으로 확인이 가능했다.

하지만 CUI(Conversational User Interface)로 넘어오면서 사용 가능한 옵션을 모두 보여주는 건 사용성이 떨어진다는 지적을 받게 된다. 덜어내기가 중요해졌다. 사람들이 자연스레 대화하는 방식에 착안하여 사용자가 정보를 필요로 하는 바로 그 시점에 적절한 양의 정보를 제공하기 위한 움직임이 시작됐다.

한 화면에서 많은 필드를 편집할 수 있었던 GUI에 비해 CUI는 순차적인 단계를 거쳐 입력한다

대화형 인터페이스 중에서도 화면은 그대로 존재하되 채팅 형태로 기계와 상호작용하는 챗봇이 있는가 하면, 화면 없이 목소리만으로 의사소통하는 경우를 VUI(Voice User Interface)로 분리하여 부르기도 한다. 둘다 정말 필요한 옵션만 우선적으로 보여주고 정보를 간략하게 전달해 사용자의 혼란이나 과부하를 줄여주는 것이 큰 목표다.

CUI는 시스템을 작동시키기 위해 아이콘을 클릭하는 대신 사람의 언어로 시스템에게 말을 건다. 의사결정나무처럼 사람과 컴퓨터의 대화를 통해 단계적으로 목표를 달성하는 식이다. 마찬가지로 텍스트로 상호작용했던 CLI가 떠오를 수도 있지만 CUI는 CLI와 비슷한 듯 다르다.

CLI 환경은 컴퓨터 위주의 세계였고 우리는 기계와 비인간적인 언어로 소통했다. 컴퓨터가 말을 알아듣지 못하면 사용자가 컴퓨터의 입맛에 맞게 말을 바꾸고 컴퓨터를 이해하려 애썼다. 그러나 CUI에선 사람이 맘대로 말해도 컴퓨터가 알아들어야 하는 분위기다. 역으로 컴퓨터가 인간이 말하고 듣는 방법을 배운다.

즉, dos 명령문으로 대화할 땐 우리가 말을 어떻게 해야 할 지에 대해 고민했다면 CUI에선 입장이 바뀐다. 지금 당장은 우리의 언어를 컴퓨터가 완전히 이해하지 못해 발생하는 오류로 CLI와 별다를 게 없어 보이기도 하지만, 자연어 기술이 과도기에 있기 때문에 나타나는 잡음에 불과하다.


마음을 열자

챗봇도 계속 나아지고 있다. 아래 그림은 프로덕트 디자이너 Isil Uzum가 스카이스캐너 챗봇에 여러 명의 동시 대화, 함께 결제 서비스를 추가하여 제작한 프로토타입이다. 몇 번의 문답보다 터치가 더 빠른 요소들은 GUI를 적절히 혼용하여 텍스트 입력창을 효율적으로 활용했다. 기존 UI의 불편도 채팅 방식으로 보완했다.

스카이스캐너의 챗봇

인터넷 쇼핑도 단계적 의사결정이 중요한 분야 중 하나다. Isil Uzum은 친구와 문자 중에 챗봇을 불러들이고 증강현실, 화상 통화를 결합하여 대화형 커머스 경험을 향상시켰다.

지금까지의 챗봇 서비스가 그래왔듯 대화창에서 나와 챗봇이 1:1로 말하는 것만 챗봇이라고 생각하는 것은 오산이다. 쇼핑의 각 단계별로 여러 봇이 함께 작업하여 필요에 따라 서로 작업을 전달할 수도 있고, 사람들의 그룹대화 중에 챗봇이 등장해 문제해결을 도울 수도 있다. 이렇게 되면 사용자가 무언가 사야겠다고 생각한 순간부터 수취 확인까지 끊김 없는 경험 제공이 가능하다.

채팅하면서 선글라스 구매하기

그 외에도 RAN이라는 솔루션도 등장했다. 현재 대부분 챗봇은 한 번 뱉은 말을 수정하기 위해 첫 단계로 돌아가서 같은 단계를 반복해야 하는 피곤함이 있었다. RAN은 챗봇과 대화 중 마음이 바뀌면 언제나 중간 선택만 바꿀 수 있도록 돕는다.


인간 중심 인터페이스로의 변화

대화형 커머스는 우리의 모바일 기기 사용 방식을 바꿀 것이다. CUI가 GUI의 기존 시각적 경험을 완전히 대체하기 어렵다 할지라도 대화형 인터페이스로 기존 경험을 확장하는 건 충분히 가능하다. 두뇌는 비주얼 인터페이스를 통한 상호작용보다 대화를 통한 상호작용을 더욱 잘 받아들인다. 자연어를 이용한 대화가 사람들에게 자연스러운 상호작용 방식임은 분명하다.

자연어 처리, 인공지능 기술이 발전하면서 우리와 기계와의 상호작용은 더욱 직관적이고 접근하기 쉽고 효율적이 될 것이다. 그게 구체적으로 어떤 방향으로 전개될 지 아직 섣불리 알 수 없지만 대화형이 얼마나 더 나은 세상으로 이끌지, 우리를 어떻게 변화시킬지 기대된다.


Hyeyeon

A Blog about E-Commerce and Product Management

comments powered by Disqus

    rss facebook twitter github youtube mail spotify instagram linkedin google google-plus pinterest medium vimeo stackoverflow reddit quora