IT기기를 쓰다가 자신도 모르게 기계에 대고 말을 하는 일이 종종 있지 않나요? 내비게이션을 보면서, 컴퓨터를 하면서, 혹은 게임을 즐기다 이야기하고, 때로는 하소연이나 짜증을 낼 때도 있죠. 감정이 없는 기계와 대화하는 자신을 보며 멋쩍기도 했을 텐데 조만간 이 모습들을 자연스럽게 여길지도 모르겠습니다. 바로 ‘감성 컴퓨팅(Affective Computing) 때문인데요. 스마트함을 넘어 우리의 감정까지 헤아리는 ‘감성 컴퓨팅’의 이야기를 지금 함께 만나보시죠!

 

 

감성 컴퓨팅이란?

 

피곤한 상태에서 차를 운전하고 있을 때 자동차가 알아서 기분 좋은 음악을 틀어주면 어떨까요? 집에 막 들어왔을 때 조명이 그날의 기분을 파악하고 알아서 밝기를 조절해준다면요? 감성 컴퓨팅은 이처럼 우리의 감성을 인지, 해석, 처리할 수 있는 시스템을 설계하는 것으로, 이와 관련된 인공지능을 연구하고 개발하는 분야를 말합니다.

 

Love And Affection Heart Graphic Concept

 

감성 컴퓨팅은 1995년 매사추세츠공과대(MIT)의 로잘린드 피카드(Rosalind Picard) 박사가 최초로 제안한 것인데요. 인간의 감성을 과학적으로 분석해서 제품 개발이나 설계에 반영하는 것이 감성공학이라면, 감성 컴퓨팅은 인간의 감성을 이해하는 기기나 시스템이 우리와 어떻게 의사소통을 할 것인가를 연구하는 분야라고 할 수 있죠.

 

감성 컴퓨팅의 핵심은 인공지능(Artificial Intelligence)이지만 인공지능보다 훨씬 더 넓은 분야를 다룹니다. 인간끼리도 제대로 파악하기 힘든 인간의 감정을 다루기 때문이죠. 우리가 소위 말하는 ‘느낌적 느낌’을 이해하는 컴퓨터를 만든다는 건 간단한 일이 아닐 것입니다.

 

 

감정의 빅데이터를 활용한 감성 컴퓨팅

 

이 분야를 제대로 연구하기 위해서는 우선 인간의 감성에 대한 심리학적 지식이 필요합니다. 이지식이 갖추어져야 컴퓨팅 시스템에 감성을 적용할 수 있을 테니까요. 인간의 감정은 표정, 목소리, 몸짓 등의 생리적 신호를 통해 표출되는데요.

 

fotolia_96811448_subscription_monthly_m

 

표정 연구에 관한 대가로는 미국심리학회가 선정한 ‘20세기 가장 영향력 있는 심리학자’로 선정되기도 한 폴 에크만(Paul Ekman) 박사를 꼽을 수 있습니다. 에크만 박사에 따르면 인간의 감정은 1초도 안 되는 짧은 시간에 나타나며, 미세 표정을 분석하면 분노·공포·슬픔·혐오·경멸·놀람·행복의 감정들을 알아낼 수 있다고 합니다.

 

현재 감성 컴퓨팅 분야에서 주목 받고 있는 기업들은 에크만 박사의 방법론을 빅데이터 기술로 구현했다고 볼 수 있는데요. 그 동안 축적되어온 심리학적 지식이 빅데이터와 결합하면서 감성 컴퓨팅에 제대로 활용되기 시작한 것입니다. 컴퓨터가 대량으로 확보된 표정 사진으로 끊임없는 학습을 하여 사람의 감정을 인식하게 된 것이죠. 개개인의 얼굴은 물론, 눈·코·입술 등의 모양까지 세세하게 구분할 수 있는 기술의 발전도 한 몫을 했답니다.

 

 

감성 컴퓨팅의 다양한 활용 사례

 

감성 컴퓨팅 기술은 조금씩 실제 생활에 적용되고 있는데요. 그 활용 사례들을 간단히 살펴보겠습니다.

 

1. 아스퍼거 증후군 환자들을 위한 MACH(My Automated Conversation coacH)

 

▲ 사람들과의 사회적 접촉을 돕는 MACH (출처: MIT Youtube)

 

먼저, MIT에서 개발한 컴퓨터 코치 MACH(My Automated Conversation coacH)를 꼽을 수 있습니다. MACH는 얼굴, 음성, 몸짓 등을 종합적으로 분석해 면접 등의 자리에서 적절한 행동에 대한 코치를 해주는 시스템인데요. 대중 앞에 나설 때 사람들과 눈을 마주치지 못하는 등 사회적 신호에 적절히 반응하지 못하는 아스퍼거 증후군(Asperger syndrome)의 환자들을 위해 개발되었다고 합니다.

 

미소는 적절하게 지었는지, eye contact은 괜찮았는지, 목소리의 강약은 적당했는지 등을 관찰해 문제점을 지적해 주는데요. 컴퓨터에게 인간관계에 대한 조언을 듣는다는 것이 아이러니할 수는 있지만, 오히려 컴퓨터이기에 불편함 없이 받아들일 수 있는 것이죠.

 

 

2. 기업 마케팅에 활용되는 감정 분석 소프트웨어

 

▲ 표정으로 감정 분석을 하는 어펙티바 SW (출처: Affectiva Youtube)

 

감성 컴퓨팅 관련 서비스로 유명한 회사를 들자면 어펙티바(Affectiva)가 있습니다. 감성 컴퓨팅의 어머니로 불리는 MIT의 로잘린드 피카드(Rosalind Picard) 박사가 창립한 회사인데요. 어펙티바가 개발한 감정을 분석하는 소프트웨어를 통해 외부 장치 없이 오로지 웹캠만으로 사용자가 특정 기업 브랜드나 광고에 대해 어떤 감정적 반응을 보이는지를 측정할 수 있습니다. 실제로 이 서비스를 통해 축적된 결과는 기업의 마케팅을 위한 데이터로 활용되고 있답니다.

 

 

3. 스마트폰 사용 패턴을 분석하는 진저아이오

 

스마트폰 사용 패턴을 분석하는 차세대 원격 의료 시스템, 진저아이오(Ginger.io)라는 서비스도 있는데요. 우울증과 분노장애 환자들의 기분 변화 상태를 파악해 의료진에 정보를 제공하는 맞춤형 정신건강 관리 시스템입니다. 통화, 앱 사용 등 스마트폰 이용 시에 발생되는 행동 데이터들을 분석해 사용자의 정신 건강 상태를 관리해 준답니다.

▲ 스마트폰 이용 패턴으로 감정상태를 파악하는 진저아이오(출처: Ginger.io 홈페이지)

▲ 스마트폰 이용 패턴으로 감정상태를 파악하는 진저아이오(출처: Ginger.io 홈페이지)

 

보통 우울하거나 무기력해지면 주변 사람들과의 연락을 꺼리게 되는데요. 이렇듯 감정에 따른 스마트폰 사용 패턴을 정신 건강의 단서로 활용합니다. 이렇게 측정한 데이터를 바탕으로 앞으로 사용자에게 벌어질 일을 예측해 적절히 대응할 수 있는데요. 이미 수천 명에 달하는 환자가 진저아이오를 사용하고 있다고 합니다.

 

 

감성 컴퓨팅의 발전을 위해 풀어야 할 과제

 

감성 컴퓨팅의 발전 가능성은 무궁무진하긴 하지만 이제 겨우 첫 발을 내디뎠을 뿐입니다. 무엇보다 컴퓨터가 복잡미묘한 사람의 마음을 어디까지 이해할 수 있을 것인가에 대한 문제인데요.

 

fotolia_111368046_subscription_monthly_m-1

 

기계가 아닌, 사람끼리의 커뮤니케이션 과정에서도 종종 오해가 발생할 수 있는데, 기계가 인간의 감정을 완벽히 이해하기는 어렵겠죠. 정확하고 즉각적인 반응을 원하는 사용자들에겐 아직 미흡한 점이 많을 것입니다.

 

아울러 요즘 많은 이슈가 되고 있는 개인의 프라이버시와 보안 문제도 해결해야 할 과제인데요. 감성 컴퓨팅에서도 역시 중요하게 거론되어야 할 부분이죠. 자신의 감정이나 감성을 분석한 데이터가 언제 어떻게 사용되고 어디에 저장되는 것인지는 매우 민감한 부분이기 때문입니다. 따라서 다른 목적으로 사용되는 경우를 막기 위한 보안 방지책도 함께 고민해야 할 것입니다.


이처럼 아직 해결해야 할 과제가 많지만, 기계와 감정을 공유하고 대화를 할 수 있는 감성 컴퓨팅이 상당히 매력적인 것은 분명합니다. 사람이 아닌 기계와 따뜻한 대화를 나누게 된다면 우리 에게 어떤 일이 벌어질까요? 영화 <Her>처럼 인공지능과 사랑에 빠질 수도 있을까요? 머지 않은 미래에 그 답을 확인할 수 있을 것 같습니다. :D