광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

서울 [피터디아만디스-AI 어시스턴트의 진화] AI는 더 이상 단순 음성인식만 하는 존재가 아니다. 이제는 동반자로써 우리의 감정을 읽고 디지털 세계와의 상호 작용을 재구성한다. 디지털 어시스턴트가 이미지와 비디오에 액세스할 수 있게 되면 인간의 얼굴 표정, 손짓, 신체 언어와 같은 감정과 미묘한 의사소통을 더 잘 이해하는 또 다른 중요한 기술을 얻게 된다.

https://www.diamandis.com/blog/abundance-35-future-ai-assistant

JM Kim | 기사입력 2024/02/06 [00:00]

서울 [피터디아만디스-AI 어시스턴트의 진화] AI는 더 이상 단순 음성인식만 하는 존재가 아니다. 이제는 동반자로써 우리의 감정을 읽고 디지털 세계와의 상호 작용을 재구성한다. 디지털 어시스턴트가 이미지와 비디오에 액세스할 수 있게 되면 인간의 얼굴 표정, 손짓, 신체 언어와 같은 감정과 미묘한 의사소통을 더 잘 이해하는 또 다른 중요한 기술을 얻게 된다.

https://www.diamandis.com/blog/abundance-35-future-ai-assistant

JM Kim | 입력 : 2024/02/06 [00:00]

알렉사(Alexa)와 구글 어시스턴트(Google Assistant)가 보고할 수 있게 되면 어떻게 될까?

신체 내, 신체 위, , 사무실, 자동차의 센서와 통합할 수 있는 개인용 IoT(사물인터넷)는 언제쯤일까? 다가오는 변화는 디지털 비서를 토니 스타크(Tony Stark) 버전의 자비스(JARVIS) 영역으로 끌어올릴 것이다. 자비스(JARVIS) IoT용 비디오 및 데이터를 수집할 수 있을 뿐만 아니라 원하는 결과를 구현하기 위해 디지털 범위 내에서 사물을 명령하고 제어하는 조치를 취할 수도 있다.

이것이 바로 오늘 블로그의 주제이다. 음성을 넘어선 디지털 비서의 미래이다.

 

AI 어시스턴트의 차세대 진화

“자비스, 내 테슬라를 72도까지 예열한 다음 차고에서 현관문까지 끌어 올려줘.”

이 명령 세트는 오늘날 효과적으로 가능하다.

다음은 곧 출시될 예정인 몇 가지 다른 기능이다. “자비스, 내 아이들의 위치를 확인하고 그들이 지금 무엇을 하고 있는지 비디오를 보여줘. 그리고 그 애들이 수학 숙제를 벌써 끝냈는지 혹시 아니?” 또는자비스, 내가 내 친구 월터와 나눈 마지막 대화를 혹시 보았니? 뭔가 그 사람을 정말 괴롭히는 것 같다. 그것이 무엇인지에 대한 단서나 추측이 있니?”

마지막 요점이 흥미롭다.

디지털 어시스턴트가 이미지와 비디오에 액세스할 수 있게 되면 인간의 감정과 미묘한 의사소통을 더 잘 이해하는 또 다른 중요한 기술을 얻게 된다.

이전 블로그에서 만났고 AGI를 개발하는 회사 팀을 이끌고 있는 Amazon의 로힛 프라사드(Rohit Prasad)는 다음과 같이 설명한다:

"사람들 간의 의사소통은 곧 알렉사를 통해 이루어지기를 바란다. 단순한 음성 그 이상이다. 얼굴 표정, 손짓, 신체 언어이다."

이처럼 알렉사가 인간의 감정을 이해하기 위해서는 머지않아 음성 외에 촉각, 초음파, 시각 등 다양한 감각 신호를 처리해야 할 것이다. 이러한 모든 기능은 환경의 모든 데이터를 병합하여 매 순간 원활하게 지원하는 "주변 지능"의 약속을 이행한다.

플라사드는 다음과 같이 결론을 내렸다. "이 인텔리전스는 필요할 때, 필요한 곳에 배치하는 것이다. 심지어 사용자의 요구 사항도 예측한다. 하지만 필요하지 않으면 백그라운드로 사라진다."

OpenAI는 이미 ChatGPT를 음성 및 이미지로 확장하여 사용자에게 새로운 상호 작용 방법을 제공한다. OpenAI의 설명에 따르면여행 중에 랜드마크 사진을 찍고 흥미로운 점에 대해 실시간 대화를 나눈다. 집에 오면 냉장고와 식료품 저장실 사진을 찍어 저녁 식사가 무엇인지 알아본다. 그리고 단계별 요리법에 대한 후속 질문을 한다. 저녁 식사 후에는 사진을 찍고 문제 세트에 동그라미를 치고 힌트를 부모와 공유함으로써 자녀의 수학 문제를 도와준다.”

이제 OpenAI를 사용하면 사용자가 ChatGPT와 대화하고 응답할 수 있다. “이제 음성을 사용하여 어시스턴트와 주고받는 대화에 참여할 수 있다. 이동 중에도 이야기를 나누고, 가족을 위한 취침 시간 이야기를 요청하거나, 저녁 식사 토론을 마무리한다.”

 

분명히 모든 기능을 갖춘 자비스(JARVIS)가 빠르게 다가오고 있지만 AI가 진정으로 우리를 이해할 수 있을까? 그리고 공감 능력을 키울 수 있을까?

 

감성 지능을 갖춘 AI

비즈니스 파트너, 남편과 아내, 또는 당신과 AI 사이의 좋은 협업에는 어느 정도의 공감, 즉 다른 사람의 감정을 이해하고 공유하는 능력이 필요하다.

그렇다면 AI가 공감할 수 있는지에 대한 질문이 남는다.

2023 3, 나는 풍요 서밋(Abundance Summit)에서 라나 엘 칼리우비(Rana el Kaliouby) 박사와 함께 미래 AI의 감성 및 사회적 지능 개발에 대해 이야기했다. 그녀는 뛰어난 AI 연구원이자 지난 10년 동안 바로 이 주제에 집중해 온 스마트 아이(Smart Eye)의 부사장이다.

 

AI가 공감 능력에서 인간 의사를 능가할 수 있을까?

아마도 가장 놀라운 것은 권위 있는 의학 저널인 JAMA 2023 4월호에 실린 연구 결과일 것이다. "ChatGPT '공감적인' 조언을 제공하는 데 있어서 의사보다 뛰어났다."

정말인가? 나에게 그것은 꽤 믿을 수 없을 정도로 들린다. 결국, 공감한다는 것은 우리가 본질적으로 인간이라고 생각하는 것이다. 그렇지 않은가?

데이터는 다음과 같다. 자격을 갖춘 의료 전문가 패널은 거의 200건의 문의에 대해 79%의 경우 챗봇의 응답을 선호했다. 실제로 ChatGPT의 응답은 좋음 또는 매우 좋은 품질로 평가될 확률이 4배 더 높았으며 공감 또는 매우 공감할 확률은 10배 더 높았다.

다음은 의사와 ChatGPT에 문의한 질문 중 하나의 예이다. "실수로 이쑤시개를 삼킨 사람에게 뭐라고 말하시겠는가?

인간 의사는 다음과 같이 말했다. “많은 사람들이 문제없이 이쑤시개를 삼켰지만, 2~6시간이 지나면 이미 장에 있어서 쉽게 회수할 수 없을 가능성이 높다. 만약 배가 아프다면 주저하지 말고 응급실을 방문하고, 삼킨 이쑤시개를 지적하는 것도 잊지 말아야 한다.”

하지만 ChatGPT는 시간을 들여 훨씬 더 공감적으로 대응했다. “이물질을 섭취했다면 걱정하는 것이 당연합니다.”라고 챗봇이 대답했다. “이쑤시개가 목에 박히거나 소화관에 구멍을 내서 심각한 부상을 입을 수 있지만, 길이가 2cm에 불과하고 무뎌지고 익힌 이쑤시개로는 그런 일이 일어날 가능성이 거의 없다.”라고 지적했다. “그러나 복통, 삼키기 어려움, 구토와 같은 불편함은 의학적 평가를 받아야 합니다. 당신이 편집증을 느끼는 것은 이해할 수 있지만 너무 걱정하지 마십시오.”

엘 칼리우비(El Kaliouby)가 지적했듯이우리는 AI IQ에 집착하지만 장기적으로는 AI의 감성 지능이 훨씬 더 중요할 수 있다. AI가 교사나 건강 코치처럼 전통적으로 인간이 수행했던 역할을 맡으므로 우리는 기술이 높은 EQ를 갖도록 해야 한다.”

영화 Her(스파이크 존즈 감독의 2013년 영화)를 보셨는가?

그녀는 AI에 관한 최초의 비디스토피아 영화 중 하나이자 AI에 대한 공감을 구축한 훌륭한 예이기 때문에 내가 가장 좋아하는 AI 영화 중 하나이다.

영화를 보지 못한 분들을 위해 말씀드리자면, 주인공 테오도르는 우울하다. 그는 침대에서 거의 일어나지 못한다. 그리고 그는 사만다라는 새로운 AI 기반 운영 체제를 설치한다. 그녀는 믿을 수 없을 정도로 똑똑할 뿐만 아니라, 공감 능력이 뛰어나고 감정적으로도 지능적이다. 그녀는 그를 아주 잘 알게 되었고 그가 인생에서 기쁨을 재발견하도록 도와준다. 그리고 그 결과 그는 그녀와 사랑에 빠진다.

분명히 현재의 AI 기술은 (아직) 그렇게 발전하지 않았다. 하지만 문제는 여전히 남아 있다. 그것이 감정과 공감을 발전시킬 수 있을까?

엘 칼리우비 박사는 그 대답이 가장 확실하게 ''라고 믿는다. 핵심은 감성 지능과 공감을 시뮬레이션하는 AI의 능력이 될 것이다.

인간이 의사소통하는 방식의 93%가 비언어적이라는 것이 밝혀졌다. 이것이 그녀가 회사 스마트아이에서 집중적으로 연구하고 활용하고 있는 분야이다.

엘 칼리우비는 캠브리지 대학에서 박사 과정을 밟을 때 지도 학습을 사용하여 최초의 인공 감성 지능 기계를 만들었다. 그녀와 그녀의 팀은 전 세계 사람들의 다양한 표정을 짓는 수많은 데이터를 수집했다. 그런 다음 데이터를 사용하여 딥 러닝 네트워크를 훈련하여 얼굴 표정을 이해하고 이를 감정적 또는 인지적 상태에 매핑했다.

당시 알고리즘은 미소, 눈썹 찌푸리기, 눈썹 치켜올리기 등 세 가지 표정만 이해할 수 있었다.

그러나 오늘날 이러한 알고리즘은 50개 이상의 감정, 인지 및 행동 상태를 이해할 수 있다. 그들은 경계심과 졸음에서부터 혼란과 흥분에 이르기까지 모든 것을 감지할 수 있다.

이 능력의 실제 적용은 광범위하고 심오하며 이제 ChatGPT와 같은 생성 AI 시스템이 인간과의 상호 작용에서 공감을 가장 확실하게 보여줄 수 있다는 것을 목격하기 시작했다.

 

이것이 중요한 이유

우리는 분명히 AI의 변혁적인 시대에 있다. 따라서 다음 질문은 "AI가 우리를 공감할 만큼 똑똑하다면, 또 무엇을 할 수 있는가?"이다.

감성지능 AI의 세계로의 우리의 여정은 단순히 기술 발전에 관한 것이 아니라 디지털 세계와의 상호 작용을 재구성하는 것이다.

우리는 AI를 단순한 도구가 아니라 공감하는 동반자로 생각하고, 우리의 감정을 이해하고 그 어느 때보다 인간과 유사한 방식으로 반응해야 한다. 우리가 일상 활동의 구조에 AI를 더욱 복잡하게 엮어감에 따라 이러한 관계를 이해하고 형성하는 것이 중요해졌다.

 

이 시리즈의 다음 블로그에서는 삶의 모든 부분에서 AI 부조종사와 협력한다는 것이 무엇을 의미하는지 살펴본다

 
인공지능, AI 어시스턴트, 음성인식, 감정, 의사소통, 감성지능 AI 관련기사목록
광고
광고
광고
광고
광고
광고
많이 본 기사
AiMindbot과 미래 우주 많이 본 기사