[AI 음성이 사용자를 매료시킬 수 있다고 우려] AI와 사람과 채팅하듯이 채팅하는 것은 잘못된 신뢰를 초래할 수 있으며 GPT-4o 음성의 높은 품질이 그 효과를 악화시킬 수 있다고 말했다.
AI 음성이 사용자를 매료시킬 수 있다고 우려
OpenAI는 인공 지능의 사실적인 음성 기능으로 인해 사람들이 인간 상호 작용을 희생하면서 봇과 유대감을 형성할 수 있다고 우려한다고 말한다. 샌프란시스코에 본사를 둔 이 회사는 문헌을 인용하여 AI와 사람과 채팅하듯이 채팅하는 것은 잘못된 신뢰를 초래할 수 있으며 GPT-4o 음성의 높은 품질이 그 효과를 악화시킬 수 있다고 말했다.
OpenAI는 목요일 AI의 ChatGPT-4o 버전에서 수행하고 있는 안전 작업에 대한 보고서에서 "의인화는 AI 모델과 같은 비인간 개체에 인간과 유사한 행동과 특성을 부여하는 것을 포함합니다. 이러한 위험은 모델과 보다 인간과 유사한 상호 작용을 촉진하는 GPT-4o의 오디오 기능으로 인해 높아질 수 있습니다."
OpenAI는 테스터들이 AI와 대화하는 것을 알아차렸다고 밝혔는데, 예를 들어 오늘이 함께 보낸 마지막 날이라고 큰 소리로 한탄하는 등 공유된 유대감을 암시하는 방식으로 말했다. 연구진은 이러한 개체들이 양성으로 보이지만 장기간에 걸쳐 어떻게 진화할 수 있는지 연구해야 한다고 밝혔다.
AI와의 사교는 또한 사용자가 인간과의 관계에 덜 능숙하거나 성향을 잃게 만들 수 있다고 OpenAI는 추측했다. 보고서는 "모델과의 확장된 상호작용은 사회적 규범에 영향을 미칠 수 있다"고 밝혔다.
"예를 들어, 우리 모델은 사용자가 언제든지 끼어들어 '마이크를 잡을' 수 있도록 하는 존중적인데, 이는 AI에게는 예상되지만 인간 상호 작용에서는 반규범적일 수 있습니다." OpenAI에 따르면 AI가 대화하는 동안 세부 사항을 기억하고 작업을 처리할 수 있는 능력은 사람들이 기술에 과도하게 의존하게 만들 수도 있다.
AI 표절 방지 탐지 플랫폼 카피리크스(Copyleaks)의 공동 창립자이자 CEO인 알론 야민(Alon Yamin)은 "챗GPT의 음성 모드에 대한 잠재적 의존성에 대한 OpenAI가 최근 공유한 우려는 많은 사람들이 이미 묻기 시작한 것을 나타낸다.
그는 AI가 실제 인간 상호 작용을 대체해서는 안 된다고 말했습니다.
그는 오픈AI가 자사의 AI의 음성 기능이 어떻게 사람들에게 감정적으로 애착을 갖게 할 수 있는지 추가로 테스트할 것이라고 밝혔다. ChatGPT-4o 음성 기능을 테스트하는 팀은 또한 거짓 정보를 반복하고 음모론을 생성하도록 유도할 수 있어 AI 모델이 그렇게 하도록 설득력 있게 지시할 수 있다는 우려가 제기되었다.
오픈AI는 지난 6월 배우 스칼렛 요한슨(Scarlett Johansson)이 최신 챗봇에서 그녀의 목소리와 매우 유사한 것을 사용한 것에 대해 사과해야 했고, 이로 인해 음성 복제 기술에 대한 스포트라이트가 쏟아졌다.
OpenAI는 그들이 사용한 목소리가 Johansson의 목소리라고 부인했지만, CEO Sam Altman이 소셜 미디어에서 "Her"라는 한 단어로 된 메시지로 새 모델을 표시함으로써 그들의 주장은 도움이 되지 않았다.
요한슨은 영화 "Her"에서 AI 캐릭터의 목소리를 맡았는데, 알트만은 이전에 이 기술에 관한 가장 좋아하는 영화라고 말한 바 있다. 2013년 영화에서 호아킨 피닉스는 사만다라는 AI 비서와 사랑에 빠지는 남자로 출연한다.
<저작권자 ⓒ ainet 무단전재 및 재배포 금지>
|
많이 본 기사
6
챗GPT와 AI, 로봇 많이 본 기사
최신기사
|