광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[인공지능 챗봇] 검색엔진은 우리 생활에 매우 중요한 부분이 되었다. 챗봇은 모든 주제에 대해 대화할 수 있도록 설계되었다. 챗봇은 언젠가 검색 엔진을 대체할 수 있게 된다. 하지만 검색을 위해 언어 모델을 사용하는 것이 더 많은 잘못된 정보와 양극화된 논쟁으로 이어질 수 있는 두려움도 존재한다. 이것은 끔찍한 생각이다. 인공지능이 대답가능한 쉬운 답이란 존재하지 않는다.

https://www.technologyreview.com/2022/03/29/1048439/chatbots-replace-search-engine-terrible-idea/

JM Kim | 기사입력 2022/03/31 [00:00]

[인공지능 챗봇] 검색엔진은 우리 생활에 매우 중요한 부분이 되었다. 챗봇은 모든 주제에 대해 대화할 수 있도록 설계되었다. 챗봇은 언젠가 검색 엔진을 대체할 수 있게 된다. 하지만 검색을 위해 언어 모델을 사용하는 것이 더 많은 잘못된 정보와 양극화된 논쟁으로 이어질 수 있는 두려움도 존재한다. 이것은 끔찍한 생각이다. 인공지능이 대답가능한 쉬운 답이란 존재하지 않는다.

https://www.technologyreview.com/2022/03/29/1048439/chatbots-replace-search-engine-terrible-idea/

JM Kim | 입력 : 2022/03/31 [00:00]

작년 Google I/O에서 새로운 위젯과 진행 중인 기술의 연례 쇼케이스에서 CEO Sundar Pichai는 회사의 "자연어 이해의 최신 돌파구" LaMDA라는 챗봇을 공개했다. 이 챗봇은 모든 주제에 대해 대화할 수 있도록 설계되었다.

 

그런 다음 그는 LaMDA가 명왕성에 대한 질문에 자연어로 답변하는 데모를 제공했다. 거래소는 정보를 얻을 수 있는 편리한 방법, 즉 검색의 대안을 선보였다. 검색 상자에 검색어를 입력한 후 결과를 나열하는 대신 LaMDA는 대화에 참여하여 왜소 행성의 역할을 수행했다.

 

(Pichai) 내가 방문하면 무엇을 볼지 말해줘

 

(LaMDA) 거대한 협곡, 일부 얼어붙은 빙산, 간헐천 및 일부 분화구를 볼 수 있다.

 

아름답게 들린다

 

나는 그것이 여행의 가치가 있다고 확신한다. , 날씨가 매우 추우므로 외투를 지참하셔야 한다.

 

LaMDA가 계속해서 몇 가지 오류를 범했지만 그것은 귀여웠다. 이를 뒷받침하는 AI 언어 모델은 아직 개발 중이라고 Pichai는 설명했다. Google은 아직 자사 제품에 LaMDA를 사용할 계획이 없다고 밝혔다. 그럼에도 불구하고 회사는 컴퓨터와 상호 작용하는 새로운 방법과 정보를 검색하는 새로운 방법을 모색하는 데 이 도구를 사용하고 있다. "LaMDA는 이미 명왕성과 수백만 개의 다른 주제에 대해 상당히 많이 이해하고 있다."라고 그는 말했다.

 

관련성 있고 정확한 정보를 이해하기 쉬운 한입 크기로 제공하는 모든 것을 알고 있는 AI의 비전은 기술 회사가 검색의 미래에 접근하는 방식을 형성하고 있다. 그리고 Siri Alexa와 같은 음성 비서의 등장으로 언어 모델은 일반적으로 물건을 찾는 데 필요한 기술이 되었다.

 

그러나 비평가들은 접근 방식이 잘못됐다고 주장하며 반발하기 시작했다. 컴퓨터에 질문을 하고 자연어로 답을 얻으면 합당하지 않은 권위의 겉치레 뒤에 복잡성을 숨길 수 있다. “우리는 우리가 할 수 있는 일에 너무 빠져 있었다. 검색 기술을 연구하는 워싱턴 대학의 치라그 샤(Chirag Shah)는 이렇게 말한다.

 

3 14 Shah와 그의 워싱턴 대학 동료 Emily M. Bender는 자연어 처리에서 전산 언어학과 윤리적 문제를 연구하는 그는 처리하도록 설계되지 않은 작업에 대해 언어 모델을 서둘러 수용하는 것으로 보이는 것을 비판하는 논문을 발표했다. 특히 그들은 검색을 위해 언어 모델을 사용하는 것이 더 많은 잘못된 정보와 양극화된 논쟁으로 이어질 수 있다고 두려워한다.

 

공동 저자인 벤더는 "스타트렉의 환상, 즉 질문할 수 있고 답만 주는 이 모든 것을 알고 있는 컴퓨터는 우리가 제공할 수 있는 것이지 우리가 필요로 하는 것이 아니다."라고 말한다. Timnit Gebru는 큰 언어 모델의 위험성을 강조했던 Google에서 강제 퇴출되었다.

 

그녀는 오늘날의 기술이 업무에 적합하지 않다는 것만이 아니다. “비전에 문제가 있는 것 같다.”라고 그녀는 말한다. "우리가 정보를 얻는 방법은 전문가에게 물어보고 알려주기만 하면 된다고 말하는 것은 유치하다."

 

Google은 이미 언어 모델을 사용하여 기존 검색 기술을 개선하여 사용자 쿼리를 보다 정확하게 해석할 수 있도록 지원한다. 그러나 일부에서는 언어 모델을 사용하여 검색이 수행되는 방식을 점검할 수 있다고 생각한다. LaMDA는 하나의 예일 뿐이다.

 

작년에 Google 연구원 Don Metzler와 그의 동료들은 검색이 사용자와 언어 모델 간의 양방향 대화로 재구성될 수 있으며 컴퓨터가 인간 전문가처럼 질문에 답할 수 있다고 제안했다. Google은 멀티태스킹 통합 모델(MUM)이라는 기술도 개발 중이다. 언어 모델을 기반으로 하여 다양한 소스의 정보를 모아 사용자의 쿼리에 응답하도록 설계되었다.

 

Google 검색 팀의 커뮤니케이션 관리자인 Jane Park "Google 검색과 같은 제품을 사람들에게 더 유용하게 만들기 때문에 언어 이해를 향상시키는 데 깊이 투자하고 있다."고 말한다. 그러나 그녀는 Google이 아직 이 새로운 연구를 제품으로 전환할 계획이 없다고 말했다.

 

생각 없는 모방

 

대형 AI 모델은 놀라운 현실감으로 자연어를 모방할 수 있다. 수백 권의 책과 인터넷의 많은 부분에 대해 훈련을 받은 그들은 방대한 양의 정보를 흡수하므로 생각이 통합한다. 여러 소스의 응답을 종합하고 정보를 쉽게 이해할 수 있는 문장으로 묶을 수 있는 일종의 검색 엔진으로 사용하지 않겠는가?

 

문제는 언어 모델이 생각 없는 모방이라는 점이다. 그들은 문장이나 대화에서 다음에 올 가능성이 가장 높은 단어나 구를 예측하는 데 놀라울 정도로 정확해질 수 있다. 그러나 그의 AI가 많은 주제를 "이해한다" Pichai의 캐주얼한 주장에도 불구하고, 언어 모델은 그들이 말하는 내용을 알지 못하며 그들의 단어가 전달하는 내용에 대해 추론할 수 없다.

 

이는 대화형 AI가 기계와의 교환에 대한 생각을 바꿀 수 있기 때문에 중요하다. Bender는 검색 쿼리를 상자에 입력하고 응답 목록을 얻는 것이 컴퓨터와 상호 작용하는 것과 같다고 말한다. 그러나 언어 모델에서는 다르다.

 

"대신 내가 기계와 대화를 하고 있다면 기계가 내 말을 이해한다는 은유가 있다."라고 그녀는 말한다. "그래서 나는 그 맥락에서 기계의 응답을 해석할 것이다."

 

Shah는 사용자가 검색 결과에 대해 무비판적인 신뢰를 하는 것을 이미 보고 있으며 "자연어 상호 작용이 이를 더욱 두드러지게 한다."라고 말한다.

 

AI를 사용하여 검색 쿼리에 대한 응답을 합성하고 패키지화하는 아이디어는 직접 답변 또는 스니펫(단일 답변 또는 검색 결과의 문서 링크 위에 표시된 짧은 발췌문)을 사용하는 것으로 시작된 추세의 일부이다. 이론적으로 이러한 정보를 사용하면 찾고 있는 정보를 한 눈에 볼 수 있으므로 더 긴 문서를 읽어서 직접 찾는 수고를 덜 수 있다.

 

Bender는 모든 경우에 질문-답변 교환에 언어 모델을 사용하는 것에 반대하지 않는다. 그녀는 주방에 Google 어시스턴트가 있어 레시피의 측정 단위를 변환하는 데 사용한다. 그녀는음성으로 정보에 접근하는 것이 매우 편리할 때가 있다.”라고 말한다.

 

그러나 Shah Bender는 작년에 Google "인도에서 가장 못생긴 언어는 무엇일까?"라는 질문에 응답했을 때 더 문제가 된 예를 보여준다. "대답은 인도 남부에서 약 4천만 명이 사용하는 언어인 칸나다어이다."

 

쉬운 답은 없다

 

여기에 딜레마가 있다. 직접적인 답변은 편리할 수 있지만 종종 정확하지 않거나 관련이 없거나 불쾌감을 주기도 한다. 그들은 현실 세계의 복잡성을 숨길 수 있다고 독일 바이마르에 있는 바우하우스 대학의 Benno Stein은 말한다.

 

2020년에 Stein과 그의 동료 라이프치히 대학의 Martin Potthast와 독일 Halle-Wittenberg Martin Luther 대학의 Matthias Hagen은 직접 답의 문제점을 강조한 논문을 발표했다. Matthias "대부분의 질문에 대한 답은 '상황에 따라 다르다'이다. "이것은 검색하는 사람에게 전달하기 어렵다."

 

Stein과 그의 동료들은 검색 기술이 검색 쿼리와 일치하는 문서 목록을 제공하는 것과 같은 기술을 통해 정보를 구성하고 필터링하는 것에서 질문에 대한 단일 답변의 형태로 권장 사항을 만드는 것으로 이동했다고 본다. 그리고 그들은 그것이 너무 먼 단계라고 생각한다.

 

다시 말하지만 문제는 기존 기술의 한계가 아니다. 완벽한 기술이 있어도 완벽한 답을 얻을 수는 없다고 Stein은 말한다.

 

Shah는 동의한다. 사람들에게 단일 답변을 제공하는 것은 문제가 될 수 있다. 그 정보의 출처와 그들 사이의 모든 불일치가 숨겨져 있기 때문이다.

 

Shah Bender는 예상되는 문제에 대한 여러 가지 솔루션을 제안한다. 일반적으로 검색 기술은 오늘날 사람들이 검색 엔진을 사용하는 다양한 방식을 지원해야 하며, 그 중 많은 부분이 직접적인 답변을 제공하지 않는다. 사람들은 종종 검색을 사용하여 특정 질문이 없을 수도 있는 주제를 탐색한다고 Shah는 말한다. 이 경우 단순히 문서 목록을 제공하는 것이 더 유용할 것이다.

 

특히 AI가 둘 이상의 소스에서 조각을 그리는 경우 정보의 출처가 명확해야 한다. 일부 음성 비서는 이미 이렇게 하고 있다. 예를 들어 "여기에 내가 Wikipedia에서 찾은 내용이 있다."라는 답변이 있다. Shah는 미래의 검색 도구에도 "바보 같은 질문이다."라고 말할 수 있어야 한다. 이것은 기술이 쿼리에서 공격적이거나 편향된 전제를 앵무새로 만드는 것을 방지하는 데 도움이 된다.

 

Stein AI 기반 검색 엔진이 다양한 관점의 장단점을 제시하여 답변에 대한 이유를 제시할 수 있다고 제안한다.

 

그러나 이러한 제안 중 많은 부분은 Stein과 그의 동료들이 확인한 딜레마를 단순히 강조한다. 편의성을 줄이는 것은 대부분의 사용자에게 덜 매력적이다. "Google 결과의 두 번째 페이지를 클릭하지 않으면 다른 주장을 읽고 싶지 않을 것이다."라고 Stein은 말한다.

 

Google은 이러한 연구원들이 제기하는 많은 문제를 알고 있으며 사람들이 유용하다고 생각하는 기술을 개발하기 위해 열심히 노력하고 있다고 말한다. 그러나 Google은 수십억 달러 서비스의 개발자이다. 궁극적으로 가장 많은 사람들을 끌어들이는 도구를 만들 것이다.

 

Stein은 모든 것이 편의성에 달려 있지 않기를 바란다. "검색은 우리와 사회에 매우 중요하다."라고 그는 말한다.

 

 
인공지능, 챗봇, 검색엔진 관련기사목록
광고
광고
광고
광고
광고
광고
광고
많이 본 기사