[구글, 공개 테스트용 AI 챗봇 공개] Google은 대화형 모델 LaMDA와 같은 최신 AI기술로 모든 사람에게 제한된 실습 경험을 제공하기 위해 AI Test Kitchen 모바일 앱을 공개했다.

2022-09-24     박영숙세계미래보고서저자

[구글, 공개 테스트용 AI 챗봇 공개]

 

 
Google은 LaMDA를 대중에게 공개하지만 공격적인 응답을 생성하는 것을 방지하기 위한 가드레일과 함께 출시한다.

 

Google은 대화형 모델 LaMDA와 같은 최신 AI기술로 모든 사람에게 제한된 실습 경험을 제공하기 위해 AI Test Kitchen 모바일 앱을 공개했다.

Google은 5월에 LaMDA(Language Model for Dialogue Applications)의 두 번째 버전과 함께 AI Test Kitchen을 발표했으며 이제 인간-컴퓨터 상호 작용의 미래라고 믿는 부분을 공개 테스트할 수 있게 되었다.

당시 구글 CEO 선데이 피차이(Sunday Pichai)는 AI 테스트 키친이 “LaMDA를 손에 쥐고 있다는 느낌을 주기 위한 것”이라고 말했다.

AI Test Kitchen은 일부 안전 레일과 함께 기술을 개발하려는 Google 계획의 일부입니다. AI Test Kitchen 대기자 명단에는 누구나 참여할 수 있다. 처음에는 미국의 소규모 그룹에서 사용할 수 있습니다. Android 앱은 지금 사용할 수 있으며 iOS 앱은 "앞으로 몇 주 안에" 출시될 예정이다.

가입하는 동안 사용자는 "이 데모와 상호 작용할 때 나 자신이나 다른 사람에 대한 개인 정보를 포함하지 않을 것"을 포함하여 몇 가지 사항에 동의해야 한다. 

Meta의 챗봇 AI 모델인 BlenderBot 3의 최근 공개 프리뷰와 유사하게 Google은 LaMDA의 초기 프리뷰에서 "정확하지 않거나 부적절한 콘텐츠가 표시될 수 있다"고 경고한다. Meta는 미국 거주자에게 BlenderBot 3을 공개하면서 챗봇이 자신이 봇이라는 사실을 '잊어버릴 수 있고' "우리가 자랑스러워하지 않는 말을 할 수" 있다고 경고했다.

두 회사는 2016년 마이크로소프트의 테이(Tay) 챗봇이 대중에게 불쾌한 정보를 제공한 후 AI가 때때로 정치적으로 올바르지 않은 것으로 보일 수 있다는 점을 인정하고 있다. 그리고 Meta와 마찬가지로 Google은 LaMDA가 부정확하고 공격적인 응답을 제공하지 않도록 "주요 안전 개선"을 거쳤다고 말한다.

그러나 메타와 달리 Google은 대중이 어떻게 소통할 수 있는지에 대한 경계를 설정하여 보다 제한적인 접근 방식을 취하는 것으로 보인다. 지금까지 Google은 LaMDA를 Google 직원에게만 공개했다. 이를 일반에 공개하면 Google이 응답 품질 개선 속도를 높일 수 있다.

구글은 AI 테스트 키친을 데모 세트로 출시할 예정이다. 첫 번째, 'Imagine it'은 장소의 이름을 지정하도록 하고 AI는 "당신의 상상력을 탐구하는" 경로를 제공한다. 

두 번째 'List it' 데모를 사용하면 LaMDA가 도움이 되는 하위 작업 목록으로 분해하려고 시도하는 '목표 또는 주제를 공유'할 수 있다.

세 번째 데모는 'Talk about it( Dogs edition )'으로, 가장 자유로운 범위의 테스트인 것처럼 보이지만 개 문제로 제한됩니다.  주제에서 벗어나려고 해도 주제를 유지하는 LaMDA의 능력”이라고 Google은 말한다.

LaMDA와 BlenderBot 3는 컴퓨터와 인간 간의 대화를 시뮬레이션하는 언어 모델에서 최고의 성능을 추구한다. 

LaMDA는 1,370억 개의 매개변수가 있는 대규모 언어 모델인 반면 Meta의 BlenderBot 3는 1,750억 개의 매개변수 "인터넷 및 장기 기억에 대한 액세스로 개방형 도메인 대화가 가능한 대화 모델"이다. 

구글의 내부 테스트는 AI의 안전성 향상에 초점을 맞췄다. 구글은 모델의 새로운 결함을 찾기 위해 적대적 테스트를 진행해 왔으며, 제한되지 않은 대중이 할 수 있는 방식으로 모델에 스트레스를 줄 수 있는 공격 전문가인 '레드 팀'을 모집했다고 밝혔다. Google Research의 Tris Warkentin과 Google Labs의 Josh Woodward에 따르면 그렇다. 

구글은 안전을 보장하고 AI가 부끄러운 말을 하지 않기를 원하지만 예측할 수 없는 인간의 말을 경험하기 위해 AI를 야생에 내보내는 이점도 있다. 꽤 딜레마. LaMDA가 지각이 있는지 의문을 제기한 한 Google 엔지니어와 달리 Google은 Microsoft의 Tay가 대중에게 노출되었을 때 겪었던 몇 가지 제한 사항을 강조한다. 

“모델은 정체성 용어 뒤에 숨겨진 의도를 오해할 수 있으며 양성 프롬프트와 적대적 프롬프트를 구별하는 데 어려움이 있기 때문에 사용할 때 응답을 생성하지 못하는 경우가 있다. 또한 훈련 데이터의 편견을 기반으로 해롭거나 유독한 반응을 생성하여 성별 또는 문화적 배경을 기반으로 사람들을 고정관념화하고 잘못 표현하는 응답을 생성할 수 있다. 이러한 영역과 그 이상은 계속해서 활발한 연구를 진행 중입니다.”라고 Warkentin과 Woodward는 말한다.

Google은 지금까지 추가한 보호 기능이 AI를 더 안전하게 만들었지만 위험을 제거하지는 못했다고 말한다. 보호에는 정책을 위반하는 단어나 구문 필터링이 포함된다. 혐오스럽거나 공격적이거나; 폭력적이거나 위험하거나 불법적이다.    

또한 사용자는 Google이 LaMDA 데모를 완료할 때 말한 내용을 삭제할 것이라고 기대해서는 안 된다.

"특정 데모를 사용하는 동안 내 데이터를 삭제할 수 있지만 데모를 종료하면 Google이 누가 제공했는지 알 수 없고 더 이상 삭제 요청을 수행할 수 없는 방식으로 데이터가 저장됩니다."

ZDnet.com