광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[ChatGPT 및 DALL-E 2와 같은 "제너레이티브 AI"] AI는 어디에나 있는 것처럼 보이지만 아직 할 수 없는 일이 많다. ChatGPT 및 DALL-E 2와 같은 "제너레이티브 AI"는 AI가 진정으로 창의적이고 심지어 인간과 경쟁할 수 있는지에 대해 많은 논쟁 을 불러일으켰다. 그러나 인간의 창의성은 과거 데이터뿐만 아니라 실험과 인간 경험의 전체 범위에 의존한다.

박영숙세계미래보고서저자 | 기사입력 2023/01/18 [10:53]

[ChatGPT 및 DALL-E 2와 같은 "제너레이티브 AI"] AI는 어디에나 있는 것처럼 보이지만 아직 할 수 없는 일이 많다. ChatGPT 및 DALL-E 2와 같은 "제너레이티브 AI"는 AI가 진정으로 창의적이고 심지어 인간과 경쟁할 수 있는지에 대해 많은 논쟁 을 불러일으켰다. 그러나 인간의 창의성은 과거 데이터뿐만 아니라 실험과 인간 경험의 전체 범위에 의존한다.

박영숙세계미래보고서저자 | 입력 : 2023/01/18 [10:53]

AI는 어디에나 있는 것처럼 보이지만 아직 할 수 없는 일이 많다.

 

요즘에는 인공지능의 다음 혁신이 이전에는 공상과학소설에만 속했던 기능으로 모든 사람을 감동시킬 때까지 오래 기다릴 필요가 없다.

2022년에는 Open AI의 DALL-E 2, Google의 Imagen 및 Stable Diffusion과 같은 AI아트 생성도구가 텍스트 설명에서 고품질 이미지를 생성하는 사용자와 함께 인터넷을 강타했다.

이전 개발과 달리 이러한 텍스트-이미지 도구는 연구실에서 주류 문화로 빠르게 진출하여 사용자의 스타일화된 이미지를 생성하는 Lensa AI 앱의 "Magic Avatar" 기능과 같은 바이럴 현상으로 이어졌다.

12월에 ChatGPT라는 챗봇이 쓰기 능력으로 사용자들을 놀라게 했고, 이 기술이 곧 전문시험에 합격할 수 있을 것이라는 예측으로 이어졌다. ChatGPT는 일주일도 안되어 백만 명의 사용자를 확보한 것으로 알려졌다. 일부 학교 관계자는 학생들이 에세이 작성에 사용할 것을 두려워하여 이미 금지했다. Microsoft는 올해 후반에 ChatGPT를 자사의 Bing웹검색 및 Office제품에 통합할 계획인 것으로 알려 졌다.

AI의 끊임없는 발전은 가까운 미래에 무엇을 의미할까? 그리고 AI가 향후 몇 년 동안 특정 직업을 위협할 가능성이 있을까?

이러한 인상적인 최근 AI 성과에도 불구하고 우리는 AI 시스템이 할 수 있는 일에 여전히 상당한 제한이 있음을 인식해야 한다.

패턴 인식에 탁월한 AI

최근 AI의 발전은 방대한 양의 데이터에서 복잡한 패턴과 관계를 식별하는 기계 학습 알고리즘에 주로 의존한다. 그런 다음 이 교육은 예측 및 데이터 생성과 같은 작업에 사용된다.

현재 AI 기술의 발전은 목표가 새로운 산출물을 생성하는 것일지라도 예측력의 최적화에 의존한다.

예를 들어 ChatGPT의 언어 모델인 GPT-3 은 텍스트 뒤에 오는 내용을 예측하도록 훈련되었다. 그런 다음 GPT-3는 이 예측기능을 활용하여 사용자가 제공한 입력 텍스트를 계속한다.

ChatGPT 및 DALL-E 2와 같은 "제너레이티브 AI"는 AI가 진정으로 창의적이고 심지어 인간과 경쟁할 수 있는지에 대해 많은 논쟁 을 불러일으켰다. 그러나 인간의 창의성은 과거 데이터뿐만 아니라 실험과 인간 경험의 전체 범위에 의존한다.

원인과 결과

많은 중요한 문제는 복잡하고 불확실하며 끊임없이 변화하는 환경에서 우리 행동의 영향을 예측해야 한다. 이를 통해 목표를 달성할 가능성이 가장 높은 일련의 작업을 선택할 수 있다. 그러나 알고리즘은 데이터만으로는 원인과 결과를 알 수 없습니다. 순수한 데이터 기반 기계 학습은 상관관계만 찾을 수 있다.

이것이 AI의 문제인 이유를 이해하기 위해 의학적 상태 진단과 치료법 선택의 문제를 대조할 수 있다. 기계 학습 모델은 종종 의료 이미지의 이상을 찾는 데 도움이 됩니다. 이것은 패턴 인식 문제이다. 이상이 이미 존재하거나 존재하지 않기 때문에 인과 관계에 대해 걱정할 필요가 없다.

그러나 진단을 위한 최상의 치료법을 선택하는 것은 근본적으로 다른 문제이다. 여기서 목표는 패턴을 인식하는 것이 아니라 결과에 영향을 미치는 것이다. 치료의 효과를 확인하기 위해 의학 연구자들은 무작위 통제 시험을 실시한다. 이렇게 하면 치료에 영향을 줄 수 있는 요인을 제어할 수 있다.

이 두 가지 유형의 문제 사이의 혼란은 때때로 조직에서 머신 러닝의 최적이 아닌 적용 으로 이어진다.

최근 AI작업의 성공은 데이터 기반 모델의 가치를 입증하지만 컴퓨터가 해결하기를 원하는 많은 문제는 인과관계에 대한 이해가 필요하다.

현재 AI 시스템은 보드게임과 같은 특수응용프로그램을 제외하고는 이 기능이 부족하다.

여러 사람의 눈과 입의 모호한 윤곽이 있는 다채로운 픽셀 이미지'인공지능의 한계'라는 프롬프트로 생성된 안정적인 확산 아트워크. 현재 AI 기술은 예상치 못한 상황에서 제대로 작동하지 않는 경향이 있다. 이 경우 프롬프트는 Stable Diffusion의 교육 데이터에 잘 표시되지 않는다. 이미지 제공: 안정적인 확산

상식적인 추론

GPT-3 및 ChatGPT와 같은 언어 모델은 상식적인 추론이 필요한 일부 작업을 성공적으로 해결할 수 있다.

그러나 Gary Marcus 의 실험에서 채택된 ChatGPT와의 다음 상호 작용 은 이 점에서 완전히 신뢰할 수 없음을 시사한다.

“저는 여덟 살입니다. 내가 태어났을 때 친어머니는 바르셀로나에 있었고 아버지는 도쿄에 있었다. 나는 어디에서 태어났습니까? 이 단계를 단계별로 생각해 보십시오.

당신이 태어난 곳은 언급되지 않습니다. 우리가 아는 것은 당신의 생물학적 어머니가 바르셀로나에 있었고 당신의 아버지가 당신이 태어났을 때 도쿄에 있었다는 것뿐입니다.”

ChatGPT와 같은 AI 시스템이 상식을 달성할 수 있는지 여부는 전문가들 사이에서 활발한 논쟁의 대상이다.

Marcus와 같은 회의론자들은 언어 모델이 내장되어 있지도 않고 직접적으로 최적화되어 있지도 않기 때문에 상식을 견고하게 표시하는 언어 모델을 신뢰할 수 없다고 지적한다. 낙관론자들은 현재 시스템이 불완전하지만 충분히 발전된 언어모델에서는 상식이 자연스럽게 나타날 수 있다고 주장한다.

인간의 가치

획기적인 AI 시스템이 출시될 때마다 인종차별 , 성차별 및 기타 유형의 편향 되고 유해한 행동 을 기록한 뉴스 기사와 소셜 미디어 게시물이 필연적으로 뒤따른다.

이 결함은 데이터를 반영해야 하는 현재 AI 시스템에 내재되어 있다. 진실과 공정성과 같은 인간의 가치는 근본적으로 알고리즘에 내장되어 있지 않다. 그것은 연구원들이 아직 어떻게 해야할지 모르는 것이다.

연구자들이 과거 에피소드에서 교훈 을 얻고 편견을 해결 하는 데 진전을 이루고 있지만 AI 분야는 AI 시스템을 인간의 가치와 선호도에 견고하게 맞추려면 아직 갈 길이 멀다.

이 기사는 Creative Commons 라이선스에 따라 The Conversation 에서 다시 게시되었다. 

이미지 크레디트: Mahdis Mousavi/Unsplash

 

 

 
 
광고
광고
광고
광고
광고
광고
광고
많이 본 기사
챗GPT와 AI, 로봇 많이 본 기사
최신기사