광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[ChatGPT-인간지능과의 유사점 및 차이점] 예측 학습 모델은 수십 년 동안 사용되어 왔지만 ChatGPT의 새로운 점은 훨씬 더 많은 양의 데이터에 액세스할 수 있는 학습 방식이다. 이를 통해 패턴을 선택할 수 있으며 매우 사실적으로 들리는 기사, 이야기, 시, 대화, 희곡 등을 생성할 수 있음을 의미한다. 컴퓨터 두뇌와 인간 두뇌가 새로운 정보를 학습하고 작업을 수행하는 데 사용하는 방식에는 많은 유사점이 있는 것으로 보인다. 그러나 ChatGPT와 같은 애플리케이션은 안정적인 상태의 시스템이므로 오프라인에서 지속적으로 개선될 수 있지만 실시간으로 발전하지는 않는다.

JM Kim | 기사입력 2023/02/24 [00:00]

[ChatGPT-인간지능과의 유사점 및 차이점] 예측 학습 모델은 수십 년 동안 사용되어 왔지만 ChatGPT의 새로운 점은 훨씬 더 많은 양의 데이터에 액세스할 수 있는 학습 방식이다. 이를 통해 패턴을 선택할 수 있으며 매우 사실적으로 들리는 기사, 이야기, 시, 대화, 희곡 등을 생성할 수 있음을 의미한다. 컴퓨터 두뇌와 인간 두뇌가 새로운 정보를 학습하고 작업을 수행하는 데 사용하는 방식에는 많은 유사점이 있는 것으로 보인다. 그러나 ChatGPT와 같은 애플리케이션은 안정적인 상태의 시스템이므로 오프라인에서 지속적으로 개선될 수 있지만 실시간으로 발전하지는 않는다.

JM Kim | 입력 : 2023/02/24 [00:00]

ChatGPT가 사람처럼 들리면 사람처럼 배운다는 뜻인가? 그리고 컴퓨터의 뇌는 인간의 뇌와 얼마나 비슷할까?

 

OpenAI가 개발한 새로운 기술인 ChatGPT는 인간의 의사소통을 흉내내는 데 매우 능숙하여 곧 전 세계와 그 안의 모든 직업을 장악할 것이다. 또는 적어도 그것이 헤드라인이 세상을 믿게 할 것이다.

 

브라운대학교의 카니 뇌 과학 연구소가 주최한 2 8일 대화에서 서로 다른 연구 분야의 두 명의 브라운 학자가 인공지능과 인간지능의 유사점에 대해 논의했다. ChatGPT의 신경 과학에 대한 토론은 참석자들에게 머신러닝 모델의 후드 아래를 엿볼 수 있는 기회를 제공했다.

 

Ellie Pavlick Google AI의 컴퓨터 과학 조교수이자 연구 과학자로서 언어가 작동하는 방식과 인간이 하는 방식으로 컴퓨터가 언어를 이해하도록 하는 방법을 연구한다.

 

Thomas Serre는 생물학적 시각과 인공 시각의 교차점에 중점을 두고 시각적 인식을 지원하는 신경 계산을 연구하는 인지, 언어, 심리 과학 및 컴퓨터 과학 교수이다. 사회자로 참석한 사람은 각각 카니 뇌 과학 연구소의 이사와 Diane Lipscombe 부소장과 Christopher Moore였다.

 

Pavlick Serre는 인간의 두뇌와 관련하여 ChatGPT가 어떻게 기능하는지, 그리고 기술이 할 수 있는 것과 할 수 없는 것이 무엇인지에 대해 보완적인 설명을 제공했다. 새로운 기술에 대한 모든 수다에도 불구하고 모델은 그렇게 복잡하지 않으며 새롭지도 않다고 Pavlick은 말했다. 그녀는 가장 기본적인 수준에서 ChatGPT는 문장의 다음 단어와 다음 단어 등을 예측하도록 설계된 기계 학습 모델이라고 설명했다.

 

이러한 유형의 예측 학습 모델은 수십 년 동안 존재해 왔다고 자연어 처리 전문인 Pavlick은 말했다. 컴퓨터 과학자들은 이러한 행동을 보이고 자연어로 인간과 대화할 수 있는 모델을 구축하기 위해 오랫동안 노력해 왔다. 이를 위해 모델은 지나치게 복잡한 아이디어를 "추리"할 수 있는 기존 컴퓨팅 구성 요소의 데이터베이스에 액세스해야 한다.

 

새로운 것은 ChatGPT가 훈련 또는 개발되는 방식이다. Pavlick이 말했듯이 "인터넷에 있는 모든 문장"은 헤아릴 수 없을 정도로 많은 양의 데이터에 액세스할 수 있다.

"ChatGPT 자체는 변곡점이 아니다."라고 Pavlick은 말했다. “변곡점은 지난 5년 동안 언젠가는 근본적으로 동일하지만 더 커진 빌딩 모델이 증가했다는 것이다. 그리고 점점 더 커질수록 성능이 향상된다.”

 

또한 새로운 점은 ChatGPT와 경쟁업체를 무료로 공개적으로 사용할 수 있다는 것이다. Pavlick 1년 전만 해도 ChatGPT와 같은 시스템과 상호 작용하려면 특정 권한이 있는 학생, 교수진 및 직원만 사용할 수 있는 특수 도구인 브라운대학교의 컴퓨팅 그리드와 같은 시스템에 액세스할 수 있어야 한다고 말했다. 그러나 이제 기술적 능력과 관계없이 누구나 ChatGPT의 날렵하고 간소화된 인터페이스를 가지고 놀 수 있다.

 

ChatGPT는 정말 사람처럼 생각할까?

Pavlick은 이러한 방대한 데이터 세트로 컴퓨터 시스템을 교육한 결과 일반적인 패턴을 포착하고 매우 사실적으로 들리는 기사, 이야기, , 대화, 희곡 등을 생성할 수 있는 것처럼 보인다고 말했다. 가짜 뉴스 보고서, 가짜 과학적 발견을 생성하고 모든 종류의 놀랍도록 효과적인 결과 또는 "출력"을 생성할 수 있다.

 

결과의 효과로 인해 많은 사람들은 머신러닝모델이 인간처럼 생각할 수 있는 능력이 있다고 믿게 되었다. 하지만 그들은?

ChatGPT는 인공 신경망의 일종이라고 신경과학, 컴퓨터 과학, 공학을 전공한 Serre는 설명했다. 이는 하드웨어와 프로그래밍이 뇌의 뉴런 단순화에서 영감을 얻은 상호 연결된 노드 그룹을 기반으로 한다는 것을 의미한다.

 

Serre는 컴퓨터 두뇌와 인간 두뇌가 새로운 정보를 학습하고 작업을 수행하는 데 사용하는 방식에는 실제로 많은 매력적인 유사점이 있다고 말했다.

Serre "적어도 표면적으로는 ChatGPT와 같은 알고리즘이 언어 정보를 처리하기 위해 사용하고 활용하는 단어 및 문장 표현의 종류와 두뇌가 하는 것처럼 보이는 것 사이에 어떤 연결이 있을 수 있음을 시사하기 시작하는 작업이 있다."라고 말했다.

 

예를 들어 ChatGPT의 중추는 변환기 네트워크라고 하는 최첨단 인공 신경망이다. 자연어 처리 연구에서 나온 이들 네트워크는 최근 인공지능 전 분야를 장악하고 있다. 트랜스포머 네트워크에는 컴퓨터 과학자들이 "셀프 어텐션(self-attention)"이라고 부르는 특정 메커니즘이 있으며, 이는 인간의 뇌에서 발생하는 것으로 알려진 주의 메커니즘과 관련이 있다.

 

인간의 두뇌와 또 다른 유사점은 기술이 그렇게 발전할 수 있었던 핵심 측면이라고 Serre는 말했다. 그는 과거에 언어를 배우고 사용하거나 이미지 인식을 수행하기 위해 컴퓨터의 인공 신경망을 훈련하려면 과학자들이 데이터베이스 구축 및 객체 범주에 레이블 지정과 같은 지루하고 시간 소모적인 수동 작업을 수행해야 한다고 설명했다.

 

ChatGPT에서 사용되는 것과 같은 최신 대규모 언어 모델은 이러한 명시적인 사람의 감독 없이 학습된다. 그리고 그것은 Serre가 예측 코딩 이론으로 알려진 영향력 있는 뇌 이론이라고 언급한 것과 관련이 있는 것 같다. 이것은 인간이 누군가가 말하는 것을 들을 때 뇌가 다음에 말할 내용에 대해 끊임없이 예측하고 기대치를 발전시킨다는 가정이다.

 

이 이론은 수십 년 전에 가정되었지만 Serre는 신경 과학에서 완전히 테스트되지 않았다고 말했다. 그러나 현재 많은 실험 작업을 추진하고 있다.

“적어도 이 두 가지 수준에서 말할 내용에 대해 지속적으로 예측하는 이 네트워크의 핵심 엔진에 있는 주의 메커니즘 수준은 매우 대략적인 수준에서 신경 과학과 관련된 아이디어라고 Serre는 행사 중에 말했다.

 

대규모 언어 모델에서 사용하는 전략을 실제 뇌 과정과 관련시키는 최근 연구가 있었다. 그는 다음과 같이 말했다. “모델과 비전 모델이 [컴퓨터에서] 수행하는 작업은 자연어를 처리할 때 뇌가 수행하는 작업과 완전히 분리되지 않는다.”

 

어두운 면에서 인간의 학습 과정이 편견이나 부패에 취약한 것과 마찬가지로 인공지능 모델도 마찬가지이다. 이러한 시스템은 통계적 연관성을 통해 학습한다고 Serre는 말했다. 데이터 세트에서 지배적인 것이 무엇이든 다른 정보를 인계하고 밀어낸다.

 

"이것은 AI의 큰 관심사이며 언어에만 국한되지 않는다." Serre는 말했다. 그는 인터넷에서 백인 남성에 대한 과잉 표현이 어떻게 일부 얼굴 인식 시스템이 백인이나 남성으로 보이지 않는 얼굴을 인식하지 못하는 지점까지 편향되게 했는지를 언급했다.

"시스템은 우리가 제공하는 교육 데이터만큼만 우수하며 처음에는 교육 데이터가 그다지 좋지 않다는 것을 알고 있다."라고 Serre는 말했다. 데이터는 또한 무한하지 않으며 특히 이러한 시스템의 크기와 식욕의 왕성함을 고려할 때 덧붙였다.

 

Pavlick ChatCPT의 최신 반복에는 가드레일 역할을 하고 유해하거나 혐오스러운 콘텐츠의 생성을 방지하는 데 도움이 되는 강화 학습 계층이 포함되어 있다고 말했다. 그러나 이들은 여전히 진행 중인 작업이다.

 

Pavlick "도전의 일부는... 모델에 규칙을 부여할 수 없다는 것이다. 그냥 '이러한 것을 생성하지 마십시오'라고 말할 수는 없다."라고 Pavlick은 말했다. “예제를 통해 학습하므로 많은 예를 제공하고 '이런 일을 하지 마십시오. 이런 일을 하세요.' 그래서 나쁜 일을 하게 만드는 약간의 트릭을 찾는 것이 항상 가능할 것이다.”

 

아니, ChatGPT는 꿈도 꾸지 않는다.

인간의 두뇌와 신경망이 갈라지는 영역 중 하나는 수면 중, 특히 꿈을 꾸는 동안이다. 초현실적이고 추상적이거나 무의미해 보이는 AI 생성 텍스트나 이미지에도 불구하고 Pavlick은 생물학적 꿈 과정과 생성 AI의 계산 과정 사이의 기능적 유사성 개념을 뒷받침할 증거가 없다고 말했다. 그녀는 ChatGPT와 같은 애플리케이션이 안정적인 상태의 시스템이라는 점을 이해하는 것이 중요하다고 말했다.

 

Pavlick “[ChatGPT] 재생하고 생각하고 새로운 방식으로 결합하려고 시도하는 것과는 다르다. 알고 있는 것 또는 뇌에서 일어나는 모든 종류의 일을 강화하기 위해서이다.”라고 Pavlick은 말했다. “더 비슷하다. 완료되었다. 이것이 시스템이다. 우리는 이를 네트워크를 통한 순방향 통과라고 부른다. 거기에는 피드백이 없다. 방금 한 일을 반성하고 방식을 업데이트하지 않는다.”

 

Pavlick AI가 예를 들어 크렙스 주기에 대한 랩 노래나 누군가의 개에 대한 몽롱한 이미지를 제작하도록 요청받았을 때 출력물이 인상적으로 창의적으로 보일 수 있지만 실제로는 시스템이 이미 수행한 작업의 매시업일 뿐이라고 말했다. 하도록 훈련받았다. 인간 언어 사용자와 달리 각 출력은 각 후속 출력을 자동으로 변경하거나 기능을 강화하거나 꿈이 작동한다고 믿어지는 방식으로 작동하지 않는다.

 

Serre Pavlick은 인간지능 또는 인공지능에 대한 모든 논의에 대한 주의 사항은 과학자들이 두 시스템에 대해 아직 배울 것이 많다는 점을 강조했다. ChatGPT에 대한 과대 광고, 특히 인간보다 거의 인간에 가까운 챗봇을 만드는 신경망의 성공에 대해 Pavlick은 특히 기술 및 엔지니어링 관점에서 볼 때 충분히 가치가 있다고 말했다.

"그거 정말 신난다!" 그녀가 말했다. "우리는 오랫동안 이와 같은 시스템을 원했다."

 

출처: 브라운 대학, 세계경제포럼

 

 
ChatGPT, 인간지능, 인공지능, 유사점, 차이점 관련기사목록
광고
광고
광고
광고
광고
광고
광고
많이 본 기사
챗GPT와 AI, 로봇 많이 본 기사