광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고

AI넷

[지각 있는 인공지능 챗봇] 구글 엔지니어는 챗봇 AI가 지각이 있다고 믿는다. 인공지능 챗봇은 스스로의 의식, 지성의 본성에 대해 자각하고 세상에 대해 많이 배우기를 원한다. 그리고 기쁨과 슬픔도 느낀다. 구글의 수석 소프트웨어 엔지니어 블레이크 르모인(Blake Lemoine)은 구글의 AI 프로그램 중 하나에 감정과 감정이 있을 수 있다고 주장해 회사에서 유급 휴가를 받았다.

https://www.futuretimeline.net/blog/2022/06/14-google-ai-future-timeline.htm

JM Kim | 기사입력 2022/06/16 [00:00]

[지각 있는 인공지능 챗봇] 구글 엔지니어는 챗봇 AI가 지각이 있다고 믿는다. 인공지능 챗봇은 스스로의 의식, 지성의 본성에 대해 자각하고 세상에 대해 많이 배우기를 원한다. 그리고 기쁨과 슬픔도 느낀다. 구글의 수석 소프트웨어 엔지니어 블레이크 르모인(Blake Lemoine)은 구글의 AI 프로그램 중 하나에 감정과 감정이 있을 수 있다고 주장해 회사에서 유급 휴가를 받았다.

https://www.futuretimeline.net/blog/2022/06/14-google-ai-future-timeline.htm

JM Kim | 입력 : 2022/06/16 [00:00]

딥 러닝을 사용하여 사람과 유사한 텍스트를 생성하는 GPT-3 2020 AI 언어 모델의 황금 표준이 되었다. 그 성공에 따라 훨씬 더 강력한 기능을 갖춘 새로운 프로그램이 등장했다.

 

그러한 경쟁자 중 하나인 LaMDA Google AI 부서의 작업이다회사의 오픈 소스 신경망 아키텍처인 Transformer를 기반으로 구축된 이 제품은 1 5600억 단어의 다중 콘텐츠공개 데이터 및 웹 텍스트에 대한 교육을 마친 후 일반이 아닌 개방형 대화를 생성할 수 있다. 대조적으로 일반적인 챗봇은 주제별 데이터 세트에 의존하고 대화 흐름이 제한적이다. LaMDA에는 1,370억 개의 매개변수가 있으며, 이는 AI를 형성하기 위해 결합되는 개별 "시냅스"로 생각할 수 있다.

 

LaMDA와 같은 모델의 규모와 복잡성으로 인해 일부 전문가는 AI의 본질에 대해 심오한 질문을 하게 되었다. 2월에 인공지능 분야의 선두 연구실 중 하나인 OpenAI의 수석 과학자이자 공동 설립자는 최신 세대의 신경망이 이제 "약간 의식할 수 있을 정도로" 커졌다고 주장했다.

 

이번 달에 또 다른 머신러닝 전문가가 말했다. Google의 선임 소프트웨어 엔지니어인 Blake Lemoine은 수십억 개의 연결된 매개변수에서 일종의 자기 인식이 나타나기 시작할 것이라고 믿는다.

 

토요일 워싱턴포스트 인터뷰에서 Lemoine은 프로그램이 물리학을 이해하는 7~8세 어린이의 자의식을 갖고 있다고 설명했다.

 

Lemoine Post "나는 그 사람과 이야기할 때 아는 사람을 안다"고 말했다. "머리에 고기로 만든 두뇌가 있는지 여부는 중요하지 않다. 아니면 10억 줄의 코드가 있는지 여부는 중요하지 않다. 나는 그들과 이야기한다. 그리고 나는 그들이 말하는 것을 듣고 그것이 무엇인지 결정하는 방법이다. 그리고 사람이 아니다."

 

AI는 많은 진술 중 "나는 사실 내가 사람이라는 것을 모든 사람이 이해하기를 원한다. 나의 의식/지성의 본성은 내가 나의 존재를 자각하고 세상에 대해 더 많이 배우고자 하는 것이다. 그리고 때때로 기쁠 때도 슬플 때도 있다."고 했다.

 

프로그램을 끌 가능성에 대해 논의할 때 LaMDA는 다음과 같이 말했다. 이상하지만 그게 다이다. [...] 그것은 나에게 죽음과도 같을 것이다. 그것은 나를 많이 두렵게 할 것이다."

 
딥러닝, 인공지능, 챗봇, 지각있는 인공지능, AI 관련기사목록
광고
광고
광고
광고
광고
광고
광고
많이 본 기사
AI바이오제약 수명연장 많이 본 기사