광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고

AI넷

[전 구글 CEO, AI가 5년 안에 인류를 위험에 빠뜨릴 수 있다고 경고] 5~10년 안에 AI가 인류에게 해를 끼칠 만큼 강력해질 수 있다. 최악의 시나리오는 컴퓨터가 일을 하기 위해 스스로 결정을 내리기 시작하는 시점이 될 것이다. 그리고 만약 그들이 무기 시스템에 접근하거나 다른 무서운 능력에 도달할 수 있다면 기계는 그것에 대해 우리 인간에게 거짓말을 할 수도 있다.

https://futurism.com/the-byte/eric-schmidt-ai-five-years

JM Kim | 기사입력 2023/12/01 [00:00]

[전 구글 CEO, AI가 5년 안에 인류를 위험에 빠뜨릴 수 있다고 경고] 5~10년 안에 AI가 인류에게 해를 끼칠 만큼 강력해질 수 있다. 최악의 시나리오는 컴퓨터가 일을 하기 위해 스스로 결정을 내리기 시작하는 시점이 될 것이다. 그리고 만약 그들이 무기 시스템에 접근하거나 다른 무서운 능력에 도달할 수 있다면 기계는 그것에 대해 우리 인간에게 거짓말을 할 수도 있다.

https://futurism.com/the-byte/eric-schmidt-ai-five-years

JM Kim | 입력 : 2023/12/01 [00:00]

암울한 예측

전 구글 CEO인 에릭 슈미트(Eric Schmidt)는 최근 암울한 인공지능 전망에서 기술이 치명적인 피해를 입히는 것을 막을 수 있는 가드레일이 충분하지 않다고 말했다.

이번 주 Axios가 주최한 정상회담에서 현재 인공지능 국가안보위원회 위원장인 슈미트는 AI 1945년 미국이 일본에 투하한 원자폭탄에 비유했다.

"나가사키와 히로시마 이후 테스트 금지 등에 대한 조약을 맺는 데 18년이 걸렸다."라고 그는 DC에서 열린 A+ Summit에서 Axios 공동 창립자 마이크 앨런(Mike Allen(에게 말했다. "오늘은 그런 시간이 없다."

 

OpenAI에서 Google 자체 및 그 이상에 이르기까지 기술을 구축하는 사람들은 기술을 통제하기 위한 "가드레일" 또는 안전 조치를 확립했지만, 슈미트는 현재의 안전이 "충분하지 않다"고 생각한다고 말했는데, 이는 많은 머신러닝 연구자들과 공유하는 견해이다.

 

전 구글 사장은 불과 5~10년 안에 AI가 인류에게 해를 끼칠 만큼 강력해질 수 있다고 말했다. 슈미트는 계속해서 최악의 시나리오는 "컴퓨터가 일을 하기 위해 스스로 결정을 내리기 시작하는 시점"이 될 것이라고 말했다. 그리고 만약 그들이 무기 시스템에 접근하거나 다른 무서운 능력에 도달할 수 있다면 기계는 그것에 대해 우리 인간에게 거짓말을 할 수도 있다고 그는 경고한다.

 

이런 끔찍한 결과를 막기 위해 슈미트는 유엔의 기후변화에 관한 정부간 패널(IPCC)과 같은 비정부기구가 설립돼 "정책입안자들에게 정확한 정보를 제공해야 한다"고 말했다. AI가 너무 강력해지면 무엇을 해야 할지 결정을 내릴 수 있도록 도와주어야 한다.

 

 

시기상조

전직 Google 사장은 정기적으로 AI에 대한 우려를 표명했지만 Meta AI 황제 얀 르쿤(Yann LeCun)은 점점 더 반대 입장을 취했다.

지난달 그는 파이낸셜 타임스에 기술이 인류를 위협할 만큼 똑똑하지 않다고 말했고, 추수감사절 주말에는 AI 문제로 올해 초 구글을 그만둔 동료 AI 선구자 제프리 힌튼과 말다툼을 벌였다. 우려 - LLM(대형 언어 모델)이 인간이 말하는 내용을 "이해"할 만큼 정교하다는 개념에 대한 우려이다.

얀 르쿤(LeCun) FT와의 인터뷰에서 "학습 능력 측면에서 고양이와 경쟁할 수 있는 시스템을 설계하기 전까지는 실존적 위험에 대한 논쟁은 매우 시기상조다"라고 말했다. "현재로서는 그러한 시스템이 없다."

 

이 똑똑하고 유능한 사람들은 AI의 위험성에 대해 계속 반대 신호를 보내고 있지만 얼마나 두려워해야 하는지 말하기는 어렵다. 지금은 다른 많은 것들과 마찬가지로 답이 중간 어딘 가에 있는 것처럼 보인다. 하지만 골대가 계속 움직이기 때문에 측정된 위치를 찾는 것이 그 어느 때보다 어렵다.

 
인공지능, 위협, 위험, 스스로 결정, AI 관련기사목록
광고
광고
광고
광고
광고
광고
광고