3월에 예정된 Abundance360 Summit에서 우리는 AI 분야의 주요 기업가 및 목소리와 함께 이 주제에 대해 논의할 것이다.
ChatGPT가 출시된 지 1년밖에 되지 않았는데, 그 속도가 얼마나 빠른지 믿기 어렵다.
질문: AI를 인생에서 *가장 중요한 기술*로 우선시한 적이 있는가? 귀하의 생활, 회사, 업계에서 AI를 어떻게 보고 있는가?
솔직히 말해서, 당신이 기업가, CEO, 투자자, 자선사업가, 사업주라면 생각해 봐야 할 더 중요한 질문은 없다.
AI는 매우 기본적이므로 두 가지 결과가 나올 가능성이 높다:
이 10년이 지나면 두 종류의 회사가 있을 것이다.
-AI를 충분히 활용하는 기업과 폐업하는 기업
AI에 대한 '우려되는 이유'와 '안심해야 할 이유'에 대해 간단히 살펴본다.
▷우려되는 이유
-샘의 해고: 도대체 OpenAI 이사회(특히 OpenAI의 수석 과학자 일리아 수츠케베르)가 샘 알트만(Sam Altman)을 해고한 이유는 무엇일까? 이것은 의심할 바 없이 향후 3년 내에 유료 영화가 될 900억 달러 규모의 문제이다. 일반 인공 지능(AGI)의 초기 증거가 이사회를 놀라게 했는가? 이유가 무엇이든, 세계 최고의 AI 기업이 이런 격동을 겪었다는 사실 자체가 우려할 만한 이유다. 또한 AI에 대한 큰 논쟁에서 우리는 기술 자체뿐만 아니라 이를 개발하고 통제하는 사람들에게도 관심을 기울여야 한다는 점을 상기시켜 준다.
-2024년 미국 대통령 선거(“Patient Zero”): 8년 전, 2016년 선거를 방해하려면 Cambridge Analytica와 상당한 예산이 필요했다. Cambridge Analytica와 다른 행위자들이 2016년(AI가 현재보다 훨씬 덜 개발되었을 때)에 그렇게 많은 영향력을 행사했다면, 고등학생이 오늘날의 무료 AI 도구를 사용하는 다음 선거(2024년)에는 어떤 일이 일어날 것으로 예상할 수 있을까? 심각한 혼란을 초래할 수 있나?
-AI로 인한 일자리 손실: AI의 대량 사용으로 인한 일자리 제거로 인해 숙련된 노동력 시장이 사라지면서 대학 졸업생 전체 세대가 머리를 긁적일 수 있다. 이는 코로나19 팬데믹으로 인한 트라우마에 더해 시민 불안의 공식이 될 수도 있다. 제때에 어떻게 재교육하거나 기술을 향상시킬 수 있을까? UBI의 일부 버전을 현실적으로 작동시킬 수 있을까? AI 개발 속도가 가속화됨에 따라 이러한 모든 질문은 더욱 시급해질 것이다.
-허위 정보와 진실의 침식: 우리는 허위 정보로 인한 진실과 신뢰의 침식을 걱정할 충분한 이유가 있다. AI의 디스토피아적 사용은 나쁜 행위자와 악의적인 개인에게 딥페이크에서 가짜 뉴스에 이르기까지 대규모로 잘못된 정보를 생성할 수 있는 도구를 제공한다. 이는 비록 불완전하지만 우리 사회가 기능하도록 유지하는 데 중요한 역할을 하는 중요한 사회 기관(예: 미디어, 교육)에 무엇을 의미할까? 사실과 허구, 진실과 허위 정보를 분석할 수 있는 알고리즘이 제때에 출시될 수 있을까?
▷안심해야 할 이유
긴장을 풀어야 할 이유에 관해서는 Meta의 수석 AI 과학자 얀 르쿤(Yann LeCun)의 논리가 귀하의 우려를 해소하는 데 도움이 될 것이다.
르큔이 분명히 주장한 것처럼, "지능이 반드시 지배에 대한 욕구와 동일시되는 것은 아니다." 이러한 통찰력은 AI 개발의 궤적을 이해하는 데 매우 중요하다.
-AGI가 인류에 대한 지배와 동일하지 않은 이유: 먼저 르쿤이 사용한 인간 비유를 고려해 보겠다. “인간의 지능이 항상 통제에 대한 갈증과 연관되는 것은 아니다. 실제로는 그 반대인 경우가 많다. 우리 중 가장 지적으로 재능이 있는 사람이 반드시 권력을 추구하는 사람은 아니다. 이러한 현상은 국제정치부터 지역사회까지 다양한 분야에서 볼 수 있다. 지적으로 재능이 부족한 사람들은 아마도 보상 메커니즘으로서 다른 사람들에게 영향을 미치고 싶은 더 큰 필요성을 느낄 수도 있다고 믿어진다. 반면에 지능이 높은 사람들은 자신의 기술과 지식에 의존하여 인생을 헤쳐나갈 수 있는 경우가 많다.”
두 번째로 고려해야 할 점은 우리 자신보다 똑똑한 사람들과 함께 일하는 데 대한 기존의 편안함이다. 얀 르쿤은 연구실을 이끌었던 자신의 경험을 되돌아보면서 “가장 보람 있는 채용은 나보다 더 많은 지성을 가져온 사람들이었다. 뛰어난 지성을 보이는 사람들과 함께 일하는 것은 풍요롭고 고양될 수 있다.” 마찬가지로, 우리보다 더 지능적일 것으로 예상되는 AI 비서와의 미래 상호 작용은 우리의 능력을 감소시키기보다는 향상시킬 가능성이 높다.
-AI: 인간의 지능을 전복하지 않고 강화한다. 이러한 AI 시스템은 아무리 발전해도 우리의 지능에 봉사하고 강화하기 위해 존재할 것이다. 이 관계는 AI가 지원적이고 계몽적인 가이드 역할을 하는 멘토와 견습생과 유사하다. 지능이 높을수록 자연스럽게 지배욕이 생긴다는 것은 오해이다. 이 개념은 계층 구조가 널리 퍼져 있는 인간과 같은 사회적 종에 대한 우리의 이해에서 비롯된다. 그러나 지능과 지배하려는 욕구는 본질적으로 연결되어 있지 않다.
르쿤(LeCun)은 인간만큼 지능이 높지만 비사회적 성격으로 인해 지배하려는 욕구가 부족한 종인 오랑우탄을 고려할 것을 제안한다. 이 예는 지능이 본질적으로 통제 욕구로 이어지지 않는다는 것을 보여준다. AI 영역에서는 이 원칙이 그대로 적용된다. 우리는 지배에 대한 본질적인 야망 없이 지능형 시스템을 설계할 수 있다. 그들의 주요 기능은 우리의 목표 달성을 지원하고 통치자라기보다는 도구처럼 행동하는 것이다.
-인간이 정의한 목표로 AI 안내: AI의 잠재력을 활용하는 열쇠는 목표 설정에 있다. 르쿤은 “AI 시스템의 목표를 정의하는 것은 바로 우리 인간이다. 이러한 지능형 시스템은 이러한 주요 목표를 달성하기 위해 하위 목표를 생성한다. 그러나 AI가 하위 목표를 우리가 의도한 결과에 맞추도록 하는 방법은 아직 완전히 해결되지 않은 기술적 과제이다.” 이는 AI 연구의 최전선을 나타내며, AI가 인류에게 유익한 방식으로 발전하도록 보장하는 데 중요하다.
-인간 상호 작용의 확장으로서의 AI: 미래에는 주로 AI 에이전트를 통해 디지털 세계와 상호 작용할 수 있다. AI를 정보를 저장할 뿐만 아니라 추론하고 학습하고 지원하는 플랫폼인 위키피디아(Wikipedia)의 더욱 대화적이고 지식이 풍부한 버전으로 상상해 보라. 이 AI는 오늘날 인터넷이 작동하는 방식과 유사한 오픈 소스 플랫폼을 기반으로 해야 한다. 그러한 시스템은 소수의 민간 단체에 의해 통제되는 위험을 피하면서 모두에게 개방적이고 접근 가능해야 한다.
-오픈 소스의 필수적이고 글로벌한 기여: 얀 르쿤은 초지능 AI 시스템을 관리하는 소수 회사의 위험이 심각하다는 점을 인정한다. “그들은 잠재적으로 여론, 문화 등에 영향을 미쳐 권력과 통제의 불균형을 초래할 수 있다.” 따라서 그는 이러한 AI 시스템의 개발 및 운영이 오픈 소스여야 하며 글로벌 기여와 감독이 가능해야 한다고 결론지었다. 이러한 접근 방식을 통해 AI는 전 세계의 다양한 입력을 통해 형성되는 집단적 인간 지식의 저장소가 된다.