kyc AI법[아시모프의 로봇 법칙은 AI를 위해 업데이트가 필요하다.] 로봇공학의 제4법칙을 제안하다
아시모프의 로봇 3원칙에 대한 심층 분석 및 제4법칙 제안: 기사 개요 및 개선 방안
기사의 핵심 내용:
기사의 강점:
개선 방향:
개선된 기사 예시:
아시모프의 로봇공학 3법칙을 넘어선 AI 투명성 법칙의 필요성 현행 법칙의 한계아시모프의 로봇공학 3법칙은 AI 시대에 들어서며 새로운 도전과제에 직면하고 있다. 특히 생성형 AI의 발전으로 인한 딥페이크와 허위정보 확산은 기존 법칙이 다루지 못하는 새로운 위험을 제기하고 있다. 투명성 중심의 제4법칙 제안전문가들은 AI 시스템의 투명성과 책임성을 강조하는 새로운 법칙의 필요성을 제기하고 있다. 제안된 제4법칙은 "로봇은 자신의 행동과 결정에 대해 투명해야 하며, 필요할 때 인간의 감독과 개입을 보장할 수 있도록 책임을 져야 한다"는 것이다. 실행을 위한 구체적 방안투명성 확보를 위해서는 다음과 같은 조치들이 필요하다:
법적 프레임워크 구축EU AI Act와 같은 규제 프레임워크는 AI 시스템의 투명성과 책임성을 법적으로 보장하려 하고 있다. 특히 딥페이크 콘텐츠에 대해서는 생성 여부를 명확히 표시하도록 요구하고 있다. 미래 전망AI 시스템의 윤리적 발전을 위해서는 아시모프의 기존 법칙을 넘어서는 새로운 프레임워크가 필요하다. 투명성과 책임성을 중심으로 한 제4법칙의 도입은 인간과 AI의 건설적인 협력을 위한 중요한 첫걸음이 될 것이다.
아시모프의 로봇 법칙은 AI를 위해 업데이트가 필요하다. 로봇공학의 제4법칙을 제안하다
1942년, 전설적인 공상과학 작가 아이작 아시모프는 단편 소설 "Runaround"에서 로봇의 3가지 법칙을 소개했다. 이 법칙은 나중에 그의 획기적인 단편집 I, Robot 에서 대중화되었다 .
이러한 법률은 허구 작품에서 따온 것이지만, 수십 년 동안 로봇 윤리에 대한 논의를 형성해 왔다. 그리고 가상 로봇으로 간주될 수 있는 AI 시스템이 더욱 정교해지고 보편화됨에 따라, 일부 기술자들은 아시모프의 프레임워크가 인간과 상호작용하는 AI에 필요한 잠재적인 보호 장치를 고려하는 데 유용하다는 것을 발견했다.
하지만 기존의 세 가지 법률만으로는 충분하지 않다. 오늘날 우리는 아시모프가 상상조차 하지 못했을 전례 없는 인간-AI 협업의 시대로 접어들고 있다. 특히 언어와 이미지 생성 분야에서 생성 AI 역량의 급속한 발전은 아시모프의 원래 우려였던 신체적 해악과 복종에 대한 문제를 넘어선 과제를 만들어냈다.
딥페이크, 허위 정보 및 사기AI 기반 사기의 확산은 특히 우려스럽다. FBI의 2024년 인터넷 범죄 보고서 에 따르면 디지털 조작과 사회 공학을 포함한 사이버 범죄로 인해 103억 달러가 넘는 손실이 발생했다. 유럽연합 사이버보안기관의 2023년 위협 전망은 특히 진짜처럼 보이는 합성 미디어인 딥페이크를 디지털 신원과 신뢰에 대한 새로운 위협으로 강조했다.
소셜 미디어의 잘못된 정보가 들불처럼 퍼지고 있다. 나는 팬데믹 동안 이를 광범위하게 연구했고, 생성적 AI 도구 의 확산으로 인해 이를 감지하기가 점점 더 어려워졌다고만 말할 수 있다. 상황을 더 나쁘게 만드는 것은 AI가 생성한 기사가 전통적인 선전만큼 설득력이 있거나 심지어 더 설득력이 있으며, AI를 사용하여 설득력 있는 콘텐츠를 만드는 데는 거의 노력이 필요하지 않다.
사회 전반에 걸쳐 딥페이크가 증가하고 있습니다. 봇넷은 AI가 생성한 텍스트, 음성 및 비디오를 사용하여 모든 정치적 문제에 대한 광범위한 지지에 대한 잘못된 인식을 만들 수 있다. 봇은 이제 사람을 사칭 하면서 전화를 걸고 받을 수 있습니다 . 친숙한 목소리를 모방하는 AI 사기 전화가 점점 더 흔해지고 있으며 , 이제 언제든지 AI 렌더링 오버레이 아바타를 기반으로 하는 화상 통화 사기가 급증하여 사기꾼이 사랑하는 사람을 사칭하고 가장 취약한 계층을 표적으로 삼을 수 있을 것으로 예상할 수 있다. 일화로, 제 아버지는 제가 스페인어를 유창하게 말하는 비디오를 보고 놀랐다. 그는 제가 이 언어에 자랑스러운 초보자라는 것을 알고 있었기 때문입니다(Duolingo에서 400일 동안!). 비디오가 AI로 편집되었다고만 말하면 된다.
저명한 컴퓨터 과학자 스튜어트 러셀은 2019년 저서 Human Compatible 에서 AI 시스템이 인간을 속일 수 있는 능력은 사회적 신뢰에 근본적인 도전이라고 주장한다. 이러한 우려는 최근의 정책 이니셔티브, 특히 유럽 연합의 AI Act 에 반영되어 있으며 , 여기에는 AI 상호작용의 투명성과 AI가 생성한 콘텐츠의 투명한 공개를 요구하는 조항이 포함되어 있다. 아시모프의 시대에는 사람들이 인공 에이전트가 온라인 커뮤니케이션 도구와 아바타를 사용하여 인간을 속일 수 있다고 상상할 수 없었을 것이다. 그러므로 우리는 아시모프의 법칙에 추가 사항을 만들어야 한다.
신뢰할 수 있는 AI를 향한 길우리는 명확한 경계가 필요하다. 인간-AI 협업은 건설적일 수 있지만, AI 속임수는 신뢰를 훼손하고 시간 낭비, 정서적 고통, 자원 오용으로 이어진다. 인공 에이전트는 우리와의 상호작용이 투명하고 생산적이도록 하기 위해 스스로를 식별해야 한다. AI가 생성한 콘텐츠는 인간이 상당히 편집하고 각색하지 않는 한 명확하게 표시해야 한다. 이 네 번째 법칙을 구현하려면 다음이 필요하다.
물론, 이 모든 것은 말하기는 쉽지만 실천하기는 어렵다. AI가 생성한 텍스트 , 오디오 , 이미지, 비디오에 워터마크를 찍거나 감지하는 신뢰할 수 있는 방법을 찾기 위한 엄청난 연구 노력이 이미 진행 중이다. 제가 요구하는 투명성을 만드는 것은 해결된 문제와는 거리가 멀다.
하지만 인간-AI 협업의 미래는 인간과 인공 에이전트 간의 명확한 구분을 유지하는 데 달려 있다. IEEE의 2022년 " 윤리적으로 정렬된 디자인 " 프레임워크에서 언급했듯이 AI 시스템의 투명성은 대중의 신뢰를 구축하고 인공 지능 의 책임 있는 개발을 보장하는 데 기본이 된다 .
아시모프의 복잡한 스토리는 규칙을 따르려고 노력하는 로봇조차도 종종 자신의 행동의 의도치 않은 결과를 발견한다는 것을 보여주었다. 그래도 아시모프의 윤리적 지침을 따르려고 노력하는 AI 시스템이 있다면 매우 좋은 시작이 될 것이다.
영국, 'AI 초강대국' 지향
영국 정부는 AI를 사용하여 성장을 촉진하고 공공 서비스를 보다 효율적으로 제공하기 위한 계획을 발표했다. 키어 스타머 경(Sir Keir Starmer)은 기자들에게 AI가 "놀라운 변화를 주도할 것"이라고 말하며 영국을 이 기술의 세계적인 리더로 만들겠다고 약속했다.
영국 정부는 오늘 인공 지능(AI)의 광범위한 채택을 가속화하는 것을 목표로 하는 포괄적인 프로그램인 AI 기회 실행 계획(AI Opportunities Action Plan)을 발표했다. 만약 성공한다면, 이는 생산성을 극적으로 향상시켜 영국에 10년 동안 매년 470억 파운드를 창출할 수 있다.
이 보고서는 이미 다양한 프로젝트에 140억 파운드를 투입한 선도적인 기술 기업들의 지지를 받고 있다. 이 보고서에는 AI 개발 및 배포에서 영국의 역할을 강화하기 위한 50가지 권고안이 포함되어 있으며, 총리 겸 노동당 당수인 키어 스타머 경(Sir Keir Starmer)은 이 기술이 "우리나라에 놀라운 변화"를 주도할 것이라고 말하면서 모두 지지를 받았다.
이 대대적인 계획은 2030년까지 공공 통제 하에 있는 AI 컴퓨팅 파워의 양을 20배 늘리는 것을 요구한다. 지난해 노동당은 스코틀랜드 에든버러 대학에 설치될 예정이었던 영국 최초의 엑사스케일 슈퍼컴퓨터를 포함해 전임 보수당 정부가 약속한 13억 파운드(약 1조3000억원)의 기술 및 AI 예산을 폐기했다. 오늘 발표된 새로운 계획은 이 제안을 부활시켰으며, 장소는 추후 결정될 예정이다.
AI 기회 실행 계획은 또한 AI 부문의 연구 및 응용 프로그램에 필수적인 데이터 센터의 개발을 간소화하기 위해 AI "성장 영역"을 만드는 것을 소개한다. 이러한 구역은 간소화된 계획 프로세스와 에너지 자원에 대한 향상된 접근성을 제공하여 AI 인프라 프로젝트를 방해했던 이전의 규제 장애물을 해결할 것이다. 이 지역 중 첫 번째는 옥스퍼드셔의 컬햄(Culham)에 계획되어 있다. 여름에는 더 많은 것이 발표될 예정이며, 특히 청정 전력에 접근할 수 있고 지방 정부의 강력한 지원을 받을 수 있는 탈산업화 지역에 중점을 둘 것이다.
이 계획은 연구자와 혁신가가 새로운 데이터에 액세스할 수 있도록 익명화된 NHS 환자 데이터를 통합하는 국가 데이터 도서관을 설립할 것을 제안한다. 이 이니셔티브 의학 연구의 발전과 개인의 개인 정보 보호 권리 보호의 균형을 맞추는 것을 목표로 한다.
또한 같은 생각을 가진 국가와 국제 파트너십을 구축하여 연구자가 사용할 수 있는 컴퓨팅 역량 유형을 늘리고 연구 협력을 촉진할 것이다. 이 계획은 주요 동맹국들과의 협정을 구축하고 기존 파트너들과의 협력을 확대하는 데 초점을 맞출 것이다.
"오늘날 영국은 세계에서 세 번째로 큰 AI 시장입니다." 영국 과학기술부 장관 피터 카일(Peter Kyle)의 말이다. "우리는 Google DeepMind, ARM, Wayve와 같은 선구적인 AI 기업과 뛰어난 글로벌 인재의 본거지이다. 그러나 알고리즘과 범용 컴퓨팅에 대한 앨런 튜링(Alan Turing)부터 팀 버너스 리(Tim Berners-Lee)의 월드 와이드 웹(World Wide Web)에 이르기까지 과학적 발견의 기록에도 불구하고 영국은 미국과 중국에서 이뤄진 인공 지능의 발전에 뒤처질 위험이 있다.
"AI 개발의 다음 단계에서 우리는 영국이 한 단계 더 나아가기를 원합니다. AI 혁명이 우리를 어떻게 형성하는지 기다리기보다는 AI 혁명을 형성하기 위해. 우리는 영국이 AI의 기회를 공정하고 효과적으로 포착하는 데 있어 글로벌 리더십을 제공해야 할 특별한 책임이 있다고 믿기 때문입니다."
"인공 지능은 우리 세대의 결정적인 기회입니다"라고 Starmer 총리는 보고서에 대한 서문에서 말했다. "그것은 다가오는 기술이 아닙니다. 지평선에 있는 미래의 혁명. NHS에서 질병을 예방하고, 경제에서 흥미로운 새로운 기업을 창출하고, 대학에서 과학적 발견의 경계를 넓히는 등 삶을 실질적으로 변화시키고 있습니다. 그것은 현 정부의 변화를 위한 계획의 모든 임무에 박차를 가할 것입니다. 그리고 더 많은 혁신의 잠재력은 무궁무진합니다."
"AI 기반 스캔은 의사가 질병을 조기에 발견하는 데 도움이 될 수 있습니다. AI는 더 나은 약속을 예약하여 NHS 대기자 명단을 줄일 수 있습니다. 이를 통해 교사는 자녀의 필요에 맞게 수업을 개인화할 수 있습니다. 소규모 기업의 기록 보관을 지원하고, 움푹 들어간 곳을 더 빨리 발견하고, 계획 애플리케이션의 속도를 높이는 데 도움이 될 수 있습니다".
실제로, 우리의 공공 서비스 전반에 걸쳐 일선 직원에게 소중한 시간이라는 선물을 제공한다. 직업의 인간적인 측면과 직접 대면할 수 있는 기회를 얻을 수 있는 기회이며, 이것이 애초에 많은 사람들을 공공 서비스에 끌어들이는 이유라는 것을 알고 있다.
"요컨대, 앞으로 몇 년 동안 우리 사회에서 이러한 변화의 힘에 영향을 받지 않은 부분은 거의 없을 것입니다. 그러나 현 정부는 수동적으로 앉아서 변화가 오기를 기다리지는 않을 것입니다. 그것을 활용하고 일하는 사람들을 위해 작동하도록 하는 것이 우리의 책임입니다. 그리고 경쟁이 치열해지더라도 영국이 AI 분야에서 세계 선두주자로서의 위치를 유지할 수 있도록 하는 것이 우리의 책임입니다. 일부 국가는 AI 돌파구를 마련하여 세계에 수출할 예정입니다. 다른 나라들은 그러한 돌파구를 수입하여 사게 될 것이다. 이 행동 계획은 영국이 어떻게 전자가 될 것인지, 즉 영국을 AI 초강대국으로 만들기 위한 계획을 제시합니다."
영국 경제에 대한 노동당의 대처에 대한 우려에 대한 답변에서 기자 회견에서 스타머는 AI가 "우리가 생각하는 것보다 더 빨리 상황을 바꿀 것"이라고 설명했다. 불과 몇 년 전만 해도 AI가 지금과 같은 변화를 일으키려면 10년이 걸릴 것이라고 말했던 대부분의 사람들은 이제 그렇지 않다고 말하며, 심지어 5년, 심지어 4년 또는 3년 이상이라고 말하고 있다. 따라서 AI는 상황을 매우, 매우 빠르게 변화시키고 있다. (F,T.)
<저작권자 ⓒ ainet 무단전재 및 재배포 금지>
|
많이 본 기사
4
유투브 많이 본 기사
최신기사
|