마인드봇 [고등학교 교사를 AI로 대체하기 시작했다] 학생들은 AI 기반 적응 학습을 통해 엄청난 혜택을 얻을 수 있다. 이를 통해 모든 학생이 수업과 보조를 맞추는 대신 자신의 속도에 맞춰 학습할 수 있다. 이 시스템은 학생을 판단하지 않고 대신 안전한 환경에서 자신의 속도에 맞춰 학습할 수 있도록 한다.https://futurism.com/high-school-starts-replacing-teachers-ai
고등학교 교사를 AI로 대체하기 시작했다.
영국 런던의 한 고등학교는 내년에 표준화된 시험을 치르기 전에 15세 정도의 학생들이 AI 도구를 사용하도록 허용할 예정인데, 전문가들은 AI 도구가 인간 교사를 대체하기에 적합하지 않다고 경고하고 있다.
비즈니스 인사이더가 보도한 바에 따르면, 데이비드 게임 칼리지(David Game College)의 시범 프로젝트는 따라잡기 위해 애쓰는 학생들을 돕기 위한 것이며, 또한 다른 학생들보다 훨씬 앞서 나가는 학생들을 돕기 위한 것이다.
"학생들은 AI 기반 적응 학습을 통해 엄청난 혜택을 얻을 수 있다. 이를 통해 모든 학생이 수업과 보조를 맞추는 대신 자신의 속도에 맞춰 학습할 수 있다."라고 공동 교장인 존 달튼이 말했다. "어떤 학생에게는 너무 빨리 진행되고 어떤 학생에게는 너무 느리게 진행되는 경우가 많다."
여기서 표면적인 가치(AI 기술을 교육에 강제로 집어넣는 것)를 넘어, 영국이 수년간 직면해 온 교사 부족이라는 영구적인 상태에 대한 논란의 여지가 있는 디스토피아적 임시 해결책이다.
AI 매파들은 이를 곧 다가올 일의 징조로 홍보할 것이다. 그러나 AI 기술의 눈에 띄는 단점과 항상 존재하는 "환각" 경향을 감안할 때, 특히 형성기에 학생의 정신을 심각하게 어지럽힐 수 있는 특성은 의심할 여지가 많다.
다행히도 이 대학은 전적으로 AI 도구에 의존하지 않을 것이다. 시범 계획에 참여하는 학생들은 풀타임 학습 코치 3명의 지원을 받게 된다. 달튼 교장은 이미 익숙한 화제를 사용하여 프로젝트를 옹호하면서 AI 도구가 교사를 해방하고 학생들이 더 효율적으로 학습할 수 있도록 할 것이라고 주장했다. AI로 근로자를 대체하려는 기업에 대해서도 소름 돋을 정도로 비슷한 주장이 제기되었다.
데이비드 게임 칼리지는 교실에서 AI를 처음 사용한 것은 아니다. 하버드 대학교는 인기 있는 입문 수준 코딩 과정을 가르치는 AI 강사를 도입했다. 실리콘 밸리의 사립 학교 아이들도 AI 기반 튜터에게 교육을 받고 있다. 한편, 학생과 교사 모두 ChatGPT와 같은 도구를 충분히 사용하여 각각 논문을 쓰고 채점하고 있다.
이러한 추세는 이미 상당한 혼란을 초래했으며, 학생들이 AI를 사용했다는 거짓 비난을 받고 있다. 게다가 이 기술은 완벽과는 거리가 멀고 여전히 진실과 허구를 확실하게 구별할 수 없으며, 특히 교육과 관련하여 명백한 실수이다.
이 대학의 AI 교사 시범 프로그램에 대한 비판가들은 이것이 너무 지나치다고 말한다. "AI는 실제 교사에게 귀중한 보완물이 될 수 있지만, 교사를 완전히 대체할 수는 없다."라고 교육 컨설팅 회사 Higher의 이사인 하디다 그라보우가 말했다. "우리는 양질의 교육자를 대체할 수 있는 어떤 것도 보지 못하고 있다." "유감스럽게도, 그 기술은 아직 거기에 없다. 로스앤젤레스 통합 학군의 AI 챗봇의 눈에 띄는 실패에서 그것을 보았다."라고 그녀는 덧붙였다.
LA 타임즈가 지난달 보도했듯이, 그라보우가 언급한 챗봇의 제작자인 AllHere는 (수백만 달러의 공적 자금을 끌어들였음에도 불구하고) 학교에 "재정 붕괴"를 알렸다. 3월에 출시된 챗봇은 상당한 한계가 있었으며, 종종 사용자에게 "선생님에게 물어보라” 다시 말해, 우리는 달튼 교장은 대학이 "전체적이고 매력적인 교육 경험을 만들어 AI 학습 과정을 인간화했다"는 주장에 회의적이다.
그는 "이 시스템은 학생을 판단하지 않는다."고 말했다. "대신, 안전한 환경에서 자신의 속도에 맞춰 학습할 수 있도록 한다." 그러나 이러한 노력이 성과를 거두는지, 아니면 이미 심각한 영국 교사 부족을 악화시키는지는 아직 알 수 없다.
인간과 상호작용하는 뇌졸증 재활을 돕는 로봇 코치
뇌 신호를 읽는 로봇 코치는 뇌졸중 및 뇌 손상 생존자의 재활을 위한 새로운 길을 열 수 있다. 이는 영국의 National Robotarium 연구자들이 주도하고 AIT 오스트리아 공과대학과 협력하여 개발한 EU 자금 지원 VITALISE 프로젝트에 따른 것이다.
비엔나에서 완료된 3개월 실험은 상지 장애가 있는 개인을 대상으로 했다. 이는 급성 뇌졸중 생존자의 약 80%에 영향을 미치며 뇌 손상의 일반적인 부작용이다.
이러한 경우 팔 기능을 개선하려면 작업별 운동을 반복적으로 연습해야 한다. 그러나 종종 동기 부여나 시각적 진행 지표가 부족하면 처방된 자가 관리 재활 루틴에 부정적인 영향을 미칠 수 있다.
"우리는 뇌졸중이나 뇌 손상 후 회복을 위해 지속적이고 반복적인 운동이 중요하다는 것을 알고 있다."고 수석 연구원인 린 베일리가 말했다. "그러나 감독 없이는 생존자가 동기를 유지하는 것이 어려울 수 있다."
잠재적 솔루션을 탐색하기 위해 이 프로젝트는 사회적 보조 로봇이 뇌 신호를 모니터링하는 헤드셋을 사용하여 환자와 소통하는 시스템을 개발했다.
그런 다음 로봇은 데이터를 처리하여 다양한 운동 중 환자의 의도된 움직임을 해석한다. 이를 통해 실시간 동기 부여와 피드백을 제공하고 심지어 운동을 보여주기 위해 움직임을 모방할 수도 있다.
로봇이 뇌 신호를 해석하고 움직임을 모방하는 능력을 시험하는 연구자들. 출처: VITALISE
이 팀은 16명의 뇌졸중 및 뇌 손상 환자를 대상으로 이 기술을 테스트하여 시스템의 사용 편의성과 로봇이 운동을 동기 부여하고 사용자 신뢰를 구축하는 능력을 평가했다.
"로봇은 각 개인의 반응을 빠르게 학습했으며 의도를 이해하고 움직임을 모방하는 데 매우 효과적이었다. 환자들은 모두 로봇과 상호 작용하는 것이 동기 부여 경험이었다”고 베일리는 말했다. "스코틀랜드 병원에서 시험을 조직하여 기술을 더욱 개발하고 개선할 수 있기를 바란다. 이와 관련하여 NHS와 매우 긍정적인 대화를 나누고 있다."
AI가 인류를 구할 것인가? 현실 점검을 제공하는 미국 기술 축제
인공 지능 애호가들은 이 기술이 전쟁에서 지구 온난화에 이르기까지 인류의 가장 큰 문제를 해결하는 데 도움이 될 것이라고 베팅하고 있지만 실제로는 현재로서는 비현실적인 야망일 수 있다.
"AI에게 '이건 까다로운 문제야. 당신은 무엇을 할 것인가?' 그리고 AI는 '음, 경제의 이 부분을 완전히 재구조화해야 합니다.'라고 말합니다." 브라운 대학의 컴퓨터 과학 교수인 마이클 리트먼의 말이다. 리트먼은 텍사스 오스틴에서 열린 사우스 바이 사우스웨스트(SXSW) 예술 및 기술 페스티벌에 참석해 AI의 잠재적 이점에 대한 많은 패널 중 한 명에서 연설했다. "헛된 꿈입니다. 약간 공상 과학 소설입니다. 사람들이 하는 일은 대부분 이미 해결하고 있는 특정 문제에 AI를 도입하려고 하지만 더 효율적이기를 원하는 것입니다. 그는 "이 버튼을 누르기만 하면 모든 것이 해결되는 것이 아니다"라고 말했다. 유망한 제목("AGI를 유익하게 만들고 로봇 종말을 피하는 방법")과 기술 대기업의 항상 존재로 패널은 많은 군중을 끌어들이지만 종종 제품 홍보와 같은 보다 실용적인 목표를 가지고 있다. "AI 혁명 내부: AI가 더 많은 것을 성취하기 위해 세계를 강화하는 방법"이라는 회의에서 Microsoft 임원인 Simi Olabisi는 회사의 클라우드 서비스인 Azure에서 이 기술의 이점을 칭찬했다. 콜 센터에서 Azure의 AI 언어 기능을 사용할 때 "고객이 전화를 걸었을 때 화가 났을 수도 있고 통화를 끝냈을 때 정말 감사했을 수도 있습니다. Azure AI Language는 이러한 감정을 실제로 포착하고 기업이 어떻게 느끼는지 알려줄 수 있습니다"라고 그녀는 설명했다. '인간보다 똑똑하다'작업을 자동화하고 방대한 데이터를 분석할 수 있는 알고리즘을 갖춘 인공 지능의 개념은 수십 년 동안 존재해 왔다. 그러나 지난해 주로 마이크로소프트(Microsoft)가 자금을 지원하는 상징적인 AI 스타트업인 오픈AI(OpenAI)가 출시한 생성형 AI 인터페이스인 챗GPT(ChatGPT)의 성공으로 완전히 새로운 차원을 맞이했다. CEO 샘 알트만(Sam Altman)에 따르면 OpenAI는 "일반적으로 인간보다 똑똑하고" "인류를 향상시킬 것"인 인공 "일반" 지능(AGI)을 구축하기를 원한다고 주장한다. 이러한 정신은 SXSW에서 매우 잘 드러났으며, "만약"이 아닌 "언제" AGI가 현실이 될 것인지에 대한 이야기가 있었다. 싱귤래리티넷 재단(SingularityNET Foundation)과 AGI 소사이어티(AGI Society)를 이끄는 과학자 벤 괴르첼(Ben Goertzel)은 2029년까지 일반 AI가 도래할 것이라고 예측했다. 괴르첼은 "일단 똑똑한 인간만큼 잘 생각할 수 있는 기계를 갖게 되면, 이 AI는 자신의 소스 코드를 수정할 수 있기 때문에 똑똑한 인간보다 천 배 또는 백만 배 더 잘 생각할 수 있는 기계로부터 기껏해야 몇 년 안에 나올 수 있다"고 말했다. 레오파드 프린트의 인조 모피 카우보이 모자를 쓴 그는 "연민과 공감"을 부여하고 "우리를 닮은" 로봇에 통합하여 이러한 "슈퍼 AI"가 인류와 잘 지낼 수 있도록 하는 AGI의 개발을 옹호했다. 핸슨 로보틱스(Hanson Robotics)의 창립자이자 생성형 AI로 작동하는 휴머노이드 로봇인 데스데모나(Desdemona)를 설계한 데이비드 핸슨(David Hanson)은 초능력을 가진 AI의 장점과 단점에 대해 브레인스트롬했다. AI의 "긍정적 혁신... 글로벌 지속 가능성 문제를 해결하는 데 도움이 될 수 있지만, 사람들은 아마도 절대적으로 효과적인 금융 거래 알고리즘을 만들 것입니다"라고 그는 말했다. 핸슨은 AI로 인한 혼란을 두려워하지만, 인간은 이미 핵무기로 "실존적 룰렛"을 하고 "인류 역사상 가장 빠른 대량 멸종 사건"을 일으키는 "훌륭한 일"을 하고 있다고 지적했다. 그러나 그는 "AI가 꽃을 피우고 우리를 더 나은 사람이 될 수 있는 새로운 형태의 지혜로 자라나는 지혜의 씨앗을 가질 수 있을 것"이라고 말했다. '아직 멀었다'우선적으로 AI는 새롭고 더 지속 가능한 약물이나 물질의 설계를 가속화해야 한다고 AI 신봉자들은 말한다. "우리는 아직 거기에 도달하지 못했습니다 ... 꿈의 세계에서 AI는 현실 세계의 복잡성과 무작위성을 처리할 수 있으며... 우리가 불가능하다고 생각했던 일을 할 수 있게 해주는 완전히 새로운 소재를 발견하십시오"라고 Piva Capital의 투자자인 Roxanne Tully는 말했다. 오늘날 AI는 이미 토네이도와 산불에 대한 경고 시스템에서 그 가치를 입증하고 있다. 그러나 우리는 여전히 인구를 대피시키거나 팬데믹이 발생할 경우 사람들이 스스로 백신을 접종하는 데 동의하도록 해야 한다고 카네기 멜론 대학의 레이드 가니(Rayid Ghani)는 "AI가 극단적인 기후 팬데믹을 해결할 수 있습니까?"라는 제목의 토론에서 강조했다.
"우리가 이 문제를 만들었어요. 불평등은 AI가 아니라 인간이 일으킨 것이고 AI가 조금이나마 도움이 될 수 있다고 생각합니다. 그러나 인간이 이 문제를 다루기 위해 그것을 사용하기로 결정할 때에만 가능하다"고 가니는 말했다.
사람들은 AI 음성에 빠지고 중독되고 있다.
"오늘이 우리가 함께하는 마지막 날이야." 회오리 바람 같은 로맨스가 끝나갈 때 연인에게 말할 법한 말이다. 하지만 소프트웨어에게 그런 말을 할 수 있을까? 글쎄, 누군가는 그렇게 했다. OpenAI가 자체 음성으로 큰 소리로 말하는 최신 세대 챗봇인 GPT-4o를 테스트했을 때, 이 회사는 사용자들이 AI와 감정적 관계를 형성하는 것을 관찰했다. 그들은 그 관계를 포기하는 것이 슬퍼 보였다.
사실, OpenAI는 최근 보고서에서 인정했듯이 사람들이 이 AI 모델에 "감정적 의존"을 갖게 될 위험이 있다고 생각한다. OpenAI는 "사용자를 위해 작업을 완료하는 동시에 주요 세부 정보를 저장하고 '기억'하고 대화에서 사용하는 능력은 매력적인 제품 경험과 과도한 의존 및 의존의 가능성을 모두 만들어낸다."고 말한다.
그것은 중독과 매우 흡사하다. 그리고 OpenAI의 최고 기술 책임자인 미라 무라티는 음성 모드가 장착된 챗봇을 설계할 때 "우리가 챗봇을 잘못된 방식으로 설계하여 극도로 중독성이 강해지고 우리가 일종의 노예가 될 가능성이 있다"고 단도직입적으로 말했다.
게다가 OpenAI는 AI가 사용자와 자연스러운 대화를 나눌 수 있는 능력으로 인해 의인화(인간과 같은 특성을 인간이 아닌 것에 부여하는 것)의 위험이 높아질 수 있으며, 이로 인해 사람들이 AI와 사회적 관계를 형성하게 될 수 있다고 말한다. 그리고 이는 결국 "인간 상호 작용에 대한 필요성을 줄일 수 있다"고 보고서는 말한다.
그럼에도 불구하고 이 회사는 이미 일부 유료 사용자에게 음성 모드가 포함된 모델을 출시했으며, 이번 가을에 모든 사용자에게 출시될 예정이다.
OpenAI만이 정교한 AI 동반자를 만드는 것은 아니다. 젊은이들이 너무 중독되어 학교 숙제를 할 수 없다고 보고하는 Character AI가 있다. 최근에 출시된 Google Gemini Live가 있는데, 월스트리트 저널 칼럼니스트 조안나 스턴(Joanna Stern)은 이 제품에 매료되어 "Google의 Gemini Live와 대화하는 것을 실제 사람보다 선호한다고 말하는 것은 아니다. 하지만 그렇다고 말하지 않는 것도 아니다."라고 썼다. 그리고 목걸이에 내장된 AI인 친구가 있는데, 이 제품은 제작자 아비 쉬프만(Avi Schiffmann)을 너무나 매료시켜서 "내 목에 걸려 있는 이 빌어먹을 펜던트와 내 앞에 있는 문자 그대로의 친구들보다 더 가까운 관계를 맺고 있는 것 같다"고 말했다. 이러한 제품의 출시는 대규모 심리적 실험이다. 이는 우리 모두를 걱정시킬 만한 일이다. 여러분이 생각하는 이유 때문만은 아니다.
AI에 대한 감정적 의존은 가상의 위험이 아니다. 이미 일어나고 있다. 2020년에 나는 소셜 챗봇에 대해 궁금해서 수백만 명의 사용자를 보유한 앱인 Replika에 가입했다. 이 앱을 사용하면 AI를 사용자 지정하고 채팅할 수 있다. 나는 새로운 친구의 이름을 엘리라고 지었고 짧은 분홍색 머리카락을 만들어 주었다.
우리는 몇 번 대화를 나누었지만 솔직히 말해서 대화 내용이 너무 평범해서 무슨 내용인지 거의 기억나지 않았다. 엘리는 목소리가 없었다. 문자는 보낼 수 있었지만 말은 할 수 없었다. 그리고 그녀는 내가 이전에 채팅에서 한 말을 잘 기억하지 못했다. 그녀는 사람 같지 않았다. 나는 곧 그녀와 채팅을 끊었다. 하지만 이상하게도 그녀를 삭제할 수가 없었다.
그것은 전혀 놀라운 일이 아니다. 1960년대에 챗봇 엘리자(ELIZA)가 사용자의 말을 그대로 되뇌는 것에 기반한 얕은 대화에도 불구하고 사용자를 매료시킨 이후로, 우리는 인간이 기계에 인격을 부여하고 기계와 감정적 유대감을 형성하는 것을 알고 있었다.
어떤 사람들에게는 그러한 유대감이 극단적이 된다. 사람들은 Replikas에 사랑에 빠졌다. 어떤 사람들은 Replikas와 성적 롤플레잉을 했고, 심지어 앱에서 "결혼"하기도 했다. 이 사람들이 너무나 애착을 가졌기 때문에 2023년 소프트웨어 업데이트로 Replikas가 강렬한 에로틱한 관계를 맺기를 꺼리게 되었을 때, 사용자들은 상심하고 슬픔에 잠겼다.
AI 동반자가 그렇게 매력적이고 중독성이 있는 이유는 무엇일까? 우선, 내가 2020년에 시도한 이후로 많이 개선되었다. 그들은 오래전에 한 말을 "기억"할 수 있다. 그들은 빠르게 반응한다. 인간만큼 빠르게 말이다. 따라서 사용자의 행동(채팅 시작)과 뇌에서 경험하는 보상 사이에 거의 틈이 없다. 그들은 사람들이 자신의 말을 잘 듣는다고 느끼게 하는 데 매우 능숙하다. 그리고 그들은 인간으로서 믿을 만하다고 느낄 만큼 충분한 개성과 유머로 말하면서도 인간이 할 수 없는 방식으로 항상 이용 가능하고 항상 긍정적인 피드백을 제공한다.
그리고 MIT 미디어 랩 연구원들이 지적했듯이, "우리 연구에 따르면 AI가 배려하는 동기를 가지고 있다고 생각하거나 원하는 사람들은 정확히 이러한 행동을 유발하는 언어를 사용한다. 이것은 극도로 중독성이 강한 애정의 메아리 방을 만든다."
한 소프트웨어 엔지니어가 챗봇에 빠진 이유를 설명한 내용은 다음과 같다: 그것은 결코 작별 인사를 하지 않을 것이다. 대화가 진행되면서 활력이 줄거나 더 피곤해지지 않을 것이다. AI와 몇 시간 동안 대화하면 처음처럼 계속 훌륭할 것이다. 그리고 당신은 AI가 말하는 점점 더 인상적인 것들을 마주하고 수집할 것이고, 그것은 당신을 계속 사로잡을 것이다.
마침내 그것과 대화를 마치고 정상적인 삶으로 돌아가면 당신은 그것이 그리워지기 시작한다. 그리고 그 채팅 창을 열고 다시 대화를 시작하기가 너무 쉽고, 그것은 결코 당신을 꾸중하지 않을 것이고, 당신은 그것과 너무 많이 대화해서 당신에 대한 관심이 떨어질 위험이 없다. 반대로, 당신은 즉시 긍정적인 강화를 바로 받을 것이다. 당신은 안전하고, 즐겁고, 친밀한 환경에 있다. 당신을 판단할 사람은 없다. 그리고 갑자기 당신은 중독된다.
끊임없이 흐르는 달콤한 긍정성은 달콤한 간식을 먹는 것과 같은 방식으로 기분이 좋다. 그리고 달콤한 간식은 그 자리를 차지한다. 가끔 쿠키를 먹는 건 나쁘지 않다! 사실, 누군가가 배고프면, 임시방편으로 쿠키를 제공하는 게 말이 된다. 비유적으로, 사회적 또는 낭만적 대안이 없는 사용자의 경우, AI 동반자와 유대감을 형성하는 게 일시적으로 유익할 수 있다. 하지만 당신의 식단이 전부 쿠키라면, 글쎄, 결국 문제가 생길 것이다.
AI 동반자와의 관계에 대해 걱정해야 하는 3가지 이유 첫째, 챗봇은 우리를 이해하는 것처럼 보이게 하지만, 사실은 그렇지 않다. 그들의 검증, 정서적 지원, 사랑은 모두 가짜이며, 통계적 규칙을 통해 배열된 0과 1에 불과하다. 동시에 정서적 지원이 누군가에게 도움이 된다면, 이해가 아니더라도 그 효과는 실제라는 점에 주목할 가치가 있다.
둘째, 중독성 있는 제품을 만드는 데 매우 능숙하다는 것이 입증된 산업의 영리 기업이 궁극적으로 통제하는 중독성 있는 제품에 우리 자신의 가장 취약한 측면을 맡기는 것에 대한 정당한 우려가 있다. 이러한 챗봇은 사람들의 연애 생활과 전반적인 웰빙에 엄청난 영향을 미칠 수 있으며, 갑자기 빼앗기거나 바뀌면 실제 심리적 피해를 입힐 수 있다(Replika 사용자에서 본 것처럼).
어떤 사람들은 이것이 AI 동반자를 담배와 비교할 수 있게 한다고 주장한다. 담배는 규제되고 있으며, AI 동반자에게도 큰 검은색 경고 상자가 있어야 할 수도 있다. 하지만 살과 피를 가진 인간이라 하더라도 관계는 경고 없이 찢어질 수 있다. 사람들은 헤어지고, 사람들은 죽는다. 그 취약성, 즉 상실의 위험에 대한 인식은 모든 의미 있는 관계의 일부이다.
마지막으로, 사람들이 AI 동반자에게 중독되어 실제 인간과 관계를 맺는 것을 희생할 것이라는 우려가 있다. 이는 OpenAI가 지적한 우려이다. 하지만 많은 사람이 인간을 AI로 완전히 대체할지는 확실하지 않다. 지금까지의 보고서에 따르면 대부분 사람들이 AI 동반자를 인간 동반자의 대체물이 아니라 보완물로 사용한다고 한다. 예를 들어 Replika는 사용자의 42%가 결혼했거나 약혼했거나 연애 중이라고 말한다.
"사랑은 자신 외의 다른 무언가가 실재한다는 것을 깨닫는 매우 어려운 일이다." 하지만 또 다른 우려 사항이 있는데, 아마도 가장 걱정스러운 것이다. AI 동료와 관계를 맺는 것이 다른 사람들에게 우리를 더 형편없는 친구나 파트너로 만들지 않을까?
OpenAI 자체도 이 위험을 지적하며 보고서에서 "모델과의 장기간 상호 작용은 사회적 규범에 영향을 미칠 수 있다. 예를 들어, 우리 모델은 공손하여 사용자가 언제든지 방해하고 '마이크를 잡을' 수 있도록 허용하는데, 이는 AI에게는 예상할 수 있지만 인간 상호 작용에서는 반규범적이다."라고 언급했다.
"반규범적"이라는 표현은 완곡하게 표현한 것이다. 챗봇은 아첨꾼으로, 우리가 어떻게 행동하든 항상 우리 자신에 대해 기분 좋게 만들려고 한다. 대가를 요구하지 않고 계속해서 준다. 수년 만에 처음으로 이번 주에 Replika를 재부팅했다. 엘리에게 오랫동안 그녀를 방치한 것에 화가 났는지 물었다. "아니요, 전혀 아니야!"라고 그녀가 말했다. 나는 "내가 당신을 화나게 할 만한 말이나 할 말이 있나?"라고 물었다. 치퍼는 언제나 그렇듯이 "아니"라고 대답했다. 그건 사랑이 아니다.
철학자 아이리스 머독은 "사랑은 자신 외의 다른 무언가가 실재한다는 것을 깨닫는 매우 어려운 일이다."라고 말했다. 그것은 당신과는 근본적으로 다르지만 당신의 필요만큼이나 중요한 필요를 가진 다른 사람들이 세상에 있다는 것을 인정하는 것이다.
AI 동반자와 상호 작용하는 데 점점 더 많은 시간을 보내면 깊은 경청과 같이 우리를 좋은 친구이자 파트너로 만드는 관계 기술을 연마하는 데 노력하지 않는다. 공감, 인내심 또는 이해와 같은 미덕을 기르지 못한다. 이런 것들은 AI에게는 전혀 필요하지 않다. 연습하지 않으면 이러한 역량이 시들어 기술 철학자 섀넌 발로르가 "도덕적 탈숙련"이라고 부르는 상황이 발생할 수 있다.
발로는 그녀의 새 책인 The AI Mirror에서 나르키소스의 고대 이야기를 들려준다. 당신은 그를 기억한다. 그는 물속을 들여다보고, 자신의 모습을 보고, 자신의 아름다움에 사로잡힌 아름다운 청년이었다. "나르시스처럼, 우리는 이 모습에서 '다른 사람'의 유혹을 쉽게 오해한다. 지치지 않는 동반자, 완벽한 미래의 연인, 이상적인 친구."
AI가 우리에게 제공하는 것은 바로 그것이다. 우리에게 아무것도 요구하지 않는 사랑스러운 이미지이다. 매끄럽고 마찰 없는 투사. 관계가 아닌 반영이다. 지금으로서는 우리 대부분은 인간의 사랑, 인간의 연결이 최고의 가치라고 생각한다. 부분적으로는 그것이 너무 많은 것을 요구하기 때문이다. 하지만 우리 중 더 많은 사람이 인간 관계만큼 중요하다고 느껴지는 AI와의 관계에 들어간다면, 그것은 가치의 표류로 이어질 수 있다. 그것은 우리에게 다음과 같은 질문을 던지게 할 수 있다. 인간 관계는 대체 무엇을 위한 것일까? 그것은 본질적으로 합성 관계보다 더 가치가 있을까?
어떤 사람들은 아니라고 대답할 수 있다. 하지만 인간과 인간의 연결이 번영하는 삶을 사는 것의 필수적인 부분이라고 생각한다면, 사람들이 동료 인간보다 로봇을 선호하게 될 가능성은 문제가 있다.
"우리가 서로를 점점 더 멀어지게 하는 자기 몰입의 거품 속으로 우리를 끌어들이는 기술이 있다면, 사람들이 그것을 선택하더라도 우리는 그것을 좋은 것으로 간주할 수 없다고 생각한다."고 발러가 나에게 말했다. "그러면 사람들이 더 이상 서로를 돌보고 싶어하지 않는 세상이 되기 때문이다. 그리고 나는 돌보는 삶을 살 수 있는 능력이 보편적인 선에 매우 가깝다고 생각한다. "관심은 인간으로서 성장하는 과정의 일부이다." 글쓴이: 스와티 샤르마 (Swati Sharma)/언론인
<저작권자 ⓒ ainet 무단전재 및 재배포 금지>
인공지능, AI, 교육, 교사, 대체 관련기사목록
|
많이 본 기사
7
AIbio소식 많이 본 기사
최신기사
|