오늘날 생성 AI는 사회의 다양한 측면에서 혁신적인 힘을 발휘하고 있다. 그 영향력은 정보 기술과 의료에서 소매와 예술에 이르기까지 우리의 일상 생활에 스며들고 있다.
eMarketer에 따르면 생성 AI는 첫 4년 이내에 미국에서만 1억 명 이상의 사용자가 조기 채택될 것으로 예상된다. 따라서 이 기술의 사회적 영향을 평가하는 것이 중요하다.
향상된 효율성, 생산성 및 경제적 이점을 약속하지만 AI 기반 생성 시스템의 윤리적 사용에 대한 우려도 있다.
생성 AI가 우리에게 미치는 영향
생성 AI(Generative AI)는 우리 삶에 큰 영향을 미쳐 우리가 디지털 세계를 운영하고 상호 작용하는 방식을 변화시켰다.
긍정적이고 부정적인 사회적 영향을 살펴보겠다.
긍정적 영향
생성 AI는 도입된 지 불과 몇 년 만에 비즈니스 운영을 변화시키고 창의성을 위한 새로운 길을 열었고 효율성 향상을 약속하며 시장 역학을 개선했다.
긍정적인 사회적 영향에 대해 논의해 보겠다.
1. 빠른 업무절차
향후 몇 년 동안 생성 AI는 SG&A(판매, 일반, 관리) 비용을 40% 절감할 수 있다.
생성 AI는 복잡한 작업을 자동화하고 혁신을 촉진하며 수동 작업량을 줄여 비즈니스 프로세스 관리를 가속화한다. 예를 들어 데이터 분석에서 Google의 BigQuery ML과 같은 모델은 대규모 데이터 세트에서 통찰력을 추출하는 프로세스를 가속화한다.
결과적으로 기업은 더 나은 시장 분석과 더 빠른 출시 시간을 누릴 수 있다.
2. 창의적인 콘텐츠의 접근성 향상
마케팅 담당자의 50% 이상이 생성 AI가 참여, 전환 및 더 빨라진 크리에이티브 주기의 성능 향상에 기여했다고 평가한다.
또한 생성 AI 도구는 콘텐츠 생성을 자동화하여 이미지, 오디오, 비디오 등과 같은 요소를 클릭 한 번으로 만들 수 있다. 예를 들어 Canva 및 Midjourney와 같은 도구는 생성 AI를 활용하여 사용자가 시각적으로 매력적인 그래픽과 강력한 이미지를 쉽게 만들 수 있도록 지원한다.
또한 ChatGPT와 같은 도구는 대상 고객에 대한 사용자 프롬프트를 기반으로 콘텐츠 아이디어를 브레인스토밍하는 데 도움이 된다. 이는 사용자 경험을 향상시키고 창의적인 콘텐츠의 범위를 넓혀 예술가와 기업가를 전 세계 청중과 직접 연결한다.
3. 손쉽게 얻을 수 있는 지식
Knewton의 연구에 따르면 AI 기반 적응형 학습 프로그램을 활용하는 학생들은 시험 점수가 62%나 향상되었다.
생성 AI는 ChatGPT 또는 Bard.ai와 같은 대규모 언어 모델(LLM)을 통해 즉각적인 액세스에 지식을 제공한다. 질문에 답하고, 콘텐츠를 생성하고, 언어를 번역하여 정보 검색을 효율적이고 개인화한다. 또한, 지속적인 자기 학습을 통해 교육 여정을 풍요롭게 하기 위해 맞춤형 지도와 개인화된 학습 경험을 제공함으로써 교육에 힘을 실어준다.
예를 들어, Khan Academy의 AI 기반 도구인 Khanmigo는 코딩 학습을 위한 작문 코치 역할을 하며 학생들의 학습, 토론 및 협업을 안내하는 프롬프트를 제공한다.
부정적 영향
긍정적인 영향에도 불구하고 생성 AI의 광범위한 사용에는 과제도 있다.
부정적인 사회적 영향을 살펴보겠다.
1. 품질 관리 부족
사람들은 환각과 같은 부정확성의 가능성을 간과하면서 생성 AI 모델의 출력을 객관적인 진실로 인식할 수 있다. 이는 정보 출처에 대한 신뢰를 약화시키고 잘못된 정보의 확산에 기여하여 사회적 인식과 의사 결정에 영향을 미칠 수 있다.
부정확한 AI 출력은 AI 생성 콘텐츠의 신뢰성과 정확성에 대한 우려를 불러일으킨다. 기존 규제 프레임워크는 주로 데이터 개인 정보 보호 및 보안에 중점을 두고 있지만 가능한 모든 시나리오를 처리하도록 모델을 교육하는 것은 어렵다.
이러한 복잡성으로 인해 각 모델의 출력을 규제하는 것이 어려워지며, 특히 사용자 프롬프트가 실수로 유해한 콘텐츠를 생성할 수 있는 경우 더욱 그렇다.
2. 편향된 AI
생성 AI는 훈련된 데이터만큼 훌륭하다. 편견은 데이터 수집부터 모델 배포까지 모든 단계에서 나타나 전체 모집단의 다양성을 부정확하게 나타낼 수 있다.
예를 들어 Stable Diffusion의 5,000개 이상의 이미지를 조사한 결과 인종 및 성별 불평등이 증폭되는 것으로 나타났다. 이 분석에서 텍스트-이미지 모델인 Stable Diffusion은 백인 남성을 CEO로, 여성은 종속적인 역할로 묘사했다. 놀랍게도 그것은 또한 검은 피부의 남성은 범죄를 저지르고 검은 피부의 여성은 비천한 직업을 가지고 있다는 고정관념을 갖게 했다.
이러한 과제를 해결하려면 데이터 편견을 인정하고 AI 생성 시스템의 공정성과 책임성을 보장하기 위해 AI 수명주기 전반에 걸쳐 강력한 규제 프레임워크를 구현해야 한다.
3. 가짜의 확산
생성 AI 모델로 생성된 딥페이크와 잘못된 정보는 대중에게 영향을 미치고 여론을 조작할 수 있다. 더욱이 딥페이크는 무력 충돌을 조장하여 국내외 국가 안보에 뚜렷한 위협을 줄 수 있다.
인터넷을 통해 확인되지 않은 가짜 콘텐츠의 확산은 수백만 명에게 부정적인 영향을 미치고 정치적, 종교적, 사회적 불화를 촉발한다. 예를 들어, 2019년에는 딥페이크 주장이 가봉에서 쿠데타 시도에 영향을 미쳤다.
이는 AI가 생성한 정보의 윤리적 의미에 대한 긴급한 질문을 촉발한다.
4. 소유권 정의를 위한 프레임워크가 없음
현재 AI 생성 콘텐츠의 소유권을 정의하기 위한 포괄적인 프레임워크는 없다. AI 시스템이 생성하고 처리한 데이터의 소유자가 누구인지에 대한 문제는 아직 해결되지 않은 상태로 남아 있다.
예를 들어, Andersen v. Stability AI et al.로 알려진 2022년 후반에 시작된 법적 소송에서 세 명의 아티스트가 힘을 합쳐 다양한 생성 AI 플랫폼을 상대로 집단 소송을 제기했다.
소송에서는 이러한 AI 시스템이 필요한 라이센스를 얻지 않고 아티스트의 원본 작품을 활용했다고 주장했다. 아티스트들은 이러한 플랫폼이 AI를 훈련하기 위해 고유한 스타일을 사용하여 사용자가 기존 보호 창작물에서 충분한 변형이 부족한 작품을 생성할 수 있다고 주장한다.
또한 생성 AI는 광범위한 콘텐츠 생성을 가능하게 하며, 창조 산업의 인간 전문가가 창출하는 가치에 의문이 제기된다. 또한 지적재산권의 정의와 보호에도 도전하고 있다.
생성 AI의 사회적 영향 규제
생성 AI에는 포괄적인 규제 프레임워크가 부족하여 사회에 건설적인 영향과 해로운 영향을 미칠 가능성에 대한 우려가 제기된다.
영향력 있는 이해관계자들은 강력한 규제 프레임워크 구축을 옹호하고 있다.
예를 들어, 유럽연합은 신뢰를 심어주기 위해 최초의 AI 규제 프레임워크를 제안했으며, 이는 2024년에 채택될 것으로 예상된다. 미래 지향적인 접근 방식을 통해 이 프레임워크에는 기술 변화에 적응할 수 있는 AI 애플리케이션과 관련된 규칙이 있다.
또한 사용자와 공급자에 대한 의무 설정, 시판 전 적합성 평가 제안, 정의된 거버넌스 구조 하에서 시판 후 집행 제안을 제안한다.
또한 AI 규제를 옹호하는 Ada Lovelace Institute는 권력 집중을 방지하고 접근을 보장하며 시정 메커니즘을 제공하고 혜택을 극대화하기 위해 잘 설계된 규제의 중요성에 대해 보고했다.
규제 프레임워크를 구현하는 것은 생성 AI와 관련된 위험을 해결하는 데 있어 상당한 진전을 의미한다. 사회에 큰 영향을 미치는 이 기술은 감독, 사려 깊은 규제, 이해관계자 간의 지속적인 대화가 필요하다.