2022년 연구에 따르면 약 60개의 트위터 계정이 22,000개의 트윗을 작성하고 기후 변화에 대한 거짓 정보 또는 오해의 소지가 있는 정보를 퍼뜨리는 데 사용되었다.
잘못된 기후 정보는 기후 과학 및 환경 문제와 관련된 부정확하거나 기만적인 콘텐츠를 의미한다. 다양한 채널을 통해 전파되어 기후 변화 담론을 왜곡하고 증거 기반 의사 결정을 방해한다.
기후 변화를 해결해야 하는 시급성이 강화됨에 따라 AI가 전파하는 잘못된 정보는 집단적 기후 행동을 달성하는 데 엄청난 장애물이 된다.
잘못된 기후 정보란 무엇일까?
기후 변화와 그 영향에 대한 거짓 정보 또는 오해의 소지가 있는 정보는 종종 의심과 혼란을 심기 위해 유포된다. 이러한 부정확한 콘텐츠의 전파는 효과적인 기후 행동과 대중의 이해를 방해한다.
정보가 디지털 플랫폼을 통해 즉각적으로 이동하는 시대에 잘못된 기후 정보는 일반 대중에게 전파되고 혼란을 야기할 수 있는 비옥한 기반을 찾았다.
주로 세 가지 유형의 잘못된 기후 정보가 있다:
●추세: 종종 기후 변화의 심각성을 경시하기 위해 지구 기후의 장기적인 패턴과 변화에 대한 잘못된 정보를 퍼뜨린다.
●귀속: 기후 사건이나 현상을 관련 없는 요인에 잘못 할당하여 기후 변화에 대한 인간 활동의 실제 영향을 모호하게 한다.
●영향: 기후 행동의 필요성에 대한 두려움을 조장하거나 안일함을 조장하기 위해 기후 변화의 실제 결과를 과장하거나 축소한다.
2022년에는 잘못된 기후 정보를 퍼뜨리려는 몇 가지 불안한 시도가 밝혀져 도전의 정도를 보여주었다. 이러한 노력에는 정책 입안자들에게 영향을 미치고 대중을 속이기 위한 화석 연료 회사의 로비 캠페인이 포함되었다.
또한 석유화학 거물들은 거짓 정보를 유포하기 위해 기후 변화 거부론자 싱크 탱크에 자금을 지원했다. 또한 소셜 미디어 플랫폼에서 기업 환경 "회의론자" 캠페인이 번성하여 트위터 광고 캠페인을 악용하여 잘못된 정보를 빠르게 퍼뜨렸다.
이러한 교활한 캠페인은 기후 과학에 대한 대중의 신뢰를 약화시키고, 행동을 방해하며, 기후 변화에 대처하는 의미 있는 진전을 방해한다.
생성 AI로 잘못된 기후 정보가 어떻게 확산되고 있을까?

생성AI 기술, 특히 생성적 적대 신경망 (GAN) 및 변환기와 같은 딥 러닝 모델은 텍스트, 이미지, 오디오 및 비디오를 포함하여 매우 사실적이고 그럴듯한 콘텐츠를 생성할 수 있다. AI 기술의 이러한 발전은 다양한 방식으로 잘못된 기후 정보를 빠르게 전파할 수 있는 문을 열었다.
생성AI는 기후 변화에 대해 사실이 아닌 이야기를 만들어낼 수 있다. 오늘날 51억 8천만 명의 사람들이 소셜 미디어를 사용하지만 그들은 현재 세계 문제를 더 잘 알고 있다. 그러나 그들은 인간이 작성한 것보다 AI가 생성한 허위 트윗을 발견할 가능성이 3% 적다.
생성 AI가 잘못된 기후 정보를 촉진할 수 있는 몇 가지 방법은 다음과 같다:
1. 접근성
사실적인 합성 콘텐츠를 생성하는 생성AI 도구는 공개 API 및 오픈 소스 커뮤니티를 통해 점점 더 액세스 가능해지고 있다. 이러한 접근 용이성은 텍스트 및 사실적인 가짜 이미지를 포함하여 의도적으로 잘못된 정보를 생성할 수 있게 하여 잘못된 기후 정보의 확산에 기여한다.
2. 정교함
생성AI를 사용하면 더 길고 권위 있는 기사, 블로그 게시물 및 뉴스 기사를 만들 수 있으며 종종 평판이 좋은 출처의 스타일을 복제한다. 이러한 정교함은 청중을 속이고 오도할 수 있어 AI가 생성한 잘못된 정보와 진짜 콘텐츠를 구별하기 어렵게 만든다.
3. 설득
AI 에이전트에 통합된 대규모 언어 모델(LLM)은 여론에 영향을 미치는 설득력 있는 주장을 사용하여 인간과 정교한 대화에 참여할 수 있다. 개인화된 콘텐츠를 생성하는 생성 AI의 기능은 현재 봇 감지 도구로는 감지할 수 없다. 또한 GAI 봇은 허위 정보를 퍼뜨리는 노력을 증폭시키고 소규모 그룹이 온라인에서 더 크게 보이도록 할 수 있다.
따라서 강력한 사실 확인 메커니즘, 미디어 리터러시 프로그램, 디지털 플랫폼에 대한 면밀한 모니터링을 구현하여 AI가 전파하는 잘못된 기후 정보의 확산을 효과적으로 방지하는 것이 중요하다. 정보 무결성과 비판적 사고 기술을 강화하면 개인이 디지털 환경을 탐색하고 기후에 대한 잘못된 정보가 증가하는 가운데 정보에 입각한 결정을 내릴 수 있다.
AI 전파 잘못된 기후 정보 탐지 및 방지
AI 기술은 잘못된 기후 정보의 급속한 확산을 촉진했지만 솔루션의 일부가 될 수도 있다. AI 기반 알고리즘은 AI 생성 콘텐츠에 고유한 패턴을 식별하여 조기 감지 및 개입을 가능하게 한다.
그러나 아직 강력한 AI 탐지 시스템을 구축하는 초기 단계에 있다. 따라서 인간은 잘못된 기후 정보의 위험을 최소화하기 위해 다음과 같은 조치를 취할 수 있다.
●경계 강화: AI 사실 확인 앱이 계속 발전하고 있으므로 사용자는 마주치는 정보를 확인하는 데 주의를 기울여야 한다. AI 검색 결과를 소셜 미디어에 자동으로 게시하는 대신 신뢰할 수 있는 소스를 식별하고 평가한다. 기후 변화 퇴치와 같은 중요한 주제를 다룰 때는 출처를 확인하는 것이 필수적이다.
●팩트 체킹 방법 평가: 전문가 팩트 체커가 사용하는 기술인 측면 판독을 수락한다. 새 창에서 AI 생성 콘텐츠에 인용된 출처 정보를 검색한다. 출처의 신뢰성과 저자의 경험을 분석한다. 기존 검색 엔진을 사용하여 주제에 대한 전문가 간의 합의를 찾고 평가한다.
●증거 평가: AI가 생성한 주장에 제시된 증거를 더 깊이 파고든다. 신뢰할 수 있는 과학적 합의와 연구가 진술을 뒷받침하는지 또는 반증하는지 조사해야 한다. AI 플랫폼에 대한 빠른 조회는 일부 예비 데이터를 얻을 수 있지만 신뢰할 수 있는 결과에 도달하려면 심층 조사가 필요하다.
●AI에만 의존하지 말라: AI 시스템이 때때로 환각적이거나 부정확한 정보를 생성하는 경향이 있으므로 AI에만 의존하지 않는 것이 필수적이다. 지식의 정확성과 정확성을 보장하려면 기존 검색 엔진을 사용하여 부지런히 교차 검증하여 AI 생성 자료를 보완해야 한다.
●디지털 문해력 증진: 미디어 문해력은 또한 개인이 복잡한 기후 담론을 탐색할 수 있도록 권한을 부여하는 데 중추적 역할을 한다. 대중에게 비판적 사고 능력을 부여하면 잘못된 정보를 식별할 수 있어 더 많은 정보를 얻고 책임감 있는 사회를 조성할 수 있다.
윤리적 딜레마: 언론의 자유와 잘못된 정보 통제 사이의 균형
AI가 전파하는 잘못된 기후 정보와의 전쟁에서 AI 개발 및 책임 있는 사용에 대한 윤리 원칙을 지키는 것이 무엇보다 중요하다. 투명성, 공정성 및 책임성을 우선시함으로써 AI 기술이 공익에 기여하고 기후 변화에 대한 이해에 긍정적으로 기여하도록 할 수 있다.