[AI가 민주적 대화의 미래를 형성하는 방식] 신중하게 개발된다면 AI는 집단적 이해를 촉진하는 데 중요한 역할을 할 수 있다. 다양한 관점 사이에서 공통점을 찾아 시급한 사회적 문제를 해결하는 데 도움이 될 수 있다. AI 기술이 발전함에 따라 하버마스 머신과 같은 모델은 현대 민주주의의 과제를 탐색하고, 더 광범위하고 다양한 집단에 대한 심의 프로세스를 단순화하고 확장하는 데 필수적이 될 수 있다.https://www.unite.ai/how-ai-is-shaping-the-future-of-democratic-dialogue/
AI가 민주적 대화의 미래를 형성하는 방식
오늘날 정치적으로 양극화된 세상에서 복잡한 사회적, 정치적 문제에 대한 공통점을 찾는 것은 점점 더 어려워지고 있다. 사회가 더욱 다양해짐에 따라 기후 변화, 이민, 경제 정책과 같은 중요한 문제에 대한 의견 불일치는 확대될 뿐이다. 복잡한 문제에 대한 합의를 찾기 위해 사람들을 모으려면 종종 시간, 자원, 모든 사람의 의견이 들을 수 있는 공평한 경쟁 환경이 필요하다.
인공지능의 최근 발전으로 인해 분열적인 주제에 대한 복잡한 대화를 촉진하는 데 도움이 되는 기술에 대한 새로운 가능성이 생겼다. 예를 들어 AI 기반 대규모 언어 처리(NLP) 모델은 복잡한 언어를 해석하고 감정과 관점의 차이를 분별할 만큼 정교해졌다. 게다가 AI 시스템은 실시간 감정 분석, 편향 감지, 적응형 피드백과 같은 기능을 갖추고 설계되고 있다. 이러한 능력 덕분에 공정하고 균형 잡힌 토론을 촉진하는 데 특히 적합하다.
이러한 잠재력은 Google DeepMind 연구원의 주목을 받아 시민 담론을 촉진하는 데 있어 AI의 잠재력을 탐구하게 되었다. 철학자 위르겐 하버마스의 아이디어에서 영감을 받아, 그들은 시민 담론을 지원하고 그룹이 공유 가치를 발견하도록 돕는 도구인 "하버마스 머신"(HM)을 만들었다.
AI가 우리가 공통점을 찾는 데 정말로 도움이 될 수 있는지라는 질문을 살펴본다. 또한 하버마스 머신(HM)이 어떻게 민주적 심의를 촉진할 수 있는지 살펴본다.
하버마스 머신 하버마스 머신은 개별 의견을 분석하고 통합된 그룹 성명을 작성하도록 설계된 AI 도구이다. 이 기계는 "코커스 중재"처럼 작동한다. 참여자는 생각을 공유하면서 시작한다. 그런 다음 AI가 이를 초안 성명으로 결합한다. 그런 다음 참여자는 이 초안을 검토하고 비판을 제공한다. AI는 입력을 사용하여 더 광범위한 동의를 얻고자 하는 수정된 성명을 생성하여 대다수의 의견과 소수의 비판을 모두 포착한다.
이 기계는 이 작업을 위해 두 가지 전문 LLM을 사용한다. 첫 번째는 그룹의 다양한 견해를 반영하는 성명을 만드는 생성 모델이다. 두 번째는 각 참여자가 이에 동의할 가능성에 따라 이러한 성명을 평가하는 개인화된 보상 모델이다. 생성 모델은 감독된 미세 조정을 사용하여 개선되는 반면 보상 모델은 보상 신호를 기반으로 반복적으로 향상된다.
이 기계는 영국 전역의 5,000명 이상의 참여자를 대상으로 테스트되었다. 일부는 크라우드소싱 플랫폼을 통해 가입했고 다른 일부는 비영리 시민 집회 조직인 Sortition Foundation에서 모집했다. 참가자들은 그룹으로 나뉘었고, 테스트는 두 단계로 진행되었다. 먼저, 기계는 집단적 의견을 요약했다. 그런 다음, 공통점을 찾기 위해 그룹 간에 중재했다.
민주적 대화를 위한 공통점을 발견하는 데 있어 AI의 약속 이 연구는 민주적 대화에서 공통점을 찾을 수 있는 AI의 잠재력을 강조한다. 한 가지 주요 발견은 AI가 중재한 토론이 참가자들이 공유된 견해로 전환하도록 이끌었다는 것이다. 종종 기존 신념을 강화하는 중재되지 않은 토론과 달리, AI는 참가자들이 자신의 입장을 재고하도록 돕고 중간 지점에 더 가까이 다가가도록 했다. 이러한 정렬을 장려하는 능력은 AI가 복잡하고 분열적인 문제를 다루는 데 귀중한 도구가 될 수 있음을 보여준다.
이 연구는 또한 참가자와 독립적인 판사 모두가 인간 중재자가 작성한 진술보다 AI가 생성한 진술을 더 호의적으로 평가했다는 것을 밝혔다. 그들은 AI의 진술이 더 정확하고, 더 유익하며, 더 공정하다고 생각했다. 중요한 점은 AI가 단순히 다수 의견을 증폭시킨 것이 아니라 소수 의견에도 무게를 두었다는 것이다. 이 기능은 "다수의 폭정"을 방지하고 반대 의견이 들리도록 하는 데 도움이 되었다. 이러한 반대 의견을 포함하는 것은 특히 민감한 토론에서 매우 중요하다. 공정한 대표는 오해를 방지하고 균형 잡힌 토론을 장려하기 때문이다.
심의 민주주의에서 AI의 실제 세계 적용 AI 중재 심의의 의미는 실제 시나리오에서 중요하다. 예를 들어, AI는 정책 토론, 갈등 해결, 계약 협상 및 시민 집회를 향상시킬 수 있다. 균형 잡힌 대화를 촉진하는 능력은 다양한 이해 관계자와 관련된 복잡한 문제를 해결하려는 정부, 조직 및 커뮤니티에 귀중한 도구가 된다.
실제 환경에서 모델의 효과를 테스트하기 위해 연구자들은 영국 거주자의 대표 샘플로 가상 시민 집회를 조직했다. 이 집회는 이민 정책 및 기후 변화 조치와 같은 분열적인 주제에 초점을 맞추었다. AI 중재 토론 후 참가자들은 AI 편견이 의견에 영향을 미치지 않으면서 합의에 대한 눈에 띄는 변화를 보였다. 이러한 결과는 AI 중재가 편견을 최소화하면서 중요한 사회 문제에 대한 집단적 의사 결정을 잠재적으로 안내할 수 있는 방법을 강조한다.
한계와 윤리적 고려 사항 AI 중재는 큰 가능성을 보여주지만, 주목할 만한 한계가 있다. 예를 들어, 이 연구에서 사용된 AI 모델은 사실 확인 기능이 부족하여 참여자의 의견의 질에 크게 의존한다. 게다가 AI 지원 심의는 해롭거나 비생산적인 담론을 피하기 위해 신중하게 설계해야 한다.
또 다른 중요한 고려 사항은 민주적 과정에서 AI의 윤리적 역할이다. 일부 개인은 알고리즘이 의도치 않게 결과에 영향을 미칠 수 있다는 우려로 정치적 토론에서 AI를 사용하는 것을 조심할 수 있다. 따라서 지속적인 감독과 명확한 윤리적 프레임워크는 AI가 민주적 가치를 존중하는 방식으로 사용되도록 보장하는 데 필수적이다.
결론 Google DeepMind의 연구원들은 AI가 민주적 대화를 변화시킬 잠재력이 있다고 강조했다. 그들은 하버마스 머신과 같은 AI 도구가 개인이 복잡한 문제에서 공통점을 찾는 데 도움이 될 수 있다고 제안한다. AI는 대화를 더 접근 가능하고 포괄적으로 만들 수 있지만, 민주적 가치를 보호하기 위해 책임감 있게 사용하는 것이 중요하다.
<저작권자 ⓒ ainet 무단전재 및 재배포 금지>
AI, 민주적 대화, 대규모 언어 처리 모델, 하버마스 머신, 코커스 중재 관련기사목록
|
많이 본 기사
챗GPT와 AI, 로봇 많이 본 기사
최신기사
|