인공지능(AI)은 오늘날 우리 세계를 형성하는 가장 강력한 기술적 힘이다. 글로벌 공급망 최적화부터 약물 발견 프로세스 가속화에 이르기까지 삶을 개선할 수 있는 엄청난 잠재력이 있다. 그러나 신중하게 배포하지 않으면 AI는 편견을 영속시키고 산업을 뒤흔들며 심지어 인간의 창의성과 연결성을 약화시켜 일상 생활에 실질적인 해를 끼칠 가능성이 있다.
극적으로 다른 결과가 달려 있으므로 AI를 사용하여 사회에 이익을 주는 방법에 대해 신중하게 대화하는 것이 중요하다. 당연히 규제는 이 대화의 일부이고 또 되어야 한다.
규제의 중심에는 책임 있는 AI 개발 및 배포에 대한 통합된 접근 방식이 필요하다. 공정성을 보장하기 위해 AI 모델이 다양한 데이터 세트에서 훈련되어야 하는 것처럼, 규제가 편견 없이 개발되도록 보장하기 위해 광범위한 기술자가 규제 대화에 참여해야 한다. 다양한 관점이 없으면 결과적인 규제로 인해 책임 있는 AI의 초석인 오픈 소스 모델이 간과될 수 있다.
거의 모든 국가의 AI 규제 접근 방식은 이해, 성장, 형성의 과정을 따르는 것으로 보인다. 이미지: Deloitte Insights
현재 규제 관련 대화에서 누락된 사항
미국에서는 바이든 대통령의 '인공지능의 안전하고 신뢰할 수 있는 개발 및 사용에 관한 행정 명령'은 신뢰성에 대한 표준 개발 및 교육자가 AI 도구를 안전하게 배포하도록 돕는 것을 포함하여 Grammarly에서 우선 순위를 두는 책임 있는 AI의 몇 가지 중요한 요소를 다루고 있다.
Grammarly의 입장이 행정 명령과 다른 한 가지 영역은 책임 있는 AI 개발의 핵심 측면인 오픈 소스 모델에 대한 믿음이다.
바이든의 행정 명령 섹션 4.6은 비공개 소스 모델에 대한 선호를 제안하며, 이는 아마도 초안 작성 시 협의한 거대 기술 기업의 관점을 반영할 수 있다. 행정부는 오픈 소스 모델을 폐쇄 소스 모델과 다르게 평가하고 있으며 특히 오픈 소스 모델에 대한 권장 사항을 개발할 계획이다.
오픈 소스 개발에 대한 이러한 제한이 기술 산업과 궁극적으로 최종 사용자에게 해를 끼칠 수 있다. 유럽연합이 제안한 인공지능법에 대해서도 비슷한 주장이 제기됐다.
상황에 따라 비공개 소스 모델은 조직에서 유지 관리하며 해당 코드는 사용 또는 감사를 위해 공개적으로 제공되지 않는다. 비공개 소스 대형 언어 모델(LLM)의 예로는 Google의 PaLM, OpenAI의 GPT 모델 제품군, Anthropic의 Claude가 있다. 제3자가 API(응용 프로그래밍 인터페이스)를 통해 일부 비공개 소스 모델을 활용할 수 있지만 코드 자체는 조작할 수 없다.
기술 혁신 연구소의 Falcon LLM, Meta의 Llama2와 같은 오픈 소스 모델은 대중이 혁신이라는 이름으로 무료로 사용하고 수정할 수 있다. 행정 명령에서 알 수 있듯이 일부 사람들은 악의적인 행위자가 의도적으로 오픈 소스 모델의 코드를 변경하여 보안 문제를 일으킬 수 있다는 우려를 가질 수 있다.
이러한 취약점은 모든 소프트웨어가 직면해야 하는 사이버 보안 위험과 다르지 않으며 비공개 및 오픈 소스 개발이 수십 년 동안 허용되었다. 벤처 캐피탈 회사인 Andreessen Horowitz의 일반 파트너인 Martín Casado가 바이든 대통령에게 보낸 편지에서 다음과 같이 언급했다. 오픈 소스 소프트웨어 Linux는 미국 정부의 클라우드 컴퓨팅에 널리 사용되고 있다.
비즈니스에서 오픈 소스 모델의 사용이 실제로 증가하고 있다. Red Hat의 2022년 보고서 '엔터프라이즈 오픈소스 현황'에 따르면 IT 리더의 80%는 엔터프라이즈 오픈소스 소프트웨어의 사용을 늘릴 것으로 예상하고 89%는 오픈소스가 다른 대안과 같거나 그보다 더 안전하다고 믿고 있다.
또한 오픈 소스 개발을 장려하는 산업은 다음과 같은 결과를 가져올 수 있다:
●향상된 창의성, 혁신 및 경쟁: 오픈 소스 AI 모델의 가용성으로 인해 새로운 애플리케이션을 개발하는 데 필요한 시간과 리소스가 크게 줄어들고 더 광범위한 개발자가 AI에 액세스할 수 있게 되어 대규모 기술 회사를 넘어 경쟁이 촉진되었다.
●더 안전한 AI: 모델이 공개적으로 사용 가능해지면 개발자가 새로운 애플리케이션을 구축하는 데만 도움이 되는 것이 아니다. 또한 제품을 더욱 안전하게 만들 수 있다. 예를 들어 지진계(Seismograph)는 AI 작성 도우미가 민감한 콘텐츠와 책임감 있게 상호 작용하는 데 사용할 수 있는 오픈 소스 모델이다.
●투명성 향상: 오픈 소스 모델의 데이터 세트와 코드는 제3자에 의해 감사 및 검증될 수 있으므로 품질과 신뢰성을 보장하는 데 도움이 된다.
이 마지막 점은 강조할 가치가 있다. 바이든의 행정 명령은 책임 있는 AI의 가장 중요한 측면(안전, 보안 및 신뢰성)에 중점을 두었지만 중요한 요소인 투명성에는 많은 공간을 제공하지 않는다.
투명성이 없으면 사람들이 AI 도구가 안전하고 안전하며 신뢰할 수 있는지에 대한 의견을 제시하기가 어렵다. 규제는 데이터 수집 관행 공유부터 지속적인 피드백 루프 구현에 이르기까지 투명성을 향상하기 위한 다양한 방법을 모색해야 하지만, 오픈 소스 모델은 그 존재 자체로 투명성의 상징이다.
규제기관 역할은 정부가 수행할 수 있는 세 가지 역할 중 하나이다. 이미지: Deloitte Insights
오픈 소스 모델만으로는 앞으로 나아갈 수 있는 유일한 방법은 아니다. 비공개 소스 소프트웨어는 기업이 AI 제품으로 수익을 창출하는 일반적인 관행이다. 기술 회사의 CEO로서 나는 비공개 소스 모델의 필요성을 충분히 인식하고 있다. 내가 두려워하는 것은 모든 AI 개발이 비공개 소스로 진행되어 오픈 소스 개발이 업계에 가져오는 혁신, 책임 모델 및 투명성이 감소하는 미래이다.
우리가 다르게 할 수 있는 것
완벽한 세상에서 기술 리더들은 책임 있는 AI를 올바르게 구축하고 있다는 확인으로 규제를 고려할 수 있다. 그렇기 때문에 우리는 규제가 전체적으로 개발되도록 글로벌 무대에서 전문 지식을 적극적으로 공유해야 한다.
기술자가 이를 수행할 수 있는 세 가지 방법은 다음과 같다:
●오픈 소스에 기여: Grammarly의 오픈 소스 모델은 성별을 포함한 문법 오류 수정부터 섬세한 텍스트 상호 작용까지 모든 것을 다루며 보다 책임감 있는 AI 작성 지원을 육성하는 데 도움이 된다. 오픈 소스 모델을 생성함으로써 우리는 최고의 제품을 구축하는 데 있어 다양한 개발자와 산업을 지원할 수 있다.
●책임감 있는 AI 프레임워크를 만들고 따르기: Grammarly에는 TRUE 프레임워크가 있다. 이와 같은 의도적인 프레임워크가 업계 전반에 걸쳐 사용되면 규제가 시행되기 훨씬 전에 최신 AI 기술의 많은 위험이 완화될 것이다.
●서로 반대하지 말고 함께 일하기. AI 리더들이 사회 개선을 위해 노력하는 만큼 우리의 목표는 사회 전반을 위한 AI 활용을 개선하는 것이어야 한다. 동료들과 팀을 이루어 자존심이나 경쟁보다 책임감 있는 AI를 우선시해야 한다.
밀물은 모든 배를 들어올리고 더 강력하고 책임감 있는 AI 산업을 창출하는 것은 AI의 성공적인 배포를 보장하는 데 도움이 된다. 여기에는 AI를 더욱 안전하고 투명하며 유용하게 만들 수 있는 오픈 소스 기술을 공유할 권리를 보호하는 것이 포함된다.
글쓴이: 라훌 로이초두리(Rahul Roy-Chowdhury)/Grammarly 최고 경영자(CEO)