광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고

AI넷

[오픈소스 AI 선구자: Meta가 역사상 가장 큰 '오픈' AI 모델을 출시했다.] 이 AI 모델은 연구자, 소규모 조직 및 스타트업을 위한 경쟁 환경을 균등하게 만들어주며, 이것은 디지털 지능을 인류 전체에 가장 이로운 방식으로 발전시키기 위함이다.

https://singularityhub.com/2024/08/02/meta-just-launched-the-largest-open-ai-model-in-history-heres-why-it-matters/

JM Kim | 기사입력 2024/08/05 [00:00]

[오픈소스 AI 선구자: Meta가 역사상 가장 큰 '오픈' AI 모델을 출시했다.] 이 AI 모델은 연구자, 소규모 조직 및 스타트업을 위한 경쟁 환경을 균등하게 만들어주며, 이것은 디지털 지능을 인류 전체에 가장 이로운 방식으로 발전시키기 위함이다.

https://singularityhub.com/2024/08/02/meta-just-launched-the-largest-open-ai-model-in-history-heres-why-it-matters/

JM Kim | 입력 : 2024/08/05 [00:00]

 

오픈소스 AI 선구자: Meta가 역사상 가장 큰 '오픈' AI 모델을 출시했다.

 

인공지능의 세계에서 전투가 벌어지고 있다. 한 쪽에는 고급 소프트웨어의 데이터 세트와 알고리즘을 비공개로 비밀로 유지해야 한다고 믿는 회사가 있다. 다른 쪽에는 정교한 AI 모델의 내부를 대중이 볼 수 있도록 해야 한다고 믿는 회사가 있다.

 

이것을 오픈소스 AI와 폐쇄소스 AI 간의 전투라고 생각해보면 된다.

최근 몇 주 동안 Facebook의 모회사인 Meta는 대규모 AI 모델 컬렉션을 출시하여 오픈소스 AI를 위한 싸움에 대대적으로 나섰다. 여기에는 Meta의 설립자이자 최고경영자인 마크 주커버그가 "최초의 프런티어 레벨 오픈소스 AI 모델"이라고 말하는 Llama 3.1 405B라는 모델이 포함된다.

모든 사람이 AI의 이점을 누릴 수 있는 미래를 걱정하는 사람이라면 이는 좋은 소식이다.

 

폐쇄소스 AI의 위험과 오픈소스 AI의 약속

폐쇄소스 AI는 독점적이고 비밀로 유지되는 모델, 데이터 세트 및 알고리즘을 말한다. ChatGPT, Google Gemini, Anthropic Claude가 그 예이다.

누구나 이러한 제품을 사용할 수 있지만 AI 모델이나 도구를 빌드하는 데 사용된 데이터 세트와 소스 코드를 알아낼 방법은 없다.

 

이는 회사가 지적 재산과 이익을 보호하는 좋은 방법이지만 대중의 신뢰와 책임을 훼손할 위험이 있다. AI 기술을 폐쇄 소스로 만들면 혁신 속도가 느려지고 회사나 다른 사용자가 AI 요구 사항을 위해 단일 플랫폼에 의존하게 된다. 이는 모델을 소유한 플랫폼이 변경, 라이선스 및 업데이트를 제어하기 때문이다.

 

AI의 공정성, 책임성, 투명성, 개인 정보 보호 및 인간의 감독을 개선하기 위한 다양한 윤리적 프레임워크가 있다. 그러나 독점 시스템과 관련된 투명성과 외부 책임성의 본질적인 부족으로 인해 폐쇄 소스 AI에서는 이러한 원칙이 완전히 달성되지 않는 경우가 많다.

ChatGPT의 경우 모회사인 OpenAI는 최신 AI 도구의 데이터 세트나 코드를 대중에게 공개하지 않는다. 이로 인해 규제 기관이 감사할 수 없다. 그리고 서비스에 대한 액세스는 무료이지만, 사용자 데이터가 모델을 재교육하는 데 저장되고 사용되는 방식에 대한 우려는 여전히 남아 있다.

 

반면, 오픈소스 AI 모델의 코드와 데이터 세트는 모든 사람이 볼 수 있다.

이를 통해 커뮤니티 협업을 통해 신속한 개발이 촉진되고 소규모 조직과 개인이 AI 개발에 참여할 수 있다. 또한 대규모 AI 모델을 교육하는 비용이 엄청나기 때문에 중소기업에도 큰 차이를 만들어낸다.

아마도 가장 중요한 점은 오픈소스 AI를 통해 잠재적인 편견과 취약성을 면밀히 조사하고 식별할 수 있다는 것이다.

 

그러나 오픈소스 AI는 새로운 위험과 윤리적 우려를 야기한다.

예를 들어, 오픈소스 제품의 품질 관리가 일반적으로 낮다. 해커도 코드와 데이터에 액세스할 수 있으므로 모델은 사이버 공격에 더 취약하고 다크 웹의 데이터로 모델을 재교육하는 것과 같이 악의적인 목적으로 맞춤화 및 사용자 정의할 수 있다.

 

오픈소스 AI 선구자

모든 선도적인 AI 회사 중에서 Meta는 오픈소스 AI의 선구자로 떠올랐다. 새로운 AI 모델 제품군을 통해 OpenAI 2015 12월에 출시했을 때 약속했던 대로 디지털 지능을 "인류 전체에 가장 이로운 방식으로" 발전시키는 것이다. 당시 OpenAI가 말했듯이 말이다.

Llama 3.1 405B는 역사상 가장 큰 오픈소스 AI 모델이다. 여러 언어로 인간 언어 텍스트를 생성할 수 있는 대규모 언어 모델로 알려져 있다. 온라인에서 다운로드할 수 있지만 크기가 너무 커서 사용자는 이를 실행하기 위해 강력한 하드웨어가 필요하다.

 

모든 지표에서 다른 모델보다 성능이 뛰어나지는 않지만 Llama 3.1 405B는 경쟁력이 매우 높은 것으로 간주되며 추론 및 코딩 작업과 같은 특정 작업에서 기존의 폐쇄형 소스 및 상업용 대규모 언어 모델보다 성능이 더 좋다.

하지만 Meta가 학습에 사용된 방대한 데이터 세트를 공개하지 않았기 때문에 새로운 모델은 완전히 개방되지 않았다. 이는 현재 누락된 중요한 "개방형" 요소이다.

그럼에도 불구하고 Meta Llama는 처음부터 대규모 언어 모델을 훈련하는 데 필요한 막대한 리소스 없이도 활용할 수 있기 때문에 연구자, 소규모 조직 및 스타트업을 위한 경쟁 환경을 균등하게 만들어준다.

 

AI의 미래 형성

AI가 민주화되도록 하려면 세 가지 핵심 기둥이 필요하다:

거버넌스: AI 기술이 책임감 있고 윤리적으로 개발되고 사용되도록 하는 규제 및 윤리적 프레임워크

접근성: 개발자와 사용자에게 공정한 환경을 보장하기 위한 저렴한 컴퓨팅 리소스와 사용자 친화적 도구

개방성: AI 도구를 훈련하고 구축하기 위한 데이터 세트와 알고리즘은 투명성을 보장하기 위해 오픈 소스여야 한다.

 

이 세 가지 기둥을 달성하는 것은 정부, 산업, 학계 및 대중의 공동 책임이다. 대중은 AI의 윤리적 정책을 옹호하고, AI 개발에 대한 정보를 얻고, AI를 책임감 있게 사용하고, 오픈 소스 AI 이니셔티브를 지원함으로써 중요한 역할을 할 수 있다.

 

하지만 오픈 소스 AI에 대한 몇 가지 의문이 남아 있다. 오픈 소스 AI를 통해 지적 재산을 보호하고 혁신을 촉진하는 균형을 어떻게 맞출 수 있을까? 오픈 소스 AI에 대한 윤리적 우려를 어떻게 최소화할 수 있을까? 오픈 소스 AI를 잠재적 오용으로부터 어떻게 보호할 수 있을까?

이러한 의문을 적절히 해결하면 AI가 모든 사람을 위한 포괄적 도구가 되는 미래를 만드는 데 도움이 될 것이다. 우리는 도전에 맞서 AI가 더 큰 선을 위해 봉사하도록 할 것인가? 아니면 AI가 배제와 통제를 위한 또 다른 흉악한 도구가 되도록 내버려 둘 것인가? 미래는 우리 손에 달려 있다.

 

 

 

 

 
인공지능, 오픈소스, 폐쇄소스, AI, Meta 관련기사목록
광고
광고
광고
광고
광고
광고
광고
많이 본 기사
챗GPT와 AI, 로봇 많이 본 기사