광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고

AI넷

[Cerebras, 세계 최고 속도의 AI 추론 시스템 출시] Cerebras, 세계에서 가장 빠른 AI 추론 시스템을 선보이다. 웹 브라우징에 고속 인터넷이 등장했던 것처럼, Cerebras는 거대한 언어 모델(LLM)의 성능을 비약적으로 향상시키고 있다.

박영숙세계미래보고서저자 | 기사입력 2024/08/30 [08:39]

[Cerebras, 세계 최고 속도의 AI 추론 시스템 출시] Cerebras, 세계에서 가장 빠른 AI 추론 시스템을 선보이다. 웹 브라우징에 고속 인터넷이 등장했던 것처럼, Cerebras는 거대한 언어 모델(LLM)의 성능을 비약적으로 향상시키고 있다.

박영숙세계미래보고서저자 | 입력 : 2024/08/30 [08:39]

 

Cerebras, 세계에서 가장 빠른 AI 추론 시스템을 선보이다

 

우리는 아직 AI의 초기 단계에 있지만, Cerebras라는 스타트업은 이 분야에 혁신을 불어넣고 있다. 마치 웹 브라우징에 고속 인터넷이 등장했던 것처럼, Cerebras는 거대한 언어 모델(LLM)의 성능을 비약적으로 향상시키고 있다.

 

올해 초, Cerebras는 세계에서 가장 큰 AI 칩을 선보이며 업계를 놀라게 했다. 이 거대한 칩은 마치 저녁 접시만큼이나 크다. 그리고 이제, Cerebras는 이 칩을 기반으로 클라우드에서 AI 모델을 실행할 수 있는 새로운 시스템을 출시했다. 이 시스템은 기존 시스템보다 훨씬 빠른 속도로 작동한다.

 

Cerebras의 작동 원리

Cerebras는 자체 개발한 거대한 칩을 CS-3라는 시스템에 탑재했다. 그리고 이 시스템을 사용하여 세계 최대 규모의 슈퍼컴퓨터를 구축했다. 이를 통해 개발자들은 LLM을 실제 환경에서 효율적으로 활용할 수 있게 되었다.

 

추론이란 무엇인가?

추론이란 AI 모델이 학습한 데이터를 바탕으로 새로운 정보를 처리하고 판단하는 과정이다. 마치 사람이 과거의 경험을 바탕으로 새로운 문제를 해결하는 것과 비슷하다. 이 과정에서 AI 모델은 방대한 데이터 속에서 패턴을 찾아내고, 이를 통해 더 빠르고 정확한 결정을 내릴 수 있다.

 

Cerebras가 빠른 이유는?

Cerebras의 칩은 기존의 GPU와는 다른 구조를 가지고 있다. 기존 GPU는 데이터를 처리할 때 외부 메모리와 계속해서 데이터를 주고받아야 하지만, Cerebras의 칩은 엄청난 양의 메모리를 자체적으로 탑재하고 있어 이러한 과정을 생략할 수 있다. 마치 컴퓨터의 메모리에 모든 데이터를 한꺼번에 올려놓고 작업하는 것과 같다.

 

Cerebras의 성능

Cerebras 시스템은 기존의 고성능 시스템보다 훨씬 빠르면서도 정확도를 유지한다. 특히, 메타의 Llama 3.1 모델을 훈련하는 경우, 기존의 NVIDIA GPU 기반 시스템보다 약 20배 빠르고 비용은 5분의 1에 불과하다.

 

결론

Cerebras는 AI 하드웨어 시장에 새로운 바람을 불어넣고 있다. Cerebras의 기술은 AI 연구와 개발을 가속화하고, 다양한 산업 분야에서 AI를 활용하는 데 큰 기여를 할 것으로 기대된다.

 

Cerebras가 세계 최고 속도의 AI 추론 시스템을 출시

 

우리는 여전히 AI 다이얼업 시대에 있지만 Cerebras라는 스타트업은 웹 브라우징에 고속 인터넷이 한 일을 LLM에 하고 싶어 한다고 했다. 올해 초에 세계에서 가장 큰 AI 칩을 선보였으며, 이는 저녁 접시 크기 정도라고 한다. 이제 클라우드를 통해 AI 제품을 실행할 수 있는 새로운 시스템을 출시하고 있으며, 전례 없는 속도로 실행된다고 했다.

 

작동 방식은 다음과 같다. Cerebras는 기록적인 칩을 CS-3라는 시스템에 탑재한 다음, 이 인프라를 사용하여 세계에서 가장 큰 슈퍼컴퓨터 중 일부를 구축했다고 한다. 최신 릴리스는 회사가 이러한 LLM을 현실 세계에서 사용할 수 있도록 돕는다고 했다.

 

추론이란 새로운 정보를 수집한 다음 모델이 이전에 훈련된 데이터 세트에 대해 실행하는 프로세스라고 한다. 이는 방대한 양의 데이터에서 패턴을 찾아내는 데 사용할 수 있으며 모델이 다른 접근 방식보다 훨씬 빠르게 결정을 내리는 데 도움이 될 수 있다고 했다. 추론은 이미 AI 하드웨어 시장의 약 40%를 차지하고 있지만 그 수치는 꾸준히 증가하고 있다고 한다.

 

Cerebras가 경쟁사보다 훨씬 빠른 이유는 기존 GPU는 데이터를 처리할 때마다 외부 메모리와 상호 작용해야 하지만 Cerebras의 칩은 매우 거대하기 때문에 엄청난 양의 메모리를 직접 장착할 공간이 있어 그 단계를 완전히 우회할 수 있다고 한다.

 

결과적으로, 성능 중심 시스템 중 다수는 속도를 높이기 위해 정확도를 낮춰야 하지만 Cerebras는 아키텍처가 네이티브 16비트로 실행되므로 정확도가 절대 떨어지지 않는다고 말했다. Meta의 Llama 3.1을 훈련하는 경우, 비슷한 Nvidia GPU 기반 시스템보다 약 20배 빠르며 비용은 5분의 1에 불과하다고 한다.

 

이러한 혁신적인 기술로 Cerebras는 AI 추론 시장에서 큰 주목을 받고 있으며, 향후 AI 기술 발전에 중요한 역할을 할 것으로 기대된다.

 

cerebras.net

zdnet.com

 

fuse.wikichip.org

 

cerebras.ai

 

forbes.com

forbes.com

cerebras.ai

cerebras.ai

 

servethehome.com

cerebras.net

 

 

Cerebras, 세계 최고 속도의 AI 추론 시스템 출시

출처: Cerebras Systems

우리는 여전히 AI 다이얼업 시대에 있지만 Cerebras라는 스타트업은 웹 브라우징에 고속 인터넷이 한 일을 LLM에 하고 싶어한다. 올해 초에 세계에서 가장 큰 AI 칩을 선보였다(저녁 접시 크기 정도). 이제 클라우드를 통해 AI 제품을 실행할 수 있는 새로운 시스템을 출시하고 있으며, 전례 없는 속도로 실행된다.

작동 방식: Cerebras는 기록적인 칩을 CS-3라는 시스템에 탑재한 다음, 이 인프라를 사용하여 세계에서 가장 큰 슈퍼컴퓨터 중 일부를 구축했다. 최신 릴리스는 회사가 이러한 LLM을 현실 세계에서 사용할 수 있도록 돕는다. 

추론이란 무엇인가? 

  • 새로운 정보를 수집한 다음 모델이 이전에 훈련된 데이터 세트에 대해 실행하는 프로세스이다.

  • 이는 방대한 양의 데이터에서 패턴을 찾아내는 데 사용할 수 있으며 모델이 다른 접근 방식보다 훨씬 빠르게 결정을 내리는 데 도움이 될 수 있다.

  • 추론은 이미 AI 하드웨어 시장의 약 40%를 차지하고 있지만 그 수치는 꾸준히 증가하고 있다.

Cerebras가 경쟁사보다 훨씬 빠른 이유는 무엇일까? 기존 GPU는 데이터를 처리할 때마다 외부 메모리와 상호 작용해야 하지만 Cerebras의 칩은 매우 거대하기 때문에 엄청난 양의 메모리를 직접 장착할 공간이 있어 그 단계를 완전히 우회할 수 있다.

결과: 성능 중심 시스템 중 다수는 속도를 높이기 위해 정확도를 낮춰야 한다. 하지만 Cerebras는 아키텍처가 네이티브 16비트로 실행되므로 정확도가 절대 떨어지지 않는다고 말한다. Meta의 Llama 3.1을 훈련하는 경우, 비슷한 Nvidia GPU 기반 시스템보다 약 20배 빠르며 비용은 5분의 1에 불과하다.

 

 

 

 

 
광고
광고
광고
광고
광고
광고
광고
많이 본 기사
신기술&메타버스AR/VR 많이 본 기사
최신기사