광고
광고
광고
광고
광고

새로운 '액체' 인공지능이 세계의 경험으로 부터 지속적으로 학습한다. 대부분의 머신러닝 알고리즘은 초기 훈련 기간 이후에는 기술을 연마할 수 없지만, 액체 신경망이라고하는 새로운 접근 방식에 일종의 신경 가소성이 내장되어 있다.

https://singularityhub.com/2021/01/31/new-liquid-ai-learns-as-it-experiences-the-world-in-real-time/

JM Kim | 기사입력 2021/02/02 [00:48]

새로운 '액체' 인공지능이 세계의 경험으로 부터 지속적으로 학습한다. 대부분의 머신러닝 알고리즘은 초기 훈련 기간 이후에는 기술을 연마할 수 없지만, 액체 신경망이라고하는 새로운 접근 방식에 일종의 신경 가소성이 내장되어 있다.

https://singularityhub.com/2021/01/31/new-liquid-ai-learns-as-it-experiences-the-world-in-real-time/

JM Kim | 입력 : 2021/02/02 [00:48]

 

인간의 뇌와의 모든 비교에서 AI는 여전히 우리와는 다르다. 괜찮을 수도 있다. 동물계에서 두뇌는 모든 모양과 크기로 나온다. 따라서 새로운 머신러닝 접근 방식에서 엔지니어는 인간의 두뇌와 모든 복잡한 복잡성을 없애고 대신 영감을 얻기 위해 낮은 벌레의 두뇌로 전환했다. 결과적으로 단순함에는 이점이 있다. 그 결과 신경망은 효율적이고 투명하다. 여기에 핵심 요소가 있다. 바로 평생 학습자이다.

 

대부분의 머신러닝 알고리즘은 초기 훈련 기간 이후에는 기술을 연마할 수 없지만, 연구원들은 액체 신경망이라고하는 새로운 접근 방식에 일종의 "신경 가소성"이 내장되어 있다고 말한다. , 미래에 자동차를 운전하거나 로봇을 조종하는 등 작업을 진행하면서 경험을 통해 배우고 연결을 즉시 조정할 수 있다. 시끄럽고 혼란스러운 세상에서 그러한 적응성은 필수적이다.

 

 

 

선충 브레인 드라이버

 

이 알고리즘의 구조는 작은 선충(또는 벌레) C. elegans의 신경계를 구성하는 302개의 뉴런에서 영감을 받았다.

 

작년에 발표된 연구에서 MIT와 오스트리아 과학기술연구소의 연구원들을 포함하는 이 그룹은 단순성에도 불구하고 C. elegans는 놀랍도록 흥미롭고 다양한 행동을 할 수 있다고 말했다. 그래서 그들은 선충의 뉴런을 수학적으로 모델링하는 방정식을 개발한 다음 신경망에 구축했다. 그들의 선충 브레인 알고리즘은 다른 최첨단 머신러닝 알고리즘보다 훨씬 간단했지만, 차를 차선에 두는 것과 같은 유사한 작업을 수행할 수 있었다.

 

오스트리아 과학기술연구소의 박사과정 학생이자 연구저자인 Mathias Lechner오늘날 수백만 개의 매개 변수가 있는 딥 러닝 모델은 자율주행과 같은 복잡한 작업을 학습하는 데 자주 사용된다. 그러나 우리의 새로운 접근 방식을 통해 네트워크 크기를 2배까지 줄일 수 있다. 우리 시스템은 훈련 가능한 매개 변수 75,000개만 사용한다."고 말한다. 이제 새 논문에서 그룹은 완전히 새로운 기능을 추가하여 선충에서 영감을 받은 시스템을 더욱 발전시킨다.

 

 

 

오래된 선충, 새로운 속임수

 

예를 들어 스티어링 휠을 오른쪽으로 돌리는 신경망의 출력은 네트워크의 "뉴런"간의 가중치 연결 집합에 따라 달라진다. 우리 뇌에서도 마찬가지이다. 각 뇌 세포는 다른 많은 세포와 연결되어 있다. 특정 세포의 발화 여부는 수신하는 신호의 합계에 따라 다르다. 임계 값 (또는 무게)을 넘어 셀은 자체 다운 스트림 연결 네트워크에 신호를 보낸다.

 

신경망에서는 이러한 가중치를 매개 변수라고 한다. 시스템이 네트워크를 통해 데이터를 공급하면 해당 매개 변수가 구성에 수렴되어 최상의 결과를 얻는다. 일반적으로 신경망의 매개 변수는 학습 후 제자리에 고정되고 알고리즘이 작동한다.  그러나 실제 세계에서 이것은 약간 깨지기 쉽다는 것을 의미할 수 있다. 알고리즘이 훈련에서 너무 많이 벗어난 것을 보여주면 깨질 것이다. 이상적인 결과가 아니다.

 

반대로 액체 신경망에서는 매개 변수가 시간과 경험에 따라 계속 변경될 수 있다. AI는 일하는 현장에서 배운다. 이러한 적응성은 예를 들어 비가 자율주행차의 카메라를 가릴 때처럼 세상이 새롭거나 시끄러운 정보를 던지면서 알고리즘이 깨질 가능성이 적다는 것을 의미한다. 또한 내부 작업이 대부분 이해하기 어려운 더 큰 알고리즘과 달리 알고리즘의 단순한 아키텍처를 통해 연구원은 내부를 들여다보고 의사 결정을 감사할 수 있다.

 

새로운 능력이나 여전히 작은 키는 AI를 방해하는 것처럼 보이지 않았다. 이 알고리즘은 일련의 이벤트에서 다음 단계를 예측할 때 다른 최첨단 시간 순서 알고리즘보다 우수하거나 더 잘 수행되었다.

 

이 연구의 주 저자인 Ramin Hasani모두가 네트워크 확장에 대해 이야기한다. "우리는 더 적지만 더 풍부한 노드를 갖기 위해 축소하고 싶다."고 말한다.

 

비교적 적은 컴퓨팅 파워를 소비하는 적응 가능한 알고리즘은 이상적인 로봇 두뇌를 만들 것이다. Hasani는이 접근 방식이 비디오 처리 또는 재무 분석과 같은 새로운 데이터의 실시간 분석을 포함하는 다른 응용 프로그램에서 유용할 수 있다고 믿는다.

 

그는 이를 실용화하기 위해 계속해서 접근할 계획이다.

 

“우리는 자연에서 영감을 받은 더욱 표현력이 뛰어난 신경망을 가지고 있다. 그러나 이것은 과정의 시작에 불과하다.” Hasani는 말했다. “분명한 질문은 이것을 어떻게 확장할까? 우리는 이런 종류의 네트워크가 미래 인텔리전스 시스템의 핵심 요소가 될 수 있다고 생각한다.”

 

 

 

클수록 더 나을까?

 

OpenAI Google과 같은 거대 기업이 거대한 머신러닝 알고리즘으로 정기적으로 헤드라인을 장식하고 있는 당시에는 반대 방향으로 향하는 대안 접근 방식의 매력적인 예이다. OpenAI GPT-3 알고리즘은 그 크기 (당시 기록을 세운 1,750억 매개 변수)와 그 능력 모두에서 작년에 집합적으로 턱을 떨어뜨렸다. 최근 Google 알고리즘이 1조 개 이상의 매개 변수에서 차트 1위를 차지했다.

 

그러나 비평가들은 점점 더 큰 AI를 향한 추진력이 낭비적이고 비용이 많이 들고 대규모 모델에 자금을 지원하기 위해 현금으로 몇몇 회사의 연구를 통합한다고 우려한다. 게다가 이 거대한 모델은블랙박스이며 그들의 행동은 거의 뚫을 수 없다. 이것은 감독되지 않은 모델이 필터링 되지 않은 인터넷에서 훈련될 때 특히 문제가 될 수 있다. 그들이 어떤 나쁜 습관을 습득하게 될지 말하거나 통제할 수 없다.

 

점점 더 많은 학술 연구자들이 이러한 문제 중 일부를 해결하는 것을 목표로 하고 있다. OpenAI, Google, Microsoft와 같은 회사가 더 큰 것이 더 낫다는 가설을 증명하기 위해 노력함에 따라 리소스 부족에도 불구하고 그로 인해 효율성에 대한 심각한 AI 혁신이 다른 곳에서 나타날 수 있다. 그들이 말했듯이, 필요성은 발명의 어머니이다.

 

 
인공지능, AI, 액체인공지능, 액체신경망 관련기사목록
광고
광고
광고
광고
광고
많이 본 기사
AIbio로봇,AR/VR·바이오제약 많이 본 기사
최신기사