광고
광고
광고
광고
광고

2021년은 만약 이 4가지 문제를 해결한다면 AI의 성공적인 한해가 될 것이다.

https://singularityhub.com/2021/01/05/2021-could-be-a-banner-year-for-ai-if-we-solve-these-4-problems/

JM Kim | 기사입력 2021/01/07 [00:29]

2021년은 만약 이 4가지 문제를 해결한다면 AI의 성공적인 한해가 될 것이다.

https://singularityhub.com/2021/01/05/2021-could-be-a-banner-year-for-ai-if-we-solve-these-4-problems/

JM Kim | 입력 : 2021/01/07 [00:29]

 

AI 2020년에 할 말이 있다면 "이건 건드릴 수 없어"이다. 작년에는 물리적 세계와의 연결이 끊어졌을 지 모르지만 디지털 영역에서는 AI가 번성했다. AI 컨퍼런스의 핵심인 NeurIps를 살펴보라. 브리티시 컬럼비아의 눈부신 산이나 바르셀로나 해변의 일반적인 배경은 없지만 연례 AI 화려함은 앞으로 몇 년 동안이 분야를 포괄할 수많은 "큰 그림"문제 (편향, 견고성, 일반화)를 강조했다.

 

더 괴상한 측면에서 과학자들은 AI와 우리 몸 사이의 교차점을 더 탐구했다. 역전파와 같은 딥러닝의 핵심 개념은 우리 뇌가 생물학적 네트워크에서 "결함을 할당"하여 뇌가 학습할 수 있도록 하는 그럴듯한 수단으로 간주되었다. 다른 사람들은 AI '황금자'방법인 딥러닝을 효율적인 검색을 안내하는 방법과 같은 다른 방법과 결합하여 지능을 이중으로 구성해야 할 때라고 주장했다.

 

다음은 2021년에 우리가 주시하고 있는 네 가지 영역이다. 그들은 에너지 소비를 줄이고, 풍부한 학습 예제의 필요성을 없애고, AI의 상식을 가르치는 것과 같은 뛰어난 AI 문제를 다루고 있다.

 

 

 

탐욕: 일회성 학습 미만

 

당신은 이것을 수십억번 들었다. 딥러닝은 매우 탐욕스럽다. 알고리즘은 개나 고양이를 식별하거나 넷플릭스나 아마존을 추천하는 것과 같은 기본적인 학습 징후를 보여주기 위해 수천 가지(더 이상은 아닐지라도) 예제를 필요로 한다는 점이다.

 

인간의 학습경험과 일치하지 않는다는 점에서 매우 시간이 많이 걸리고 에너지가 낭비되며 머리를 긁적인다. 유아는 평생 기억하기 전에 몇 가지 예를 볼 필요가 있다. ''라는 개념을 생각해보자. 품종에 관계없이 몇 마리의 개를 본 아이는 눈을 떼지 않고도 다양한 품종을 알아볼 수 있다. 이제 완전히 외계인인 유니콘을 생각해보자. 말과 일각 고래의 개념을 이해하는 어린이는 이 둘을 결합하여 유니콘이 어떻게 생겼는지 추론할 수 있다.

 

AI 말하기에서 이것은 "일회성 미만"학습으로, 알고리즘이 학습된 예제의 양보다 더 많은 객체를 학습할 수 있도록 하는 일종의 성배와 같은 능력이다. 실현된다면 그 의미는 엄청날 것이다. 현재 대량의 알고리즘은 처리 능력이 낮은 모바일 장치에서 잠재적으로 원활하게 실행될 수 있다. 모든 종류의 "추론"은 진정한 이해를 얻지 못하더라도 자율주행자동차가 사물로 가득 찬 세상을 훨씬 더 효율적으로 탐색할 수 있도록 한다.

 

작년에 캐나다의 한 팀은 목표가 꿈이 아니라고 제안했다. 컴퓨터 비전에서 흔히 볼 수 있는 "장난감 문제"인 손으로 쓴 숫자를 분석하는 MIT의 작업을 기반으로 그들은 "소프트 라벨"이라는 개념을 사용하여 60,000개의 이미지를 5개로 추출했다. 각 숫자의 모양을 지정하는 대신 "3", "8"또는 "0"의 백분율로 각 숫자(: "3")에 레이블을 지정했다. 놀랍게도 팀은 신중하게 구성된 레이블을 사용하여 이론적으로 수천 개의 다른 개체를 인코딩할 수 있는 두 가지 예를 발견했다. MIT Technology Review Karen Hao가 여기에서 더 자세히 설명한다.

 

취약성: AI 해커 방지를 유지하는 방법

 

AI가 할 수 있는 모든 일에는 입력 데이터를 표적으로 삼는 교활한 공격을 방어하는 데 결함이 있다. 데이터 세트에 대한 약간의 또는 겉보기에 무작위로 보이는 섭동 (종종 사람의 눈으로 감지할 수 없음)은 최종 출력을 엄청나게 변경시킬 수 있다. 이는 알고리즘에서 "취약한"것으로 불린다. 너무 추상적인가? 인간 의사가 노란색 마커로 주석을 달아 수많은 의료 스캔을 통해 암을 인식하도록 훈련된 AI '노란색' ''을 연관시키는 방법을 배울 수 있다. 더 악의적인 예는 악의적 인 조작이다. 도로에 스티커를 부착하면 Tesla Autopilot 시스템을 속여 차선을 착각하고 다가오는 차량에 주의를 기울일 수 있다.

 

취약성은 AI가 일정 수준의 유연성을 학습하도록 요구하지만 방해 행위(또는 "적대적 공격")는 점점 더 인식되는 문제가 되고 있다. 여기에서 해커는 신중하게 작성된 입력으로 AI의 의사결정 프로세스를 변경할 수 있다. 네트워크 보안, 의료 진단 또는 기타 고위험 사용과 관련하여 이러한 공격에 대한 방어 시스템을 구축하는 것이 중요하다.

 

올해 일리노이대학의 한 팀은 딥 러닝 시스템을 보다 탄력적으로 만드는 강력한 방법을 제안했다. 그들은 반복적인 접근 방식을 사용하여 두 개의 신경망을 사용하여 하나는 이미지 인식 용이고 다른 하나는 적대적 공격을 생성하는 데 사용했다. 고양이와 쥐 게임처럼 ""신경망은 컴퓨터 비전 네트워크를 속여서 가상의 것을 인식하도록 한다. 후자의 네트워크는 반격한다. 완벽하지는 않지만 이 연구는 AI를 보다 탄력적이고 신뢰할 수 있게 만들기 위해 점점 더 널리 사용되는 접근 방식을 강조한다.

 

 

 

AI 서번트 신드롬: 상식 학습

 

올해 가장 인상적인 알고리즘 중 하나는 GPT-3으로, OpenAI의 경이로움으로 인간과 비슷한 언어를 뱉어낸다. GPT-3 "지금까지 생산된 가장 흥미롭고 중요한 AI 시스템 중 하나"라고 불리는 3세대 알고리즘으로, 한 눈에 인간으로부터 기계를 해독하기 어려운 "자연스러운"글쓰기를 생성한다.

 

그러나 GPT-3의 언어 능력은 더 자세히 살펴보면 "지능"의 얇은 베일에 불과한다. 인간의 언어에 대해 교육을 받았기 때문에 일상적인 문구의 복잡함과 한계에 갇혀 있다. 현실 세계에서 의미하는 바를 전혀 이해하지 못했다. 그것은 생활하는 대신 Urban Dictionary에서 속어를 배우는 것과 비슷하다. AI는 모든 상황에서 "" "고양이와 개"와 연관시키는 방법을 배울 수 있으며, 대규모 폭우를 설명하는 일반적인 언어에서 추론을 얻을 수 있다.

 

GPT-3 또는 자연어를 생성하는 AI를 더 똑똑하게 만드는 한 가지 방법은 컴퓨터 비전과 결합하는 것이다. ""수 있도록 언어 모델을 가르치는 것은 AI 연구에서 점점 인기를 얻고 있는 분야이다. 이 기술은 언어의 강점과 이미지를 결합한다. GPT-3을 포함한 AI 언어 모델은 '비지도 학습'이라는 프로세스를 통해 학습한다. , 명시적인 라벨없이 데이터의 패턴을 파싱 할 수 있다. , 문법 규칙이나 단어가 서로 어떻게 관련되어 있는지 알려주는 사람이 필요하지 않으므로 수많은 예제 텍스트로 AI를 폭격하여 학습 범위를 쉽게 확장할 수 있다. 반면 이미지 모델은 실제 현실을 더 잘 반영한다. 그러나 수동 레이블링이 필요하므로 프로세스가 더 느리고 지루해진다.

 

두 가지를 결합하면 두 세계의 장점을 모두 얻을 수 있다. 세상을 ""수 있는 로봇은 언어만으로는 분석할 수 없는 일종의 물리적 특성 또는 상식을 포착한다. 2020년 한 연구는 두 가지 접근 방식을 현명하게 결합했다. 그들은 GPT-3의 내부 작업을 기반으로 이미지에 대한 캡션을 작성하는 확장 가능한 접근 방식을 사용하여 언어로 시작했다 (자세한 내용은 여기 참조). 요점은 팀이 이미지를 통해 표현되는 물리적 세계를 우리가 세계를 설명하는 방법에 대한 언어와 연결함으로써 연결될 수 있다는 것이다.

 

변형? 맹인, 청각장애인, 완전히 격리된 AI는 일종의 상식을 배운다. 예를 들어 '고양이와 개'는 비가 아닌 애완 동물을 의미할 수 있다.

 

이 트릭은 여전히 ​​대부분 실험적이지만 특정 AI 도메인의 인위적인 범위 밖에서 생각하는 예이다. 자연어 처리와 컴퓨터 비전이라는 두 영역을 결합하면 더 잘 작동합니다. 상식이 있는 Alexa를 상상해보라.

 

 

 

딥 러닝 피로

 

상자 밖의 사고에 대해 말하자면, DeepMind AI에 대한 다양한 접근 방식을 더 강력한 것으로 결합하는 실험을 하는 사람들 중 하나이다. 그들이 크리스마스 직전에 발표한 Atari 스매싱 알고리즘인 MuZero를 보자.

 

DeepMind의 오리지널 Go, 포커, 체스게임 AI 마법사와 달리 MuZero는 또 다른 트릭을 가지고 있다. AI는 게임이나 의사 결정 과정에 대한 이전 지식으로 시작하지 않는다는 점에서 아무도 듣지 않는다. 오히려 룰 북 없이 배우는 대신 게임의 환경을 관찰한다. 마치 새로운 게임을 관찰하는 초보 인간과 비슷하다. 이러한 방식으로 수백만 개의 게임을 마친 후에는 규칙을 배우는 것뿐만 아니라 뒤늦게 예측하여 자신의 실수를 평가할 수 있는 보다 일반적인 정책 개념을 배우게 된다.

 

사람처럼 들리는가? AI 언어에서 엔지니어는 의사결정 트리와 학습된 모델이라는 두 가지 접근 방식을 결합하여 AI가 승리의 움직임을 계획할 수 있도록 했다. 현재로서는 AlphaGo와 유사한 수준의 마스터 게임에만 표시되었다. 하지만 우리는 인공지능에서 이런 종류의 아이디어가 2021년에 어떻게 교차 수정될 수 있는지 보고 싶어한다.

 

 
인공지능 관련기사목록
광고
광고
광고
광고
광고
많이 본 기사
AIbio로봇,AR/VR·바이오제약 많이 본 기사
최신기사