광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[조직의 생성AI 준비] 전반적으로 조직은 AI 위험을 상당히 과소평가한다. AI의 부실한 구현은 기존 작업장 불평등을 영속화 하게 된다. 우리는 기업이 생성 AI의 윤리적 배치를 보장할 수 있는 방법을 조사하며 안전한 프레임워크를 갖춘 조직은 스스로 AI 기술을 배포하고 그 이점을 보다 자신 있게 활용할 수 있다.

https://www.weforum.org/agenda/2023/05/how-can-organizations-prepare-for-generative-ai/

JM Kim | 기사입력 2023/05/10 [00:00]

[조직의 생성AI 준비] 전반적으로 조직은 AI 위험을 상당히 과소평가한다. AI의 부실한 구현은 기존 작업장 불평등을 영속화 하게 된다. 우리는 기업이 생성 AI의 윤리적 배치를 보장할 수 있는 방법을 조사하며 안전한 프레임워크를 갖춘 조직은 스스로 AI 기술을 배포하고 그 이점을 보다 자신 있게 활용할 수 있다.

https://www.weforum.org/agenda/2023/05/how-can-organizations-prepare-for-generative-ai/

JM Kim | 입력 : 2023/05/10 [00:00]

최근 ChatGPT와 생성 인공지능(AI)에 대한 과대 광고 속에서 많은 사람들이 점점 더 정교해지는 이 기술의 잠재력을 활용하기를 열망하고 있다.

그러나 베이커 맥켄지Baker McKenzie 2022년 북미 AI 설문 조사 결과에 따르면 비즈니스 리더는 현재 조직에 대한 AI 관련 위험을 과소평가할 수 있다. 최고 경영진 수준의 응답자 중 4%만이 AI 사용과 관련된 위험이 "중요하다"고 생각한다고 답했으며 절반 미만이 이사회 수준에서 AI 전문 지식을 보유하고 있다고 답했다.

 

이 수치는 우려되는 현실을 강조한다. 많은 조직이 AI에 대한 준비가 부족하고 위험을 관리하기 위한 주요 의사 결정자의 적절한 감독과 전문성이 부족하다. 그리고 해결되지 않으면 기술의 윤리적이고 효과적인 배포를 둘러싼 조직의 맹점은 조직이 기술의 폭발적인 성장에 보조를 맞추지 못하게 하면서 변혁의 기회를 무색하게 만들 가능성이 있다.

 

생성 AI가 위험 환경을 어떻게 바꾸고 있을까?

요즘 AI 관련 발전과 채택은 기하급수적인 속도로 일어나고 있다. 일부는 너무 빨리 주장한다.

이러한 기하급수적 성장이 AI 사용에 대한 관심을 다시 불러일으켰지만 현실은 학계, 과학자, 정책 입안자, 법률 전문가 등이 AI의 윤리적이고 합법적인 사용 및 배포를 위해 얼마 동안 캠페인을 벌이고 있다는 것이다. 특히 HR 기능에서 AI의 기존 응용 프로그램이 풍부한 작업장(: 인재 확보, 관리 업무, 직원 교육)에서 말이다.

설문 조사에 따르면 기업의 75%가 이미 채용 및 HR 목적으로 AI 도구와 기술을 사용하고 있다.

 

생성 AI의 이 새로운 단계에서는 거버넌스, 책임성, 투명성과 같은 AI 채택에 대한 핵심 원칙이 그 어느 때보다 중요하며 잘못 배포된 AI의 결과에 대한 우려도 있다.

예를 들어 확인되지 않은 알고리즘은 편향되고 차별적인 결과를 초래하여 불평등을 영속화하고 인력의 다양성 발전을 저해할 수 있다. 데이터 개인 정보 보호 및 침해는 직원 데이터의 비익명화 및 수집을 통해 쉽게 발생하는 또 다른 문제이다.

 

생성 AI는 또한 새로운 IP 고려 사항에 자리를 내어 제3자 프로그램의 입력 및 출력 모두의 소유권과 그에 따른 저작권 침해 문제에 대한 질문을 제기했다.

대체로 우리는 정부와 규제 기관이 AI 관련 법률 및 규제 집행 메커니즘을 구현하기 위해 안간힘을 쓰는 것을 보았다. 미국에서는 새로운 법률의 핵심 초점이 채용 및 HR 관련 운영에서 AI의 사용 사례에 맞춰질 것이다.

 

집단 소송을 포함한 소송도 진행 중이다. 우리는 이미 미국에서 생성 AI IP 소송의 첫 번째 물결을 보고 있으며 이러한 초기 법원 결정은 기존 규제가 없는 법적 환경을 형성하고 있다.

생성 AI를 구현하는 조직은 또한 AI 도구 및 쿼리에 입력된 데이터가 해당 기술의 제3자 공급자에 의해 수집될 것이라고 가정해야 한다. 경우에 따라 이러한 제공자는 이러한 입력을 사용 및/또는 공개할 권리가 있다.

고용주가 직원에게 생성 AI 도구를 제공하려고 할 때 민감한 데이터와 영업 비밀을 위험에 빠뜨리고 있을까? 요컨대, 그렇다. 대체로 각각의 새로운 개발은 조직, 규제 기관 및 법원이 답변할 수 있는 것보다 더 빨리 질문을 여는 것 같다.

 

조직이 AI 준비성을 어떻게 향상시킬 수 있을까?

생성 AI는 패러다임을 바꾸고 있으며 특정 사용 사례에 대한 위험은 계속해서 발생하게 된다. 앞서 나가기 위해 조직은 사일로화된 노력을 넘어 현재 접근 방식을 이동하고 강력한 거버넌스 프레임워크의 우산 아래 개별 기능을 통합해야 한다.

많은 조직이 AI 이니셔티브를 주도하기 위해 데이터 과학자에 의존하지만 법률, C-suite(회사의 중역), 이사회, 개인 정보 보호, 규정 준수 및 HR을 포함한 모든 관련 이해 관계자는 전체 의사 결정 프로세스에 참여해야 한다.

 

이 표현 격차는 설문 조사 결과에서 분명해졌다. 현재 응답자의 54%만이 조직이 AI 도구에 대한 의사 결정 프로세스에 HR을 포함한다고 답했으며 응답자의 36%만이 CAIO(Chief AI Officer)가 있다고 답했다.

 

이 고위험 환경에서 CAIO C-Suite(회사의 중역) 수준에서 관련 거버넌스 및 감독을 보장하는 데 중요한 역할을 하고 HR을 다기능 AI 팀 교육 및 육성에 참여시킨다.

이와 함께 조직은 사용 사례 전반에 걸쳐 엔터프라이즈 위험을 설명하고 문제가 식별되면 회사가 올바른 규정 준수 조정을 효율적으로 수행할 수 있도록 하는 내부 거버넌스 프레임워크를 준비하고 따라야 한다.

 

AI 거버넌스 구조가 없고 주요 이해관계자의 감독이 부족하거나 타사 도구에 전적으로 의존하는 회사의 위험은 조직의 법적 책임(: 차별 주장)을 생성하는 방식으로 AI 도구를 사용하는 것이다.

 

AI 기반이든 아니든 사실상 모든 의사 결정은 편견을 만든다. 이러한 도구를 사용하는 회사는 편향을 평가하는 접근 방식과 불법적 편향을 테스트하고 방지하는 메커니즘을 식별하는 프레임워크를 개발하고 관련 데이터 프라이버시 요구 사항을 충족해야 한다.

편견을 없애기 위한 노력은 배포 전후 테스트를 위한 효과적인 조치로 더욱 뒷받침되어야 한다.

제안된 법안에 보고 요구 사항이 포함될 가능성이 높기 때문에 AI를 배포하는 회사는 사용 중인 데이터 세트, 알고리즘 기능 및 기술적 제한 사항을 명확하게 이해하는 프로세스가 마련되어 있는지 확인해야 한다.

 

AI에 대한 최종 전망

요점은 간단하다. AI는 광범위하고 빠르게 채택되고 있으며 많은 이점을 제공한다. 그러나 너무 빠르게 전개되고 개발되어 전략적 감독 및 거버넌스가 책임 있는 사용 및 위험 완화에 훨씬 더 중요해졌다.

 

많은 조직이 AI에 대한 준비가 되어 있지 않고 위험을 과소평가하여 적절한 가드레일 없이 이 기술을 배포할 의향이 있다.

다행히 강력한 거버넌스 및 감독 구조를 구축함으로써 조직은 AI 여정의 어느 위치에 있든 이러한 기술 조류를 견딜 수 있다.

 

이 외에도 AI 관련 위험을 관리하기 위한 장기적인 솔루션은 법률, 규제 및 민간 부문 전반에 걸쳐 정보에 입각한 이해관계자가 힘을 합쳐 기술이 제시하는 기회와 위험을 모두 인식하는 법률, 실행 규범 또는 지침 프레임워크를 발전시키는 데 의존할 것이다.

안전한 프레임워크를 갖춘 조직은 스스로 AI 기술을 배포하고 그 이점을 보다 자신 있게 활용할 수 있다.

 
조직, 인공지능, 생성 AI 관련기사목록
광고
광고
광고
광고
광고
광고
많이 본 기사
챗GPT와 AI, 로봇 많이 본 기사
최신기사