인간이 AI 군비 경쟁을 헤쳐 나갈 수 있는 방법
AI 도구는 많은 사람들에게 직장 프로젝트부터 학교 과제, 과학에 이르기까지 연구에 도움이 되는 것으로 간주된다. 예를 들어, 웹 사이트를 힘들게 검사하는 데 몇 시간을 소비하는 대신 ChatGPT에 질문을 하면 겉보기에 설득력 있는 답변을 얻을 수 있다. 하지만 문제는 – 그 결과를 신뢰할 수 있을까? 경험에 따르면 대답은 종종 "아니오"이다. AI는 인간이 더 많이 참여하고 이를 지시하고 감독한 다음 현실 세계에 대해 생성된 결과를 조사할 때만 잘 작동한다. 그러나 생성 AI 부문의 빠른 성장과 새로운 도구가 지속적으로 출시됨에 따라 소비자가 AI 도구를 사용할 때 수행해야 하는 역할을 이해하고 수용하는 것이 어려울 수 있다.
AI 부문은 거대하고 점점 더 커지고 있으며, 전문가들은 2030년까지 그 가치가 1조 달러가 넘을 것이라고 말한다. 그렇다면 Apple, Amazon, IBM, Microsoft를 비롯한 많은 기업이 자체 AI 기술 버전, 특히 고급 생성 AI 제품을 출시하고 있다.
그러한 이해 관계를 고려할 때 기업이 경쟁에서 우위를 점할 수 있는 새로운 기능을 출시하기 위해 가능한 한 빨리 노력하고 있다는 것도 놀라운 일이 아니다. 이는 실제로 가능한 한 많은 사용자를 생태계에 고정시키려는 기업의 군비 경쟁이다. 기업은 생성 AI 챗봇에 질문만 하면 연구 프로젝트에 필요한 모든 정보를 얻을 수 있는 등 사용자가 AI 시스템을 가장 쉬운 방법으로 활용할 수 있는 기능을 통해 더 많은 고객을 확보할 수 있기를 바라고 있다. 새로운 기능이 정기적으로 추가되더라도 제품이나 브랜드에 그대로 남아 있다.
그러나 때로는 선두 경쟁에서 기업이 제대로 심사를 거치지 않았거나 한계가 잘 이해되거나 정의되지 않은 기능을 출시하는 경우도 있다. 과거에는 기업들이 많은 기술과 애플리케이션에서 시장 점유율을 놓고 경쟁했지만, 현재의 군비 경쟁으로 인해 더 많은 기업이 그 어느 때보다 더 많은 "어설프게" 제품을 출시하고 결과적으로 설익은 결과를 낳고 있는 것 같다. 비즈니스, 개인, 의료, 학문 등 연구 목적으로 이러한 결과에 의존하면 평판 손상, 비즈니스 손실 또는 심지어 생명 위험을 포함하여 바람직하지 않은 결과를 초래할 수 있다.
AI 사고로 인해 여러 기업에 심각한 손실이 발생했다. iTutor라는 회사는 AI 알고리즘이 나이 때문에 수십 명의 구직자를 거부한 후 2023년에 365,000달러의 벌금을 물었다. 부동산 시장 Zillow는 AI 시스템의 잘못된 가격 예측으로 인해 2021년에 수억 달러의 손실을 입었다. 의료 조언을 위해 AI에 의존하는 사용자도 위험에 처해 있다. 예를 들어 채팅 GPT는 혈압 강하제인 베라파밀과 화이자의 코로나19 항바이러스제인 팍슬로비드(Paxlovid) 사이의 상호 작용과 환자가 해당 약물을 동시에 복용할 수 있는지 여부에 대해 사용자에게 부정확한 정보를 제공했다. 둘 사이에 상호 작용이 없었다는 시스템의 잘못된 조언에 의존하는 사람들은 위험에 처할 수 있다.
이러한 사건은 헤드라인을 장식했지만 다른 많은 AI 관련 사건은 그렇지 않다. 하지만 이러한 사건은 경력과 평판에 치명적일 수 있다. 예를 들어, 보고서를 준비하는 지름길을 찾는 바쁜 마케팅 관리자는 AI 도구를 사용하여 보고서를 생성하고 싶은 유혹을 느낄 수 있으며, 해당 도구가 올바르지 않은 정보를 제공하면 다른 직업을 찾게 될 수도 있다. ChatGPT를 사용하여 보고서를 작성하는 학생과 교수가 해당 보고서의 출처를 파악할 만큼 정통한 학생은 해당 학기 동안 F를 받을 수 있다. 그리고 법률 업무에 AI 도구를 사용하는 보조원을 둔 변호사는 잘못된 데이터로 인해 사건이 왜곡된 경우 벌금을 물거나 심지어 자격 박탈을 당할 수도 있다.
인간이 AI를 지휘하고 연구 루프에 대해 더 많은 투명성을 확보한다면 거의 모든 상황을 예방할 수 있다. AI는 인간과 기계의 파트너십으로 보아야 한다. 진정한 협업이며, 이것이 AI의 탁월한 가치이다.
더욱 강력한 검색, 형식 지정 및 분석 기능이 환영받는 반면, AI 제품 제조업체는 이러한 협력을 허용하는 메커니즘도 포함해야 한다. 시스템에는 사용자가 ChatGPT와 같은 도구의 보고서 결과를 조사할 수 있도록 하고 사용자가 특정 데이터 포인트 또는 정보의 원본 소스를 볼 수 있도록 하는 사실 확인 도구가 포함되어야 한다. 이는 우수한 연구를 생산하고 우리 자신에 대한 신뢰를 회복할 것이다. 우리는 신뢰하고 이해하는 사실을 바탕으로 자신 있게 보고서를 제출하거나 정책을 권고할 수 있다.
또한 사용자는 AI를 사용하여 연구를 수행할 때 무엇이 위험한지 인식하고 평가해야 한다. 결과의 중요성에 따라 지루함의 정도를 평가해야 한다. 예를 들어, 지역 레스토랑을 비교하기 위해 AI를 사용할 때 인간은 아마도 덜 개입할 여유가 있을 것이다. 그러나 예를 들어 고부가가치 비즈니스 결정이나 항공기 또는 의료 장비 설계에 대한 정보를 제공하는 연구를 수행할 때 사용자는 AI 기반 연구 프로세스의 각 단계에 더 많이 참여해야 한다. 결정이 중요할수록 인간이 그 결정의 일부라는 것이 더욱 중요하다. 상대적으로 작은 결정에 대한 연구는 아마도 전적으로 AI에 맡길 수 있을 것이다.
AI는 인간의 도움 없이도 점점 더 좋아지고 있다. 인간이 하는 것과 같은 방식으로 현실 세계에 대해 결과를 확인하면서 스스로 검사할 수 있는 AI 도구가 등장할 가능성은 있다. 세상을 훨씬 더 나은 곳으로 만들거나 파괴할 수도 있다. 그러나 AI 도구는 많은 사람들이 믿는 것처럼 바로 그 수준에 도달하지 못할 수도 있다. 이는 인적 요소가 모든 연구 프로젝트에서 여전히 필수적이라는 것을 의미한다. AI 도구는 데이터를 발견하고 정보를 구성하는 데 뛰어나지만 상황을 평가하고 인간으로서 필요한 방식으로 해당 정보를 사용하는 것은 신뢰할 수 없다. 가까운 미래에는 연구자들이 AI 도구를 있는 그대로 보는 것이 중요하다. 작업에서 인간과 인간의 두뇌를 대체하는 도구가 아니라 작업을 완료하는 데 도움이 되는 도구이다.