기업의 AI 노력이 실패하는 11가지 흔한 이유

기업들이 인공지능에 막대하게 투자하고 있다. 그러나 안타깝게도 큰 지출이 성공을 보장하지는 않는다. 기술 컨설팅 업체 시어스의 응용 AI 담당 부사장인 폴 팔라스는 “AI가 산업을 변화시키고, 작업 흐름을 재구성하고 있다. 하지만 여러 AI 성공 사례 뒤에는 말 못한 여러 실패들이 있다. 확장되지 않는 고비용 파일럿 프로젝트, 편견을 내장한 모델, 몇 달 안에 쓸모 없어지는 시스템 등이 대표적이다”라고 말했다.

그에 따르면, 성공과 실패의 차이는 AI가 어떻게 구현되고, 관리되고, 지속되는지에 달려 있다. 흔하고 비용이 많이 드는 실수를 피해야 한다. AI 실패로 이어지는 흔한 실수와 이를 피하는 방법을 살펴본다.

사용자를 AI 계획에 포함시키지 않음

“AI 이니셔티브를 망치는 가장 빠른 방법은 무엇일까? AI를 비즈니스 혁신이 아닌 기술 프로젝트로 취급하는 것이다. AI는 결코 고립된 상태에서 작동하지 않는다. 인간의 통찰력, 신뢰, 협업을 통해 번성한다”라고 팔라스는 강조했다.

툴을 제공하기만 하면 사용자들이 알아서 사용하게 된다는 값비싼 신화일 뿐이다. 그는 “AI 솔루션이 사용되지 않거나 실제 워크플로와 맞지 않거나 회의적인 반응을 얻는 등 수많은 실패 사례가 발생하곤 한다. AI는 워크플로우에 원활하게 통합되어야 하고, 직원들의 책임과 일치해야 하며, 명확한 관리 체계를 통해 지원되어야 한다. 활용도가 낮아져 투자가 무의미해질 위험에 유의해야 한다”라고 말했다.

이를 방지하기 위해서는 처음부터 직원들을 참여시키고, AI 개발에 참여시키고, 투명성을 촉진해야 한다. “핵심은 직원들과 함께 AI를 구축하는 것이다. AI가 비즈니스 현실에 부합하도록 보장하는 거버넌스 프레임워크를 함께 수립함으로써 팀이 AI의 잠재력을 신뢰하고, 개선하고, 극대화할 수 있도록 힘을 실어줘야 한다”라고 그는 말했다.

교육과 훈련을 소홀히 함

일자리 대체 등 AI를 걱정스럽게 바라보는 시각이 있을 수 있다. 직원 각각이 AI 도구와 데이터를 사용하는 방법과 이유를 이해할 수 있도록 하는 것은 경영진의 몫이다. 전문 서비스 및 솔루션 업체 젠팩트(Genpact)의 AI/ML 글로벌 리더인 스리칸스 메논은 “인력들이 AI를 수용해야만 비즈니스에 영향을 나타날 수 있다. 이를 위해서는 디지털 우선 문화를 우선시하고 전환 과정에서 직원들을 적극적으로 지원하는 리더십이 필요하다”라고 말했다.

AI에 대한 직원들의 우려를 해소하기 위해 리더들은 부서 전반에 걸쳐 포괄적인 AI 교육을 제공해야 한다. “직원들이 AI가 어떻게 업무를 개선할 수 있는지, 속도 이상의 어떤 가치가 있는지에 대해 교육함으로써, 조직은 AI에 대한 호기심과 수용의 문화를 조성할 수 있으며, 이는 성공에 매우 중요하다”라고 그는 말했다.

마이터(MITRE)의 엔지니어링 및 프로토타이핑 담당 부사장인 더글라스 로빈스는 개인별 맞춤화 교육을 필요성을 언급했다. 그는 “모든 직원에게 적합한 단일 유형의 교육은 없다. 예를 들어, 실무 개발자는 인수 담당자와는 다른 수준의 AI 이해가 필요하다”라고 말했다.

IT 리더 대부분은 AI 교육의 중요성을 잘 알고 있다. 플루럴인사이트의 최근 조사에 따르면 95%가 AI 도구를 효과적으로 사용할 수 있는 직원이 없으면 AI 프로젝트가 실패할 것이라고 생각하고 있다. 그러나 직원들을 위해 공식적인 AI 교육을 실시하고 있다고 답한 IT 리더 비율은 40%에 그쳤다.

현실적 AI 로드맵의 중요성을 간과

각 조직의 AI 성숙도 달성 과정은 조금씩 다르기 마련이다. 로빈스는 “미션에 부합하는 가치 제안을 문서화한 AI 로드맵을 개발하고, 언제, 누가, 어떻게 역량을 개발, 테스트, 배치, 유지할 것인지에 대한 계획을 수립하라”라고 조언했다.

필요한 수준의 AI 성숙도에 도달해 목표를 달성하는 여정에는 여러 단계가 있을 수밖에 없다. “무엇이 효과가 있었고 무엇이 여전히 장애물이 되는지에 초점을 맞추는 것이 필수적이다. 이를 통해 앞날의 방침을 알리고 자원을 어디에 투입해야 하는지를 안내할 수 있다”라고 그는 말했다.

로빈스는 AI 성숙도를 위한 로드맵에 포함되어야 할 범주로 전략 및 자원, 조직 및 인력, 기술 지원, 데이터 관리, 윤리적이고 공정하며 책임감 있는 사용, 성과 및 적용 등을 언급했다.

데이터 관리의 중요성 감소

AI의 성공에는 고품질의 데이터가 필수적이다. 젠팩트의 메논은 “탄탄한 데이터 기반이 없다면 AI 도입은 불가능에 가깝다”라고 표현했다. 최근 젠팩트와 HFS 리서치가 550명의 고위 경영진을 대상으로 실시한 설문조사에 따르면, 응답자의 42%가 데이터 품질이나 전략의 부족이 AI 도입의 가장 큰 장애물이라고 생각하고 있다.

메논은 “여러 출처에서 들어오는 데이터를 체계화하고 관리하기 위해 중앙 집중식 데이터 플랫폼을 구축해야 한다. 이렇게 하면 AI 모델을 성공적으로 추진하기 위해 고품질의 잘 관리된 데이터를 확보할 수 있다”라고 말햇다.

금융 소프트웨어 업체 클리어워터 애널리틱스의 최고 제품 및 기술 책임자 수빅 다스는 “저품질이고 부정확한 데이터는 의사 결정에 위협이 될 뿐 아니라 규제 관련 사고로 이어질 수 있다’라고 씨는 덧붙이며, 데이터 관리를 위한 거버넌스 체계의 필요성을 강조했다. 그는 “임시 데이터 관리가 아닌, 체계적인 프레임워크를 마련해야 한다. 이는 역할, 책임, 프로세스에 명확성과 일관성을 제공하여 [데이터가 꼼꼼하게 정리되고, 액세스가 통제되고, 규정을 준수하도록 하는] 역할을 한다”라고 다스는 했다.

데이터 거버넌스는 매우 중요하지만 까다로운 문제이기도 하다. 피해야 할 함정이 많기 때문이다.

AI가 ‘설정하고 잊어버리면 되는’ 솔루션이라고 가정

AI는 배포로 마무리되는 도구가 아니다. 시어스의 팔라스는 “지속적인 모니터링, 적응, 최적화가 필요한 살아있는 시스템이다. 그러나 많은 조직이 AI를 플러그 앤 플레이 도구로 취급함에 따라 AI의 유용성이 희석되곤 한다. 모델을 유지하고 개선할 전담 팀이 없으면 AI는 관련성, 정확성, 비즈니스 영향력을 빠르게 잃게 된다”라고 말했다.

특히 시장 변화, 진화하는 고객 행동, 규제 변화는 한때 강력했던 AI 도구를 천덕꾸러기로 만들 수 있다. AI를 방치하면 구식 또는 심지어 유해한 결과를 만들어 신뢰, 수익, 경쟁 우위를 약화시킬 수 있다고 그는 강조했다.

팔라스는 “인공지능의 성과를 모니터링하고, 업데이트를 자동화하고, 모델을 지속적으로 개선할 수 있는 전담 팀을 구성하라. 인공지능을 살아있는 시스템으로 여겨야 한다. 반복, 학습, 그리고 지속적인 가치를 제공하기 위한 선제적으로 관리해야 하는 시스템이다. 단순히 배포하는 것만이 아니라, 장기적으로 탁월함을 추구할 때 성공을 거둘 수 있다”라고 말했다.

책임 있는 인공지능 프레임워크를 무시

AI 구현에 있어 위험한 실수 중 하나는 강력한 윤리 프레임워크의 구축을 소홀히 하는 것이다. 팔라스는 “책임감 있는 AI 사용에 대한 명확한 지침이 없다면, 조직은 편향된 알고리즘을 배포하거나, 민감한 데이터를 잘못 취급하거나, 규제 처벌과 평판 손상을 유발할 수 있는 문제적인 사용 사례를 추구할 위험에 처한다”라고 말했다.

그에 따르면 강력한 윤리 프레임워크는 제약이 아니라, AI 이니셔티브를 조직의 가치와 이해관계자의 신뢰에 부합하도록 만드는 촉진제다. 팔라스는 “첫날부터 포괄적인 책임감 있는 AI 프레임워크를 염두에 두라. 모든 AI 이니셔티브에서 윤리, 규정 준수, 투명성을 우선순위에 두어야 한다. 책임감 있는 AI는 단순히 위험을 완화하는 것만이 아니라, 신뢰, 신용, 비즈니스 회복력을 구축하는 경쟁 우위이다”라고 말했다.

위험을 간과

다른 IT 이니셔티브와 마찬가지로 AI 배포에는 위험이 따른다. 그중 일부는 사이버 보안과 관련 있고, 다른 일부는 데이터 무결성과 개인 정보 보호와 관련된다.

메논은 “윤리적 AI 고려 사항이 표준화되지 않았다면, 편향된 알고리즘이나 보안 침해와 같은 AI와 관련된 잠재적 위험을 관리하기 어렵다. 이러한 문제의 영향은 심각할 수 있으며, 평판 손상 및 법적 책임으로 이어질 수 있다”라고 말했다.

기업은 AI 데이터를 보호하고 데이터 개인 정보 보호 및 무결성을 보장하기 위한 조치를 취해야 한다. “책임 있는 AI 원칙과 조직의 신념 및 전략에 따라 초기에 가드레일을 구축함으로써 조직은 위험을 완화하고, 고객과의 신뢰를 구축하고, 경쟁사와 차별화하며, 장기적인 혁신의 길을 열 수 있다”라고 그는 말했다.

AI의 성급한 배포

충분한 테스트 없이 조직 전체에 AI 사용 사례를 적용하면 실패하기 쉽다. 마이터의 로빈스는 “단계적으로 접근해야 한다. 간섭이 적고 간단한 응용 프로그램부터 시작해서, 점차 복잡해지고 잠재적으로 간섭이 심한 용도로 발전시켜야 한다. 초기 활용처로는 데이터 분석, 실시간 언어 번역, 행정 자동화 등이 무난하다”라고 말했다. 이후 시간이 지나면, 이전에 감지할 수 없었던 패턴을 식별하는 등의 더 발전된 용도를 채택할 수 있다고 로빈스는 말했다.

기존의 프로세스를 고려하지 않음

액센츄어의 최고 AI 책임자 란 관은 “AI가 실행되기 시작했다면, 작업 프로세스 검토에도 집중하는 것이 중요하다”라고 조언했다. 특히 기업 경영진이 이에 유의해야 한다는 설명이다. “성과 입중에 대한 압박감에 짓눌려 기존 프로세스를 충분히 고려하지 않으면 장기적으로 더 큰 대가를 치를 수 있다. 문제가 있는 프로세스를 AI가 그저 증폭하도록 만들어선 안 된다”라고 말했다. 그는 이 문제가 의사 결정 지향적 에이전트 AI로 인해 더욱 확대될 것으로 예상했다.

입증 가능한 ROI를 설정하지 않음

투자 수익률(ROI)을 고려하지 않고 수많은 AI 솔루션을 구매하는 것은 AI 전략을 망치는 첩경이다. 메논은 “많은 조직이 명확한 비즈니스 목표에 맞춰 전략을 조정하지 않고 AI 구현을 서두른다. 이로 인해 성공 여부를 제대로 측정하기가 어려워졌다. 이러한 간극은 장기적인 영향과 자원 최적화를 방해한다”라고 말했다.

경영진이 먼저 AI의 기대되는 이점을 정의해야 하며, 전략이 장기적인 성장을 뒷받침하도록 해야 한다. 메논은 “AI가 하염없이 자원을 잡아먹을 수 있다. 그저 더 많은 자원을 투입하고 최선을 기대해선 곤란하다. 리더는 모든 AI 기반 워크플로우에서 발생하는 비용에 대해 신중하게 검토해야 한다”라고 말했다.

성과 측정의 중요성을 과소평가

팔라스는 측정 없는 인공지능은 책임 없는 인공지능이라고 단언했다. 그는 “오늘날 많은 조직이 저지르는 근본적인 실수는 명확한 성공 지표 없이 인공지능 이니셔티브를 시작하는 것이다. 견고한 측정 프레임워크가 없다면, 인공지능 시스템이 실제 비즈니스 가치를 제공하고 있는지 아니면 기술적 부채를 만들고 있는지를 검증하는 것이 불가능하다”라고 말했다.

수치화의 부족은 미래의 투자를 약화시킬 수 있다, 배포에 앞서 명확한 측정 기준을 수립해야 한다. 팔라스는 “기술적 성과와 비즈니스 영향 모두를 추적해야 한다. 측정해야 개선할 수 있는 법이다. 측정된 AI의 성공만이 복제되고 확장될 수 있다”라고 말했다.
dl-ciokorea@foundryco.com



Source link

Leave a Comment