- New framework aims to keep AI safe in US critical infrastructure
- Temu vs. Amazon: Which shopping site is best for your buying needs?
- ANZ CIO Challenges: AI, Cybersecurity & Data Analytics for 2025
- Want generative AI LLMs integrated with your business data? You need RAG
- AI could alter data science as we know it - here's why
칼럼 | 한 AWS 디렉터가 명쾌하게 제시한 '생성형 AI 활용의 경계'
생성형 AI에 대해 ‘실용적이고 현실적인’ 이야기를 전할 수 있는 사람은 많지 않다. 하지만 최근 AWS 제품 관리 디렉터 마시모 레 페레가 한 강연에서의 발표를 통해 이러한 찬사를 받았다.
최근 생성형 AI에 대한 거부감을 담은 의견을 찾기란 어렵지 않다. 대규모 언어 모델(LLM) 학습의 경제성은 말도 안 되는 수준이며, 생성형 AI에 대한 과대 광고는 나날이 넘쳐나고 있다. 마이클 아이젠버그는 “기초 모델 학습에 대한 자본 투자는 ‘역사상 가장 빠르게 감가상각되는 자산’일 것”이라고 평했다.
하지만 이는 다른 누군가가 해결할 문제다. 독자 대다수에게는 지금 당장 업무에 생성형 AI를 어떻게 사용할지(또는 무시할지)가 문제일 터다. 이와 관련해 레 페레는 언제, 어떻게 생성형 AI를 도입할지 고민하는 데 유용한 프레임워크를 소개했다.
그의 비유에 따르면, 생성형 AI라는 자동차를 빌려서 벽을 향해 돌진할 수도 있지만, 해변에 가는 데 사용할 수도 있다. 끔찍한 환각으로 낭패를 당할 수도 있지만 개발자로서 실제 생산성을 높이는 데 사용할 수 있다는 이야기다. 결국 선택의 문제다.
‘와우’ 모멘트
레 페레는 강연에서 ‘와우 모멘트’를 자아낼 정도로 파괴적인 기술을 종종 접하곤 한다며, “업계에서 무언가가 정말 변화하고 있고… 장기적으로 이런 식으로 일이 진행될 것이라는 것을 깨닫는 때”라고 말했다. 지금까지 다른 ‘와우 모멘트’를 창출해낸 기술로는 가상 머신, 클라우드가 있었으며, 생성형AI도 이러한 기술이라고 그는 주장했다.
생성형 AI는 기본적으로 데이터 집합에서 사용자가 원하는 것을 ‘통계적으로 예측’하는 기술이다. LLM은 데이터를 샅샅이 뒤져 패턴을 찾아낸 다음, 그 패턴을 흥미로운 방식으로 드러낸다. 종전에는 사용자가 모든 것을 직접 알고 자신의 생성물(코딩의 에지 함수나 작가의 블로그 게시물 등)을 만들거나, 온라인에서 각종 정보를 검색하여 해당 생성물을 구축하는 데 필요한 지침을 얻을 수 있었다. 이 두 가지 경우 생성물 구축은 전적으로 사용자의 책임이다. 하지만 생성형 AI는 세 번째 접근 방식을 제공한다: 자연어를 사용하여 LLM에게 생성물을 생성하라는 메시지를 표시하면 생성물이 뚝딱 나온다.
그에 따르면 이 세 번째 방법의 문제는 신뢰다. 생성형 AI가 일관되고 신뢰할 수 있는 결과를 만들어줄 것이라고 어떻게 믿을 수 있을까? 레 페레가 유용한 지침을 제공하는 기준이 바로 이와 관련돼 있다.
학습 존까지는 무난
강연의 일부(자세한 내용은 블로그 게시물 참조)에서 레 페레는 모든 기술의 불편한 진실 하나를 언급했다. ‘실패가 불가피하다’는 것이다. 공급업체는 자사의 소프트웨어나 하드웨어가 기업의 어려운 문제를 해결할 수 있는 완벽한 도구라고 홍보하고 싶겠지만, 현실은 다르다. 대부분의 기술은 적절한 보호 장치 내에서만 유용할 수 있다. 생성형 AI를 포함해 모든 기술은 결국 실패하기 때문에 “실패에 어떻게 접근하고, 실패를 어떻게 완화하며, 잠재적 실패와 관련된 위험을 어떻게 인식하느냐의 문제일 뿐”이라고 그는 말했다.
핵심은 적절한 통제력을 유지하여 실패에도 불구하고 생성형 AI 비서로부터 가치를 얻을 수 있는 방법을 찾는 것이라고 그는 강조하며, 이는 ‘부스트 존’이나 ‘학습 존’에서 가능하다고 설명했다.
부스트 존은 “사용자의 기술 수준이 이미 높은 작업, 즉 여전히 완전한 통제권을 가질 수 있는 작업에 생성형 비서를 활용”할 수 있는 영역을 의미한다. 즉, 사용자가 모든 작업을 직접 수행할 수 있지만 생성형 AI 어시스턴트가 그 작업을 보완하도록 하는 것이다(예: 함수를 작성한 다음 어시스턴트가 각 함수의 기능을 세 줄 설명으로 문서화하도록 하는 것). 사용자 스스로도 직접 작업을 수행할 수 있으므로 생성형 AI 봇이 작업을 잘 수행하고 있는지 쉽게 확인할 수 있다. 시간을 절약할 수 있으면서도 여전히 제어권은 사용자에게 있다.
학습 존에서는 익숙한 영역에서 조금 벗어나게 된다. “완전히 익숙하지 않은 수준에서 어시스턴트를 활용하고 도움을 받을 수 있지만, 완전히 미지의 영역에 있는 것은 아니다”라고 레 페레는 설명했다. 이를 테면 자바로 함수를 작성하는 방법을 알고 있지만 러스트로 함수를 작성해야 하는 경우 어시스턴트에게 그 방법을 알려달라고 요청할 수도 있다. 이는 “모르는 것을 인터넷에서 검색하던 접근법의 2024년 버전이라고 할 수 있다”라고 그는 표현했다.
‘데인저 존’에서의 사용은 곤란
그는 CRM 시스템에 대해 아무것도 모르는데 어시스턴트에게 CRM 시스템 코드를 작성해 달라고 요청하는 ‘데인저 존’이 가장 피해야 할 영역이라고 설명을 이어갔다. 데인저 존에서는 결과물이 “예!”인지 “아니오!”인지 확인할 수 있는 뾰족한 방법이 없다.
그는 “(생성형 AI 활용에 있어) 이상적인 위치는 부스트 존(매우 통제된 방식으로 생산성을 향상시키는) 어딘가이지만, 안전 지대를 확장해 (너무 큰 위험을 감수하지 않고) 익숙하지 않은 일을 수행하는 방법을 탐색할 수 있을 것”이라고 설명했다.
그렇다면 생성형 AI가 생산성 향상을 위한 탁월한 자산이 될 수 있을까? 레 페레는 ‘그렇다’면서도 무턱대고 많은 것을 기대하기보다는 적절한 범위 내에서 사용하는 것이 중요하다고 거듭 강조했다.
dl-ciokorea@foundryco.com