칼럼 | ‘놀 때와 일할 때가 다르다’ AI와 더 잘 대화하는 법

이미 우리는 모두 가상의 캐릭터와 대화하고 있다. 하지만 AI와의 상호작용 또한 배우고 익혀야 할 역량이라는 점을 모르는 이들이 많다. 사실 AI와의 상호작용은 미묘하면서도 숙련을 필요로 하는 기술이다. 이 역량을 개발하는 첫 번째 단계는 스스로에 대한 인정이다. 자신이 대화하는 AI의 유형은 무엇인지, 대화하는 이유는 무엇인지를 점검하는 것이다.

우리의 뇌가 인간적 언어에 최적화되어 있기에 AI 음성 인터페이스는 강력하다. 아기들의 뇌는 말하기 전에 이미 목소리에 반응하도록 조정되어 있으며, 언어 패턴을 조기에 습득한다. 이 내재된 대화 능력은 우리 조상들이 생존하고 연결되도록 도와주었으며, 언어를 우리 가장 필수적이고 깊이 뿌리내린 능력 중 하나로 만들었다.

하지만 이는 인간이 AI와의 대화에 능숙하다는 의미가 아니다. 인간은 다양한 상황에서 다르게 말한다. 예를 들어, 직장 동료에게 말하는 방식과 배우자에게 말하는 방식은 다르다. 그리고 문제는 사람들은 AI를 사람처럼 대한다는 점이다. AI는 사람처럼 이해하지 않으며, 감정이나 자존심으로부터 영향 받지 않고 상처 받지도 않지만, 사람들은 마치 그럴 것이라고 가정한다.

AI 대화의 두 가지 주요 카테고리

먼저 소통하는 AI(말과 글 모두)를 두 가지 범주로 나눠볼 만하다.

  1. 판타지 역할극, 이는 엔터테인먼트 목적으로 사용된다.
  2. 도구, 이는 정보 학습이나 우리에게 유용한 서비스를 제공하는 등 생산적인 목적으로 사용된다.

먼저 역할극 AI부터 살펴본다.

역할극을 위한 AI

스태터스 AI(Status AI)라는 사이트와 앱을 들어봤을 수 있겠다. 이 서비스는 네트워크 내 모든 사용자가 AI 에이전트인 소셜 네트워크라고 할 수 있다. 더 정확한 표현은 사용자가 인기 있는 온라인 인플루언서가 되어 연기할 수 있는 판타지 역할극 게임이다.

스태터스 AI는 소셜 미디어 플랫폼을 모방한 가상 세계다. 디지털 놀이터로 출시된 이 플랫폼에서 사용자는 온라인 인물을 만들고 공통된 관심사를 기반으로 팬 커뮤니티에 참여하게 된다. 이 플랫폼은 소셜 네트워크처럼 느껴지지만, 모든 상호작용(좋아요, 댓글, 심지어 열띤 토론 등)은 실제 사용자, 유명인, 또는 허구적 캐릭터처럼 행동하도록 프로그래밍된 인공지능에서 비롯된다.

이 실험적 공간에서 다른 사람이 되어보는 경험을 할 수 있으며, 실제 소셜 미디어에서는 불가능한 방식으로 유명인의 디지털 버전과 상호작용할 수 있다. 피드백은 즉각적이며, 참여는 지속적으로 이루어지며, 경험은 가짜이지만 기본적으로 게임에 가깝다.

또 다른 역할극 AI는 메타에서 나왔다. 메타는 페이스북, 인스타그램, 왓츠앱에 AI 기반 계정을 출시해 사용자가 디지털 캐릭터와 상호작용할 수 있도록 했다. 톰 브래디나 파리스 힐튼 같은 실제 유명인을 기반으로 한 캐릭터도 있고, 완전히 허구적인 캐릭터도 있다. 이들 AI 계정은 명확히 표시되어 있지만 (AI 덕분에) 실제 사람처럼 채팅하고 게시물을 올리며 응답할 수 있다.

메타는 인플루언서가 AI 에이전트를 사용해 팬들에게 응답하고 게시물을 관리하며 자신의 스타일을 모방할 수 있는 도구도 제공한다. 이 서비스는 미국에서 출시됐으며 향후 확장될 계획이다. 메타의 소셜 미디어 자동화 및 개인화 전략의 일환에 해당한다.

이 도구들은 가상의 상호작용을 제공하기 때문에 사용자는 마치 실제 사람과 대화하는 것처럼 행동하면 된다.

사실 이 메타의 도구는 가상 온라인 인플루언서라는 광범위하면서도 오래된 현상에 편승하려는 시도다. 이들은 기업이나 예술가가 창작한 디지털 캐릭터이지만, 소셜 미디어 계정을 보유하고 실제 인플루언서처럼 게시물을 올린다. 유명한 사례로는 2016년 로스앤젤레스 스타트업 브루드(Brud)가 출시한 릴 미켈라(Lil Miquela)다. 이 가상 캐릭터는 인스타그램 팔로워 250만 명을 보유하고 있다.

또 다른 사례는 2017년 영국 사진작가 캐머론-제임스 윌슨(Cameron-James Wilson)이 제작한 슈두(Shudu)로, 세계 최초의 디지털 슈퍼모델로 소개됐다. 이 캐릭터들은 종종 대형 브랜드와 협력한다.

주요 가상 인플루언서 계정의 게시물은 수백에서 수천 개의 좋아요와 댓글을 받곤 한다. 댓글의 내용은 그들의 스타일과 미모에 대한 찬양부터 그들의 디지털 본질에 대한 논쟁까지 다양하다. 아마도 많은 사람들이 실제 사람에게 댓글을 남기는 것으로 생각하지만, 대부분은 역할극 마음가짐으로 참여하는 것으로 추정된다.

2023년까지만 해도 전 세계에 수백 명의 가상 인플루언서가 등장했으며, 일본 출신의 임마(Imma)와 독일 출신의 누누리(Noonoouri)가 대표적이다. 이들은 패션과 뷰티 분야에서 특히 인기가 있지만, FN 메카(FN Meka)처럼 음악을 발매한 사례도 있다. 이러한 동향은 빠르게 확산 중이다. 2024년 글로벌 가상 인플루언서 시장 규모는 40억 달러를 넘어선 것으로 추정된다.

AI를 활용한 지식 및 생산성

우리는 챗GPT, 제미나이, 클로드, 코파일럿, 메타 AI, 미스트랄, 퍼플렉시티와 같은 LLM 기반 채팅봇에 익숙하다. 대중은 시리, 구글 어시스턴트, 알렉사, 빅스비, 코타나와 같은 LLM이 아닌 어시스턴트에 더 익숙할 수 있다. 이들은 훨씬 더 오래 전부터 존재해 왔다.

필자 사람들이 이러한 채팅봇이나 어시스턴트와 상호작용할 때 두 가지 일반적인 실수를 저지른다는 것을 관찰했다.

첫 번째는 그들이 AI를 사람처럼 대하거나(또는 역할극을 하는 봇처럼) 상호작용한다는 점이다. 두 번째는 더 나은 답변을 얻기 위해 특별한 전략을 사용하지 않는다는 점이다.

사람들은 AI 챗봇을 인간처럼 대하며 ‘부탁드립니다’, ‘감사합니다’와 같은 표현을 사용하거나 심지어 사과까지 한다. 하지만 AI는 이러한 예의에 신경 쓰지 않으며, 기억하지도 않고, 이러한 예의에 크게 영향을 받지 않는다. 일부 사람들은 실제 질문을 하기 전에 ‘안녕하세요’나 ‘잘 지내세요?’라고 인사하기도 한다. 또한 ‘말해줄 수 있나요?’나 ‘불편하지 않으시겠어요?’와 같은 허락을 구하는 표현을 사용하기도 하는데, 이는 아무런 가치를 추가하지 않는다. 일부는 ‘안녕히 가세요’나 ‘도움 주셔서 감사합니다’라고 인사하지만, AI는 이를 인식하지도 않고 신경 쓰지도 않는다.

AI에 대한 예의가 오히려 시간과 돈을 낭비한다는 분석도 있다. 1년 전, 와튼 스쿨의 에단 몰릭 교수는 AI 프롬프트에 “please”와 “thank you”를 사용하는 사람들이 추가 토큰을 생성해 LLM 채팅봇 기업이 필요한 컴퓨팅 파워를 증가시킨다고 지적했다. 이 개념은 올해 4월 16일, 오픈AI CEO 샘 알트만이 X에서 다른 사용자에게 답변하며 (약간 과장해서) 프롬프트에 사용된 예의 바른 말이 오픈AI에 “수천만 달러”를 비용으로 초래했다고 언급하며 다시 등장했다.

‘잠깐, 마이크, AI 챗봇에게 ’please’라고 말하면 더 좋은 결과를 얻을 수 있다고 들었다’라고 반박할 수 있겠다. 틀린 말이 아니다. 어느 정도는 그렇다. 여러 연구와 사용자 실험에서 AI 챗봇이 사용자가 요청을 예의바르게 표현하거나 “please”와 “thank you”를 추가할 때 더 도움이 되고 자세한 답변을 제공한다는 결과가 나왔다. 이 현상은 AI 모델이 방대한 양의 인간 대화로 훈련되어 예의 바른 언어를 더 신중한 응답의 신호로 해석하기 때문이다.

하지만 프롬프트 엔지니어링 전문가들은 명확하고 구체적인 프롬프트, 예를 들어 맥락을 제공하거나 정확히 원하는 것을 명시하는 것이 예의 바름보다 일관되게 훨씬 더 좋은 결과를 산출한다고 지적한다. 즉, 예의 바름은 AI 채팅봇의 소통에(프롬프팅에) 능숙하지 않은 사람들이 사용하는 전략이다.

AI 채팅봇으로부터 최상의 답변을 얻는 가장 좋은 방법은 요청을 구체적이면서도 직접적으로 묻는 것이다. 항상 원하는 것을 명확한 세부 사항과 맥락을 포함해 정확히 말하는 게 낫다.

또 다른 강력한 전략은 ‘역할 프롬프트’다. 예를 들어 사이버 보안에 대한 질문을 하기 전에 채팅봇에게 ‘당신은 최고의 사이버 보안 분석가다’라고 지시하고 시작하는 것이다. 이 방법은 샌더 슐호프의 2025년 리뷰와 같은 연구에서 입증됐다. 1,500개 이상의 프롬프트 엔지니어링 논문을 분석한 결과, 챗봇이 전문가들이 생성한 훈련 데이터에 포함된 내용을 선호하도록 유도하기 때문에 더 정확하고 관련성 있는 답변을 이끌어낸다.

또한, 배경 정보가 중요하다면 제공해야 한다. 예를 들어 대상이나 목적 등을 명시하도록 한다. (그리고 답변을 반드시 확인해야 한다. AI 챗봇은 자주 거짓말을 하고 허구를 생성한다. 판타지 역할극에 AI를 사용하는 것이 아니라면, 예의를 버리고 프롬프트 엔지니어링의 최선의 실천 방법을 적용하도록 한다.)
dl-ciokorea@foundryco.com



Source link

Leave a Comment