- How the web’s foundational tech is evolving in the era of remote work
- ITDM 2025 전망 | “불경기 시대 속 콘텐츠 산업··· 기술이 돌파구를 마련하다” CJ ENM 조성철 엔터부문 CIO
- 50억 달러 피해에서 700명 해고까지··· 2024년 주요 IT 재난 8선
- Network problems delay flights at two oneworld Alliance airlines
- Leveraging Avaya Experience Platform to accelerate your digital banking transformation
Los agentes de IA transformarán procesos y encararán riesgos
“Por ahora, estamos construyendo flujos de trabajo utilizando la generación aumentada de recuperación”, dice Sunil Dadlani, vicepresidente ejecutivo y director de Información y Transformación Digital de la compañía. Esto permite enriquecer las consultas LLM con contexto relevante.
“Empleamos PoCing agentic AI como una manera de ampliar el tipo de flujos de trabajo que pueden ser apoyados de una manera más flexible, pero centrado en la tarea”, añade.
La empresa también está explorando la posibilidad de utilizar la IA agéntica en ITSM.
“Vemos una gran oportunidad tanto en aprovechar la tecnología para mejorar nuestros procesos internos de TI, como en actuar como campo de pruebas para generar confianza en la tecnología tanto para nosotros como para el negocio”, afirma.
Para ello, Atlantic Health utiliza su propia plataforma interna de habilitación digital y está explorando LangChain para orquestar el flujo de datos entre los LLM junto con Amazon Bedrock. Esto podría ampliarse hasta convertirse en la base del marco de IA agéntica de la empresa.
“También estamos aprovechando Dialogflow con la plataforma Google Cloud, e iniciando conversaciones sobre cómo podríamos aprovechar Microsoft Bot Framework”, afirma.
El coste del progreso
La IA agenética ofrece muchas ventajas potenciales en la atención sanitaria, pero también introduce riesgos significativos que deben gestionarse cuidadosamente. Atlantic Health ya dispone de un marco para mantener la seguridad de su IA agéntica, que incluye prácticas de datos, seguridad robusta, supervisión humana y gobernanza transparente, combinadas con supervisión continua, pruebas, cumplimiento de los marcos legales y estructuras de responsabilidad. Pero los sistemas de IA agéntica están diseñados para funcionar con un cierto nivel de autonomía, afirma.
“La seguridad del paciente también está en peligro si la IA tiene problemas con casos complejos o retrasa intervenciones críticas”, afirma.
Incluso las grandes empresas tecnológicas están, en su mayoría, aún lejos de una adopción significativa. “Creemos que la IA agéntica multimodal es el futuro”, afirma Caiming Xiong, vicepresidente de investigación de IA e IA aplicada de Salesforce.
La IA multimodal significa que la IA de los agentes puede manejar algo más que texto. Ya existen plataformas de IA generativa que pueden manejar imágenes, audio e incluso vídeo. “Hay mucha información que no se puede describir sólo con texto”, afirma.
Pero los sistemas de IA multiagente aún están en fase experimental o se utilizan de forma muy limitada. Un caso de uso interno de la IA agéntica en Salesforce es el desarrollo de software. “Utilizamos nuestro propio modelo y el marco de trabajo que nosotros mismos construimos”, afirma Xiong. “Pero no creo que vayamos a sustituir a nuestros desarrolladores. No se puede confiar completamente en el código desarrollado por la IA, pero vamos a mejorar la productividad y la calidad, y los asistentes de codificación agéntica pueden ayudar a nuestros desarrolladores junior a ser más profesionales”.
También hay un marco de agentes que puede reunir información de distintas fuentes para responder preguntas, resolver problemas de los clientes o sugerir los siguientes pasos, dice. En este caso, los modelos back-end son GPT 4 y GPT 3.5 de OpenAI. Para mantener la IA agéntica en el buen camino, Salesforce está utilizando todas las barreras que ya tiene para la IA genérica.
“Analizamos todas las preguntas y respuestas”, afirma Xiong. “Analizamos la toxicidad, el sesgo, y buscamos la inyección rápida”.
Además, hay controles de seguridad y acceso para asegurarnos de que los agentes no intentan acceder a información que no deberían.
“También tenemos controles para asegurarnos de que su acción es algo que está autorizado a ejecutar”, afirma. “Tenemos esos componentes integrados en el marco del agente, para asegurarnos de que no está haciendo algo mal”.
Pero eso no significa que vaya a ser perfecto, así que hay supervisión humana incorporada. Por ejemplo, se puede pedir a un humano que confirme que una determinada acción debe ejecutarse.
“Y en la parte de desarrollo, tenemos equipos que hacen evaluaciones antes de que nada entre en producción”, dice.
Cualquier nuevo sistema tendrá que cumplir con los guardarraíles que Salesforce ha construido, confirma Juan Pérez, CIO de la compañía.
“Construimos toda una capa de confianza en nuestras soluciones de IA generativa”, dice Pérez. “Y tenemos una práctica de seguridad paraguas y una práctica de privacidad que guía todo lo que hacemos”. También hay un consejo de IA, añade, compuesto por personas de toda la empresa de los ámbitos legal, de privacidad, el grupo de uso ético de la IA, gente de datos, tecnólogos y usuarios empresariales.
Mientras tanto, también existe la posibilidad de que los sistemas multiagente sean más seguros que los modelos de IA genéricos monolíticos, afirma Xiong.
“Si tienes un solo sistema y te lo piratean, sería un desastre enorme para una empresa”, afirma. “Pero si tienes cien o mil agentes y uno de ellos es pirateado, no pasa nada”.
Además, cada agente puede optimizarse para sus tareas específicas. Si un LLM está optimizado para un propósito concreto, el rendimiento puede resentirse en otras áreas, pero con varios agentes, una tarea puede aislarse y mejorarse.
Agentes en producción
La mayoría de las empresas que despliegan agentes de IA no lo hacen como parte de un proceso completo de IA agéntica de extremo a extremo, afirma Craig Le Clair, analista de Forrester.
“Acabo de hablar con 30 bancos y empresas de inversión y todos dijeron lo mismo: ‘No estamos listos para dar todo un proceso a la IA generativa’”. En su lugar, dice, las empresas están añadiendo agentes de IA a los procesos centrales existentes donde todo el proceso está bajo el control de un agente de proceso tradicional. Por ejemplo, un proceso de negocio puede requerir la generación de un correo electrónico basado en cierta información, y la IA generativa puede utilizarse para crear un mensaje más personalizado, con otros agentes de IA recogiendo otras pequeñas piezas.
El nivel más avanzado de sistemas autónomos cerrados de extremo a extremo -el equivalente empresarial de un coche autoconducido- aún no ha llegado, afirma Le Clair. Pero algunas empresas dicen que se están acercando a ese punto. Indicium, una consultora de datos global con sedes en Nueva York y Brasil, es una empresa que ya cuenta con sistemas de IA agéntica en producción. Estos agentes de IA sirven tanto a usuarios internos como a clientes, afirma Daniel Avancini, director de Datos de la empresa.
Los agentes se utilizan para consultar y cruzar datos de diversas fuentes, como Moodle, GitHub, Bitbucket, wikis internos y el almacén de datos Snowflake de la empresa. Utilizan IA generativa para interpretar preguntas complejas e identificar las fuentes de datos más relevantes.
“Por ejemplo, uno de nuestros agentes puede extraer información de nuestra wiki interna, cruzarla con datos de nuestros repositorios de código y, a continuación, validarla con nuestros datos analíticos para ofrecer respuestas completas a las consultas empresariales”, explica. “Algunos de nuestros agentes más avanzados pueden realmente construir soluciones basadas en procesos existentes”.
Por ejemplo, un agente puede crear un grafo acíclico dirigido en Airflow a partir de una descripción de las necesidades de canalización de datos, lo que implica tareas complejas de varios pasos.
Otros agentes se encuentran aún en fases piloto, entre ellos uno que puede analizar repositorios de código y sugerir optimizaciones basadas en las mejores prácticas y en datos históricos de rendimiento.
El marco principal para construir estos agentes es LangChain, dice Avancini, e Indicium utiliza su componente LangGraph, que ofrece un control granular sobre los procesos de toma de decisiones de sus agentes.
“Podemos crear un gráfico en el que el agente analice primero la consulta del usuario, luego decida qué fuentes de datos consultar, ejecute las consultas necesarias y, por último, sintetice la información en una respuesta coherente”, explica. “En cada paso, podemos implementar puntos de decisión y opciones alternativas”.
Para alimentar estos agentes, dice Avancini, se prefieren los modelos OpenAI y Anthropic, pero la estrategia de despliegue es agnóstica de la nube. “Podemos implementar nuestros agentes en AWS, Azure o GCP, dependiendo de los requisitos específicos del proyecto”, dice. “Accedemos a estos modelos directamente a través de sus API o a través de servicios en la nube como AWS Bedrock o Azure OpenAI”.
Para el monitoreo y la observabilidad, la compañía utiliza LangSmith de LangChain, que permite a Indicium rastrear el rendimiento, identificar los cuellos de botella e iterar rápidamente.
“En algunos casos, particularmente para la creación rápida de prototipos o cuando trabajamos con partes interesadas menos técnicas, empleamos herramientas de desarrollo visual”, dice Avancini. “Azure AI Studio, por ejemplo, nos permite ensamblar agentes visualmente y luego exportar los resultados como código. Esto puede ser particularmente útil cuando estamos explorando nuevas arquitecturas de agentes o demostrando conceptos a los clientes”.
Para gestionar los requisitos de memoria de los sistemas de agentes, Indicium utiliza bases de datos vectoriales, como Pinecone.
“Estas bases de datos nos permiten almacenar y consultar de forma eficiente grandes cantidades de datos no estructurados, algo esencial para muchas de nuestras aplicaciones de IA”, afirma. “Para manejar documentos no estructurados, utilizamos herramientas como LlamaParse para ayudarnos a extraer información significativa de una variedad de formatos de documentos”.
Indicium también ha construido conectores personalizados para plataformas de mensajería populares, para que los agentes puedan interactuar mejor con los usuarios.