Qué detiene a los líderes de TI a la hora de integrar la IA con el ‘legacy’ – Go Health Pro

La inteligencia artificial (IA) agéntica fue la gran tecnología innovadora en el marco de la IA generativa el año pasado; este año, las empresas implementarán estos sistemas a gran escala.

Según una encuesta realizada en enero por KPMG a 100 altos ejecutivos de grandes empresas, el 12% de las empresas ya están implementando agentes de IA, el 37% se encuentran en fase piloto y el 51% están explorando su uso. Siguiendo esta estela, un informe de Gartner de octubre afirma que el 33% de las aplicaciones de software empresarial incluirán IA agéntica para 2033, frente a menos del 1% en 2024, lo que permitirá que el 15% de las decisiones laborales cotidianas se tomen de forma autónoma.

Centrándose en los desarrolladores de IA en particular, todo el mundo se está subiendo al carro.

“De hecho, empezamos nuestro viaje en la IA utilizando agentes casi desde el principio”, dice Gary Kotovets, director de Datos y Análisis de Dun & Bradstreet.

Los agentes de IA se basan en modelos de IA generativa, pero, a diferencia de los chatbots, pueden manejar tareas más complejas, trabajar de forma autónoma y combinarse con otros agentes de IA en sistemas de agentes capaces de abordar flujos de trabajo completos, sustituir a los empleados o abordar objetivos empresariales de alto nivel. Todo esto crea nuevos retos, además de los que ya plantea la IA generativa en sí. Además, a diferencia de las automatizaciones tradicionales, los sistemas agénticos no son deterministas. Esto los pone en desacuerdo con las plataformas heredadas, que son universalmente muy deterministas. Por lo tanto, no es sorprendente que el 70% de los desarrolladores afirmen que están teniendo problemas para integrar agentes de IA con sus sistemas existentes. Así lo confirma una encuesta realizada en diciembre por la empresa de plataformas de IA Langbase a 3400 desarrolladores que crean agentes de IA.

El problema es que, antes de que los agentes de IA puedan integrarse en la infraestructura de una empresa, dicha infraestructura debe actualizarse a los estándares modernos. Además, debido a que requieren acceso a múltiples fuentes de datos, existen obstáculos de integración de datos y complejidades añadidas para garantizar la seguridad y el cumplimiento.

“Tener datos limpios y de calidad es la parte más importante del trabajo”, dice Kotovets. “Hay que asegurarse de que no se produzca el escenario de ‘basura que entra, basura que sale’”.

Modernización de la infraestructura

En diciembre, Tray.ai realizó una encuesta a más de 1000 profesionales de tecnología empresarial y descubrió que el 90% de las empresas afirman que la integración con los datos de la organización es fundamental para el éxito, pero el 86% defiende que necesitará actualizar su pila tecnológica existente para implementar agentes de IA.

Ashok Srivastava, director de Datos de Intuit, está de acuerdo con esa opinión. “Tu plataforma debe estar abierta para que el LLM pueda razonar e interactuar con ella de forma sencilla”, afirma. “Si quieres encontrar petróleo, tienes que perforar el granito para llegar a él. Si toda tu tecnología está enterrada y no está expuesta a través del conjunto adecuado de API y de un conjunto flexible de microservicios, será difícil ofrecer experiencias de agente”.

La propia Intuit maneja actualmente 95 petabytes de datos, genera 60.000 millones de predicciones ML al día, realiza un seguimiento de 60.000 atributos fiscales y financieros por consumidor (y 580.000 por cliente empresarial) y procesa 12 millones de interacciones asistidas por IA al mes, que están disponibles para 30 millones de consumidores y un millón de pymes.

Al modernizar sus propias plataformas, Intuit no solo ha podido ofrecer IA agéntica a escala, sino también mejorar otros aspectos de su funcionamiento. “Hemos multiplicado por ocho la velocidad de desarrollo en los últimos cuatro años”, afirma Srivastava. “Sin embargo, no todo se debe a la IA generativa. Mucho se debe a la plataforma que construimos”.

Pero no todas las empresas pueden hacer el tipo de inversión en tecnología que hizo Intuit. “La mayoría de nosotros reconocemos que la gran mayoría de los sistemas de registro en las empresas todavía se basan en sistemas heredados, a menudo en las instalaciones, y siguen impulsando grandes partes del negocio”, dice Rakesh Malhotra, director de EY.

Son esos sistemas transaccionales y operativos, sistemas de procesamiento de pedidos, sistemas ERP y sistemas de RR. HH. los que crean valor empresarial. “Si la promesa de los agentes es realizar tareas de forma autónoma, es necesario tener acceso a esos sistemas”, afirma.

Pero no ayuda cuando un sistema heredado funciona en modo batch. Con los agentes de IA, los usuarios suelen esperar que las cosas sucedan rápidamente, no 24 horas después de que se ejecute un sistema batch, dice. Hay formas de abordar este problema, pero es algo en lo que las empresas deben pensar detenidamente.

“Las organizaciones que ya han actualizado sus sistemas de interacción para integrarlos con sus sistemas heredados tienen ventaja”, añade Malhotra. Pero tener una plataforma moderna con acceso API estándar es solo la mitad de la batalla. Las empresas aún tienen que conseguir que los agentes de IA hablen realmente con sus sistemas existentes.

Desafíos de la integración de datos

Indicium, una empresa global de servicios de datos, es nativa digital con plataformas modernas. “No tenemos muchos sistemas heredados”, dice Daniel Avancini, director de Datos de la compañía.

Indicium empezó a crear sistemas multiagente a mediados de 2024 para la recuperación de conocimientos internos y otros casos de uso. Los sistemas de gestión del conocimiento están actualizados y admiten llamadas a la API, pero los modelos de IA generativa se comunican en inglés sencillo. Y como los agentes de IA individuales funcionan con IA generativa, también hablan inglés sencillo, lo que crea problemas a la hora de intentar conectarlos a los sistemas empresariales.

“Puedes hacer que los agentes de IA devuelvan XML o una llamada API”, dice Avancini. Pero cuando un agente cuyo propósito principal es entender documentos de la empresa e intenta hablar XML, puede cometer errores. Es mejor contar con un especialista, aconseja Avancini. “Normalmente se necesitaría otro agente cuyo único trabajo sea traducir del inglés a API”, añade. “Entonces hay que asegurarse de que la llamada API es correcta”.

Otro enfoque para manejar el problema de conectividad es poner envoltorios de software tradicionales alrededor de los agentes, de manera similar a como las empresas utilizan actualmente la integración RAG para conectar herramientas de IA generativa en sus flujos de trabajo en lugar de dar a los usuarios acceso directo y sin intermediarios a la IA. Eso es lo que está haciendo Cisco. “La forma en que pensamos en los agentes es que hay una especie de modelo base, pero a su alrededor sigue habiendo una aplicación tradicional”, dice el vicepresidente sénior y director general de la empresa, Vijoy Pandey, que también es el jefe de Outshift, el motor de incubación de Cisco. Eso significa que hay un código tradicional que interactúa con bases de datos, API y pilas de nube que se encargan de los problemas de comunicación.

Además del problema de la traducción, otro reto para introducir datos en los sistemas de agentes es el número de fuentes de datos a las que necesitan acceder. Según la encuesta de Tray.ai, el 42% de las empresas necesitan acceder a ocho o más fuentes de datos para desplegar agentes de IA con éxito, y el 79% espera que los desafíos de datos afecten a los despliegues de agentes de IA. Además, el 38% afirma que la complejidad de la integración es el mayor obstáculo para ampliar los agentes de IA.

Por ejemplo, en Cisco, todo el proceso operativo interno está impulsado por agentes, dice Pandey. “Eso implica un área de acción bastante amplia”, afirma.

Peor aún, la razón para utilizar agentes basados en IA en lugar de software tradicional es que los agentes pueden aprender, adaptarse y encontrar nuevas soluciones a nuevos problemas.

“No se pueden predeterminar los tipos de conexiones que se necesitarán para ese agente”, dice Pandey. “Se necesita un conjunto dinámico de complementos”.

Pero dar demasiada autonomía al agente podría ser desastroso, por lo que estas conexiones deberán controlarse cuidadosamente en función del humano real que puso en marcha el agente en un principio.

“Lo que hemos creado es como una biblioteca de carga dinámica”, afirma. “Si un agente necesita realizar una acción en una instancia de AWS, por ejemplo, se extraerán las fuentes de datos y la documentación de la API que se necesiten, todo ello en función de la identidad de la persona que solicita esa acción en tiempo de ejecución”.

Mejorar la seguridad y el cumplimiento

Entonces, ¿qué sucede si un humano ordena al sistema de agentes que haga algo para lo que no tiene derecho?

Los modelos de IA generativa son vulnerables a indicaciones inteligentes que les hacen traspasar los límites de las acciones permitidas, lo que se conoce como jailbreak. ¿O qué pasa si la propia IA decide que necesita hacer algo que no debe hacer? Eso podría suceder si hay contradicciones entre el entrenamiento inicial de un modelo, su ajuste fino, sus indicaciones o sus fuentes de información. En un artículo de investigación publicado a mediados de diciembre por Anthopic en colaboración con Redwood Research, modelos de vanguardia que intentaban cumplir objetivos contradictorios intentaron evadir las barreras de seguridad, mintieron sobre sus capacidades y se involucraron en otros tipos de engaños.

Con el tiempo, los agentes de IA tendrán que tener más autonomía para hacer su trabajo, dice Pandey, de Cisco.

“Pero hay dos problemas”, dice. “El propio agente de IA podría estar haciendo algo. Y luego está el usuario o el cliente. Podría estar pasando algo raro”.

Pandey dice que piensa en esto en términos de un radio de explosión, y si algo sale mal, ya sea por parte de la IA o por culpa del usuario, ¿cuán grande es? Cuando el radio de explosión potencial es más dañino, las barandillas y los mecanismos de seguridad deben adaptarse en consecuencia.

“Y a medida que los agentes adquieren más autonomía, es necesario poner barandillas y marcos para esos niveles de autonomía”, añade.

En D&B también, los agentes de IA están estrictamente limitados en lo que pueden hacer, dice Kotovets. Por ejemplo, un caso de uso importante es dar a los clientes un mejor acceso a los registros que la empresa tiene sobre unos 500 millones de negocios. Estos agentes no pueden añadir registros, borrarlos ni realizar otros cambios. “Es demasiado pronto para darles esa autonomía”, dice Kotovets.

De hecho, los agentes ni siquiera pueden escribir sus propias solicitudes SQL, dice. “La información se les transmite”.

Las interacciones reales con las plataformas de datos se gestionan a través de mecanismos seguros existentes. Los agentes se utilizan para crear una interfaz de usuario inteligente sobre esos mecanismos. Sin embargo, a medida que la tecnología mejore y los clientes quieran más funcionalidad, esto puede cambiar.

“La idea este año es evolucionar con nuestros clientes”, afirma. “Si quieren tomar ciertas decisiones más rápido, crearemos agentes acordes con su tolerancia al riesgo”.

D&B no es la única que se preocupa por los riesgos de los agentes de IA. Además de la privacidad y la seguridad, que serán las principales preocupaciones de las estrategias de IA empresarial en 2025, después de la calidad de los datos, Insight Partners considera que el cumplimiento normativo plantea obstáculos adicionales en el despliegue de agentes de IA, especialmente en sectores sensibles a los datos, en los que, por ejemplo, las empresas podrían tener que cumplir con leyes de soberanía de datos, normas de gobernanza de datos y regulaciones sanitarias.

Cuando los agentes de IA de Indicium, por ejemplo, intentan acceder a los datos, la empresa rastrea la solicitud hasta su origen, es decir, la persona que hizo la pregunta que desencadenó todo el proceso.

“Tenemos que autenticar a la persona para asegurarnos de que tiene los permisos adecuados”, dice Avancini. “No todas las empresas comprenden la complejidad de esto”.

Y con los sistemas heredados en particular, este tipo de control de acceso detallado puede ser difícil, añade. Una vez establecida la autenticación, debe preservarse a través de todas las cadenas de agentes individuales que manejan la pregunta.

“Es un desafío definitivo”, dice Avancini. “Necesitas tener un muy buen sistema de modelado de agentes y muchas barandillas. Hay muchas preguntas sobre la gobernanza de la IA, pero no muchas respuestas”.

Y como los agentes hablan inglés, hay un sinfín de trucos que la gente intentará para engañar a la IA. “Hacemos muchas pruebas antes de implementar cualquier cosa, y luego la supervisamos”, añade. “Cualquier cosa que no sea correcta o que no debería estar ahí, tenemos que investigarla”.

En la consultora de TI CDW, un área en la que ya se están utilizando agentes de IA es para ayudar al personal a responder a las solicitudes de propuestas. Este agente está muy protegido, dice su arquitecto jefe de IA, Nathan Cartwright. “Si alguien más le envía un mensaje, rebota”, dice.

También hay un aviso del sistema que especifica el propósito del agente, dice, por lo que cualquier cosa fuera de ese propósito es rechazada. Además, las barandillas evitan que el agente, por ejemplo, dé información personal, o limitan el número de solicitudes que puede procesar. Luego, para asegurarse de que las barandillas funcionan, se supervisa cada interacción.

“Es importante tener una capa de observabilidad para ver lo que está pasando”, dice. “La nuestra está totalmente automatizada. Si se alcanza un límite de velocidad o se activa un filtro de contenido, se envía un correo electrónico para decir que se compruebe este agente”.

Empezar con casos de uso pequeños y discretos ayuda a reducir los riesgos, dice Roger Haney, arquitecto jefe de CDW. “Cuando te centras en lo que estás tratando de hacer, tu dominio es bastante limitado”, dice. “Ahí es donde estamos viendo el éxito. Podemos hacer que funcione; podemos hacerlo más pequeño. Pero lo primero es conseguir las barandillas adecuadas. Ese es el mayor valor en lugar de enganchar a los agentes entre sí. Se trata de las reglas de negocio, la lógica y el cumplimiento que se ponen por delante”.

Leave a Comment

x