En el futuro cercano, los agentes de IA competitivos se parecen más a nosotros de lo que podría parecer a primera vista. Una división del trabajo inteligente garantizará que las organizaciones obtengan lo mejor tanto de los humanos como de las máquinas.
Para muchos, el concepto de los agentes de IA envuelve un halo de intriga, misterio e, incluso, miedo. La idea de un grupo de compañeros de trabajo no humanos e invisibles que puedan trabajar de manera independiente y más eficientemente que sus homólogos humanos, puede sonar raro.
Pero los agentes de IA son más familiares de lo que parece. Necesitan incorporarse a la empresa como si se tratara de un nuevo empleado. Se le asigna un rol específico, así como las directrices de cómo hacerlo. Necesitan entrenamiento y supervisión. Se les da acceso a los datos y a otros recursos que necesiten para hacer su trabajo.
Incluso, cuando juntas varios de estos agentes, el panorama debería ser similar. Los sistemas multiagente se asemejan mucho a las organizaciones que los líderes empresariales han gestionado durante décadas. Forman una red de entidades especializadas, cada uno con sus propios objetivos, inputs y resultados. Operan con procesos compuestos por pasos discretos y definibles; y utilizan interfaces para coordinar y colaborar con los otros.
Lo que es diferente, además de la habilidad única de la IA de procesar grandes cantidades de datos procedentes de fuentes sin relación alguna, es que los sistemas multiagente imitan cómo los negocios operarían en un mundo ideal sin silos ni jerarquías que impidan la colaboración, sin compañeros fuera de la oficina ni pensamientos arraigados ni emociones que interfieran en el proceso.
En última instancia, las empresas podrán adoptar y gestionar mejor estos sistemas si se enfocan en lo que ya les resulta familiar. Incluso, aunque parezca increíble, los empleados humanos pueden verse como un tipo de agente.
Todos seremos agentes en un mundo multiagente
Esto no significa que los humanos sean o, que alguna vez serán, relegados a la posición de un bot IA. Por el contrario, se puede obtener valioso conocimiento al vernos como parte de una constelación de agentes. Esto facilita imaginar cómo el trabajo debería dividirse entre humanos y la IA, con cada uno asumiendo una parte diferente de un flujo de trabajo de múltiples pasos.
En el servicio al cliente, por ejemplo, un sistema multiagente podría incluir un agente de triaje para clasificar los asuntos entrantes, un agente de resolución entrenado sobre una base de conocimiento de resolución de problemas; y un agente de traspaso para señalar asuntos complejos o sensibles que deberían asumir los trabajadores humanos. En el caso de marketing, un humano podría escribir el briefing creativo para una campaña puede que, incluso, con la ayuda de la IA, mientras que un agente de IA segmenta las audiencias y otro ejecuta en paralelo 10.000 tests A/B.
Lo que es importante es que cada agente, humano o de IA, tiene un conjunto de responsabilidades definidas que encajan con sus capacidades intrínsecas. Las tareas que son de gran volumen o requieren una toma de decisiones en fracciones de segundo, como la búsqueda de información de facturación en una reclamación abierta de un cliente, es mejor asignarla a un agente de inteligencia artificial.
Como cualquier fuerza de trabajo, estos sistemas son gobernables. Si cualquier agente actúa de manera errática o no trabaja correctamente, puede salir del proceso. A menudo, los humanos supervisan el rendimiento del agente, pero también pueden entrenarse a los agentes de IA para que puedan operar como supervisores de otros agentes de IA, incluso activando un botón de ‘apagado’ cuando sea necesario.
Como en cualquier fuerza de trabajo, los flujos de trabajo y las responsabilidades pueden transformarse y adaptarse. Tanto los agentes humanos como de IA pueden responder y aprender formas más eficientes de hacer las cosas con el tiempo. Se adaptan dinámicamente a los cambios en el ambiente y aprenden de nuevos datos para tomar decisiones informadas.
Trabajar igual, pero diferente
Centrarse en lo que nos resulta familiar de los agentes de inteligencia artificial nos permite trabajar mejor junto a ellos y viceversa. Esto permite a las empresas discernir de manera más efectiva la asignación de tareas y trabajos e, idealmente, liberar a las personas para que apliquen su pensamiento más valioso e intrínsecamente humano al trabajo en cuestión.
Algunas cuestiones claves que los directivos sénior deberían considerar son las siguientes:
1. A medida que los trabajadores se acostumbran a trabajar con agentes ¿deberían crear o conseguir los suyos propios?
Los agentes no son tan complicados de provisionar como se piensa. La mayoría de los proveedores cloud y muchos de los vendedores de plataforma de software ofrecen agentes listos para usar. Muchos de estos tienen adaptadores que les permite conectarse en conjuntos de datos ya existentes, incluyendo los sistemas más comunes, como Slack u OneDrive. Si tienes un diseño de microservicios o una API expuesta, puedes colocar a los agentes por encima de estos. Imagina finanzas, nóminas, legal y ventas, cada una con su propio agente conectado.
En la medida que las organizaciones quieren que las personas del negocio experimenten con esta tecnología, la creación de agentes no debería estar completamente centralizada, pero esto requiere proporcionar la formación y las directrices necesarias para cumplir con una IA responsable.
2. ¿Cómo se evaluarán y validarán los nuevos agentes?
Claramente el pipeline necesita gestionarse antes de que estos agentes se conecten en sistemas multiagente o sean visibles a otros empleados. La definición de este proceso comienza con el CIO, pero es un esfuerzo multidisciplinar que implica funciones legales y de recursos humanos.
En general, la modularidad de los sistemas multiagente permite amplias oportunidades para la evaluación y la validación en un entorno experimental seguro. Los agentes individuales se pueden insertar, multiplicar o extraerse sin interrumpir los sistemas como un todo. Esto posibilita desarrollar y extender estos sistemas de manera incremental, probando y ajustando varios agentes tanto de forma aislada como dentro de un sistema mayor en un entorno controlado, antes de integrarles en la red de agentes en producción.
3. ¿Qué poder de decisión tendrán los trabajadores humanos en la asignación de tareas?
El trabajo de los agentes es un camino de doble sentido. Los empleados tienen que hacer una pregunta a su agente de IA, y este agente debería identificar a otros agentes con los que colaborar para ofrecer sugerencias y acciones. O bien, un agente podría detectar algo que requiere la aprobación del empleado antes de poder avanzar.
En cualquiera de los casos, los trabajadores humanos deben tener potestad para saber cómo dirigir a estos agentes, con el objetivo de que sean productivos, haciéndoles más eficientes y liberándoles de invertir mucho tiempo en trabajo rutinario. Y, en la medida que el sistema agéntico se vuelve más sofisticado, los empleados necesitan ser parte de lo que deberían continuar haciendo frente a lo que pueden asumir los agentes.
Viendo lo conocido en lo nuevo
Los agentes de IA son algo así como un fenómeno. Trabajan de una manera que nunca habíamos visto antes y están evolucionando más rápido de lo que muchos de nosotros con años de experiencia en IA podríamos haber imaginado.
Pero quizá lo más desconcertante de cómo operan los agentes es lo mucho que se parece a cómo lo hacemos los humanos: cómo trabajaríamos en un mundo ideal sin obstáculos ni limitaciones. El hecho de que nos veamos como parte de este mundo hace que podemos empezar a convertirnos en lo que antes solo imaginábamos ser.