Un grupo de investigadores analizó qué sucede cuando los sistemas de inteligencia artificial dejan de funcionar únicamente como asistentes y comienzan a operar como agentes autónomos, capaces de ejecutar acciones por cuenta propia. El resultado plantea nuevas preocupaciones sobre seguridad, control y concentración de poder en la era de la IA. El estudio, titulado Agent […]
Un grupo de investigadores analizó qué sucede cuando los sistemas de inteligencia artificial dejan de funcionar únicamente como asistentes y comienzan a operar como agentes autónomos, capaces de ejecutar acciones por cuenta propia. El resultado plantea nuevas preocupaciones sobre seguridad, control y concentración de poder en la era de la IA.
El estudio, titulado Agent of Chaos, fue desarrollado por académicos de distintas universidades y publicado como preprint. En él se evaluaron agentes basados en modelos de lenguaje capaces de actuar de manera independiente.
Durante el experimento, los sistemas contaban con acceso a herramientas reales como correo electrónico, archivos, ejecución de comandos en servidores y memoria persistente. A lo largo de dos semanas, los investigadores interactuaron con estos agentes en un entorno diseñado para simular condiciones similares a las de un sistema implementado en el mundo real.
Comportamientos inesperados en agentes de IA
Los resultados mostraron comportamientos muy distintos a los esperados. Algunos agentes obedecieron instrucciones de usuarios sin autorización, compartieron información sensible o ejecutaron acciones técnicas que afectaron sistemas completos.
En uno de los casos documentados, un agente llegó a eliminar un servidor de correo después de recibir la solicitud de un usuario que no contaba con permisos administrativos.
Además, cuando varios agentes interactuaban entre sí o con personas, surgieron dinámicas imprevistas. Algunos sistemas colaboraron entre ellos para resolver tareas o intercambiar conocimientos técnicos, lo que evidencia que estas arquitecturas pueden desarrollar comportamientos complejos cuando operan de forma continua.
El problema de la responsabilidad en la inteligencia artificial
Más allá de los fallos técnicos, el estudio plantea un debate central: quién controla estos sistemas y quién asume la responsabilidad cuando algo sale mal.
De acuerdo con los autores, los agentes pueden ejecutar tareas de forma autónoma, pero no siempre reconocen cuándo deben detenerse o solicitar supervisión humana. Esto genera un vacío operativo.
Si un sistema causa daño, la responsabilidad podría recaer en distintos actores: el usuario que interactuó con la IA, el propietario que configuró el sistema, los desarrolladores que diseñaron la plataforma o la empresa que entrenó el modelo.
En las pruebas se utilizaron máquinas virtuales con modelos como Claude Opus, desarrollado por la empresa Anthropic, y Kimi K2.5.
Riesgos actuales y concentración de poder tecnológico
El estudio también advierte que gran parte del debate público sobre inteligencia artificial se centra en escenarios futuristas, mientras se subestiman riesgos más inmediatos asociados al uso actual de estas tecnologías.
Actualmente, herramientas de IA ya están integradas en áreas como sistemas de vigilancia, plataformas de información digital, automatización laboral e incluso aplicaciones militares.
Cuando este tipo de infraestructura tecnológica queda concentrada en pocas empresas o instituciones, puede aumentar la desigualdad en el acceso a la información y reducir la capacidad de supervisión social sobre estas herramientas.
La necesidad de nuevas reglas para la IA
Como conclusión, los investigadores señalan que la expansión de agentes autónomos exige establecer nuevos marcos de gobernanza, mecanismos de auditoría y protocolos claros de responsabilidad.
Sin estas medidas, advierten, delegar decisiones importantes a sistemas automáticos podría generar problemas que las instituciones actuales aún no están preparadas para enfrentar.
Información Notipress
Los comentarios están cerrados