El Instituto Nacional de Estándares y Tecnología de Estados Unidos (NIST) ha iniciado un proceso de consulta pública destinado a recabar opiniones de expertos, desarrolladores y profesionales del sector sobre la seguridad de los agentes de inteligencia artificial autónomos. La iniciativa, que permanecerá abierta hasta el 9 de marzo de 2026, representa un hito importante en la regulación y estandarización de sistemas de IA cada vez más sofisticados y autónomos.
Esta convocatoria llega en un momento crítico del desarrollo tecnológico, cuando los agentes de IA —sistemas capaces de ejecutar tareas de forma independiente, tomar decisiones y actuar sin supervisión humana constante— están ganando relevancia en sectores como la investigación, la administración empresarial y la gestión de infraestructuras críticas. La ausencia de estándares de seguridad establecidos ha generado preocupación en la comunidad científica y reguladora sobre los riesgos potenciales de estos sistemas.
El NIST, organismo de referencia internacional en la definición de normas técnicas, busca mediante esta consulta pública establecer directrices que permitan garantizar que los agentes de IA funcionen de manera segura, predecible y alineada con los objetivos para los que fueron diseñados. Los comentarios y aportaciones que se reciban servirán como base para la elaboración de recomendaciones y posiblemente nuevos marcos regulatorios que podrían convertirse en estándares de facto en la industria.
La seguridad de agentes de IA engloba múltiples dimensiones técnicas y operacionales: desde la robustez del sistema ante entradas maliciosas o inesperadas, hasta mecanismos que garanticen que el agente no se desvíe de sus objetivos originales, pasando por la trazabilidad de las decisiones tomadas y la capacidad de control humano efectivo sobre el sistema. Estos aspectos son especialmente críticos cuando los agentes interactúan con sistemas externos, acceden a recursos críticos o toman decisiones que afectan a múltiples partes interesadas.
Expertos en ciberseguridad y ética de la IA han señalado que la establecimiento de estándares claros es fundamental para evitar una fragmentación regulatoria global que podría ralentizar la innovación y crear barreras comerciales innecesarias. Al mismo tiempo, advierten sobre la importancia de que estas normas sean lo suficientemente rigurosas como para mitigar riesgos genuinos sin obstaculizar el desarrollo legítimo de tecnologías de IA beneficiosas.
La apertura de esta consulta pública también refleja la posición del NIST de fomentar un enfoque participativo y basado en evidencia para la gobernanza de la IA, invitando a académicos, desarrolladores, responsables de seguridad y partes interesadas de diversos sectores a contribuir con sus perspectivas. Esta estrategia contrasta con enfoques puramente regulatorios descendentes y busca construir consenso alrededor de buenas prácticas y estándares técnicos.
Para empresas y desarrolladores, esta iniciativa subraya la importancia creciente de incorporar consideraciones de seguridad desde las etapas tempranas del diseño de agentes de IA. Aquellos que participen activamente en este proceso de consulta tendrán la oportunidad de influir en la dirección de los estándares futuros y asegurar que sus perspectivas técnicas y comerciales sean consideradas en las recomendaciones finales del NIST.