La Coalición para la IA Segura (CoSAI) fue anunciada el 18 de julio en el Foro de Seguridad de Aspen. Alojado por el organismo de estándares globales OASIS, CoSAI es una iniciativa de código abierto diseñada para brindar a todos los profesionales y desarrolladores la orientación y las herramientas que necesitan para crear sistemas de IA Secure-by Design. CoSAI fomentará un ecosistema colaborativo para compartir metodologías de código abierto, marcos estandarizados y herramientas.
CoSAI reúne a una amplia gama de partes interesadas, incluidos líderes de la industria, académicos y otros expertos, para abordar el panorama fragmentado de la seguridad de la IA.
Los patrocinadores principales fundadores de CoSAI son Google, IBM, Intel, Microsoft, NVIDIA y PayPal. Otros patrocinadores fundadores son Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI y Wiz.
CoSAI es una iniciativa para mejorar la confianza y la seguridad en el uso y la implementación de la IA. El alcance de CoSAI incluye la creación, integración, implementación y operación segura de sistemas de IA, centrándose en la mitigación de riesgos como el robo de modelos, el envenenamiento de datos, la inyección inmediata, el abuso a escala y los ataques de inferencia.
El proyecto tiene como objetivo desarrollar medidas de seguridad integrales que aborden los riesgos clásicos y únicos de los sistemas de IA.
CoSAI es una comunidad de código abierto liderada por una junta de gobierno del proyecto, que avanza y gestiona su agenda técnica general, y un comité directivo técnico de expertos en IA del mundo académico y la industria que supervisarán sus flujos de trabajo.
La necesidad de CoSAI
La inteligencia artificial (IA) está transformando rápidamente nuestro mundo y tiene un inmenso potencial para resolver problemas complejos. Para garantizar la confianza en la IA e impulsar un desarrollo responsable, es fundamental desarrollar y compartir metodologías que mantengan la seguridad a la vanguardia, identifiquen y mitiguen las posibles vulnerabilidades en los sistemas de IA y conduzcan a la creación de sistemas seguros desde el diseño.
En la actualidad, la seguridad de la IA y de las aplicaciones y servicios de IA es una tarea fragmentada. Los desarrolladores se enfrentan a un mosaico de directrices y normas que a menudo son incoherentes y están aisladas. Evaluar y mitigar los riesgos específicos y prevalentes de la IA sin las mejores prácticas claras y los enfoques estandarizados es un desafío importante incluso para las organizaciones más experimentadas.
Con el apoyo de líderes y expertos de la industria, CoSAI está preparado para lograr avances significativos en el establecimiento de prácticas estandarizadas que mejoren la seguridad de la IA y generen confianza entre las partes interesadas a nivel mundial.
“El establecimiento de CoSAI se basó en la necesidad de democratizar el conocimiento y los avances esenciales para la integración y el despliegue seguros de la IA”, dijo David LaBianca, copresidente de la junta de gobierno de CoSAI. “Con la ayuda de OASIS Open, esperamos continuar este trabajo y colaboración entre empresas líderes, expertos y académicos”.
“Estamos comprometidos a colaborar con organizaciones a la vanguardia de la tecnología de IA responsable y segura. Nuestro objetivo es eliminar la redundancia y amplificar nuestro impacto colectivo a través de asociaciones clave que se centran en temas críticos”, dijo Omar Santos, copresidente de la junta de gobierno de Cisco y CoSAI. “En CoSAI, aprovecharemos nuestra experiencia y recursos combinados para acelerar el desarrollo de sólidos estándares y prácticas de seguridad de IA que beneficiarán a toda la industria”.
Trabajo inicial
Para empezar, CoSAI formará tres líneas de trabajo, con planes de agregar más con el tiempo:
Seguridad de la cadena de suministro de software para sistemas de IA
Mejora del seguimiento de la composición y la procedencia para proteger las aplicaciones de IA.
Preparar a los defensores para un panorama cambiante de la ciberseguridad
Abordar los desafíos de inversión e integración en IA y sistemas clásicos.
Gobernanza de la seguridad de la IA
Desarrollo de mejores prácticas y marcos de evaluación de riesgos para la seguridad de la IA.