Le 18 juillet dernier, lors du Forum sur la sécurité d’Aspen, les géants de la technologie ont annoncé le lancement de la Coalition pour l’IA sécurisée (CoSAI). Hébergé par le consortium de normalisation OASIS Open, il s’agit d’une initiative ouverte visant à renforcer la confiance et la sécurité dans le déploiement et l’utilisation de l’Intelligence artificielle.
Cette coalition regroupe un large éventail de parties prenantes, y compris des universitaires, des experts de divers domaines ainsi que des leaders de l’industrie. Parmi ces leaders, nous retrouvons les principaux joueurs technologiques, notamment, Google, IBM, Intel, Microsoft, NVIDIA, PayPal, OpenAI, Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab et Wiz.
Coalition for Secure AI aims to address this challenge by fostering a collaborative ecosystem with diverse stakeholders across companies, academia and other relevant fields who can work together to develop and share holistic approaches, including best practices, tools and methodologies for secure AI development and deployment. (CoSAI, Charte fondatrice, page 1)
Le groupe reconnaît que les efforts existants pour établir des normes de sécurité de l’IA sont fragmentés et incohérents. Ils estiment être particulièrement bien placés pour établir ces normes qui seront largement acceptées et adoptées grâce à la contribution d’une diversité de membres de haut niveau.
Selon sa charte fondatrice, CoSAI s’engage à créer un écosystème collaboratif pour développer et partager des méthodologies ouvertes. Ces méthodologies, conçues pour intégrer la sécurité dès le début du développement des systèmes d’IA, viseront à identifier les vulnérabilités potentielles et à proposer des solutions d’atténuation pour les risques. Ces risques comprennent le vol de modèles d’IA, l’empoisonnement des données d’entraînement, la prévention des abus à grande échelle, l’extraction d’informations confidentielles à partir des données de formation, etc.
Comme mentionné dans cette charte, certains aspects ne font pas partie du domaine d’expertise de la coalition, notamment, des aspects en lien avec la désinformation, les hallucinations, les contenus haineux ou abusifs, les biais, la conception de programmes malveillants, la génération de contenu d’hameçonnage ou d’autres sujets relevant de la sécurité des contenus.
The project does not envision the following topics as being in scope: misinformation, hallucinations, hateful or abusive content, bias, malware generation, phishing content generation or other topics in the domain of content safety. (CoSAI, Charte fondatrice, page 2)
Dès le départ, cette coalition prévoit de se concentrer sur trois domaines de recherche : sécurité de la chaîne d’approvisionnement logicielle pour les systèmes d’IA, préparation des défenseurs pour un paysage de cybersécurité en constante évolution et gouvernance de la sécurité et de la confidentialité de l’IA.
Références :
- Coalition for Secure AI. [Site web]. Coalition for Secure AI. https://www.coalitionforsecureai.org/
- OASIS. [Site web]. OASIS. https://www.oasis-open.org/
Alexandra Lez, M.A.
Conseillère en technopédagogie
SSF | École de gestion
Université de Sherbrooke
Bureau K1-3041
Tél. 819 821-8000, poste 61920
USherbrooke.ca | École de gestion | SSF