Point chaud / en émergence Technologique Tendances sociétales

Pour lutter contre les algorithmes biaisés : les primes aux bogues

La détection et la correction des biais introduits dans les algorithmes constitue un énorme défi en intelligence artificielle. Pour y arriver, des spécialistes et chercheurs en informatique proposent à leurs collègues du domaine de l’IA de s’inspirer d’un modèle qui a fait ses preuves dans l’industrie de la sécurité informatique pour détecter et corriger des failles : offrir des « bug bounties » (primes aux bogues) pour encourager des hackers à passer au peigne fin le code source de leurs programmes afin d’identifier les problèmes en retour d’une récompense monétaire.

Le parallèle entre le travail des chercheurs et cette chasse aux failles inhérentes à des modèles d’IA est au cœur des travaux menés par Deborah Raji, chargée de recherche sur les algorithmes pour la Fondation Mozilla. Présentant les recherches qu’elle a menées avec le groupe de défense de l’Algorithmic Justice League lors du Mozilla Festival plus tôt cette année, Raji a expliqué comment son équipe a étudié les programmes de primes connus pour voir comment ils pourraient être appliqués à la détection d’un autre type de nuisance, soit les biais algorithmiques. Les primes de bogues permettent d’offrir des récompenses pour la découverte des vulnérabilités dans le code d’un logiciel avant que des acteurs malveillants puissent les exploiter. Les grandes entreprises telles que les GAFAM (Google, Apple, Facebook, Microsoft) offrent toutes de tels programmes depuis plusieurs années. Avec la complexité croissante des logiciels qu’elles produisent, le nombre de failles se multiplient et les récompenses financières que ces entreprises sont prêtes à payer pour corriger les problèmes avant que des pirates malveillants ne les trouvent et les exploitent vont aussi en augmentant.

C’est dans le cadre d’un projet appelé CRASH (Community Reporting of Algorithmic System Harms) que l’équipe de Raji a étudié la façon dont les primes de bogues fonctionnent dans le domaine de la sécurité informatique, plus spécifiquement pour voir si et comment le même modèle pourrait s’appliquer à la détection des biais dans l’IA. Alors que les systèmes d’IA deviennent de plus en plus sophistiqués, il n’existe pas de cadre commun pour en vérifier l’impartialité. Les effets potentiellement dévastateurs des modèles d’IA défectueux n’ont jusqu’à présent été révélés que par des organisations spécialisées ou des experts indépendants, sans qu’il y ait forcément des liens entre eux.

La toute première question que soulève le projet de Raji, celle de la définition des biais, offre de multiples réponses. Les biais sont intrinsèquement liés aux individus qui, à leur tour, peuvent avoir une perspective très différente de celle des entreprises qui conçoivent les systèmes d’IA. Et même si une définition, voire une hiérarchie, des biais algorithmiques devait être établie, il reste beaucoup de travail à faire pour développer une méthodologie de détection des biais pouvant s’appliquer aux différents cas de figure qui peuvent se présenter. Au cours des décennies qui ont suivi le lancement du premier programme de primes par le pionnier des navigateurs Netscape en 1995, ce secteur a eu le temps d’élaborer différents protocoles, des normes ainsi que des règles pour encadrer la détection et garantir que la résolution des bogues s’effectue au bénéfice de toutes les parties. L’une des plateformes de primes aux bogues les plus connues, HackerOne, propose des lignes directrices concernant la divulgation d’une vulnérabilité, qui incluraient la soumission de rapports confidentiels à l’entreprise ciblée et l’octroi d’un délai suffisant pour publier une mesure corrective.

Les entreprises dépensent des millions de dollars dans les programmes de primes aux bogues : en 2020 uniquement, Google a versé un montant record de 6,7 millions de dollars en récompenses à 662 chercheurs en sécurité qui ont soumis des rapports de vulnérabilité.

Mais dans le domaine de l’éthique en IA, la dynamique est radicalement différente selon Raji, en autres, en raison des divergences d’intérêts des chercheurs et des entreprises. Débusquer les biais algorithmiques pourrait obliger à revoir l’ensemble du processus d’ingénierie d’un produit, voire à retirer complètement un produit du marché. Dans de nombreux cas, explique Raji, la population touchée par les biais algorithmiques n’est pas une clientèle payante, ce qui signifie que, contrairement à ce qui se passe dans le domaine de la sécurité de l’information commerciale, les entreprises n’ont pas d’incitatif à corriger rapidement le problème si une faille est découverte.

Une option possible consisterait à faire confiance aux entreprises pour qu’elles investissent d’elles-mêmes dans ce domaine en raison d’une volonté de mettre en œuvre une technologie éthique. Selon Raji, cette voie n’est pas garante de succès. Une autre voie, plus prometteuse celle-là, serait d’exercer une pression externe sur les entreprises sous la forme d’une réglementation.

La crainte d’une atteinte à la réputation ouvrira-t-elle la voie à de futurs programmes de primes pour détecter et corriger les biais de l’IA ? Pour Raji, la réponse est évidente : elle croit que la coopération ne se fera que par le biais de la réglementation ou d’une forte pression de la part du public.

Source : Leprince-Ringuet, Daphne. The new weapon in the fight against biased algorithms: Bug bounties. ZDNet, 17 mars 2021.

Un design pédagogique à votre mesure
INTERNE : Vision de développement durable de l'Université Laval
+ posts

À propos de l'auteur

Marc Couture

Laisser un commentaire