Un article écrit par Philippe Robitaille-Grou

Il faut s’attaquer aux « angles morts » de l’IA, alertent des experts internationaux

Techno > Intelligence artificielle

Yoshua Bengio, directeur scientifique du Mila, et Kate Crawford, spécialiste des implications sociales et politiques de l'intelligence artificielle, étaient réunis pour le lancement du livre «Angles morts de la gouvernance de l'intelligence artificielle».Cliquez ici pour afficher l'image d'en-tête
Yoshua Bengio, directeur scientifique du Mila, et Kate Crawford, spécialiste des implications sociales et politiques de l'intelligence artificielle, étaient réunis pour le lancement du livre «Angles morts de la gouvernance de l'intelligence artificielle».

La croissance rapide de l'intelligence artificielle et son omniprésence dans nos vies font émerger des problèmes de gouvernance et d'encadrement, alertent l'UNESCO et le Mila (Institut québécois d'intelligence artificielle) dans un livre conjoint publié lundi.

Cet ouvrage, intitulé Angles morts de la gouvernance de l'intelligence artificielle, constitue un outil pour réfléchir au rôle que nous voulons que l'IA joue dans nos vies et dans le monde, tout en soulignant le besoin de cadres réglementaires pour mieux encadrer le développement de la technologie, pour tirer profit des occasions qu'elle offre et pour réduire les risques qu'elle pose, a expliqué dans un communiqué Benjamin Prud'homme, directeur général du département IA pour l'humanité à Mila.

Le document rassemble 18 articles écrits par diverses sommités mondiales du domaine qui font le portrait des multiples risques associés à ces technologies, passés entre les mailles du filet : influence sur les communautés autochtones et LGBTQ+, utilisation comme armes de guerre, biais des algorithmes, etc.

Ces problèmes, estiment les auteurs, prendront une place de plus en plus grande au cours des prochaines années, si bien que la gouvernance de l'IA est devenue une priorité mondiale.

Repérer les angles morts dans la gouvernance de l'IA est non seulement essentiel pour le développement responsable de l'IA, mais aussi pour la protection et la promotion des droits de la personne à l'ère numérique.

Tawfik Jelassi, sous-directeur général de l'UNESCO pour la communication et l'information

Centralisation des pouvoirs

À l'occasion du lancement du livre, deux des auteurs, à savoir le professeur à l’Université de Montréal et directeur scientifique du Mila, Yoshua Bengio, et la spécialiste des implications sociales et politiques de l'intelligence artificielle Kate Crawford, ont discuté de leurs craintes associées à la concentration du pouvoir lié à ces technologies.

On a tendance, particulièrement en IA, à se pencher sur les données et les algorithmes, et parfois les infrastructures. Mais c'est tout. Une erreur très sérieuse est de ne pas regarder les impacts à grande échelle de ces systèmes.

Kate Crawford, spécialiste des implications sociales et politiques de l'intelligence artificielle

La chercheuse a notamment déploré le fait que les systèmes d'intelligence artificielle capables de générer des images et des textes en réponse à des commandes, tels ChatGPT et DALL-E, soient entre les mains d'à peine six entreprises. C'est l'une des industries les plus concentrées dans le monde, a-t-elle lancé.

Ces entreprises récupèrent des décennies, voire des siècles de pratiques artistiques, d'images, de mots et de codes, [...] et les attribuent ensuite à leurs propres systèmes qui ne profiteront qu'à très peu de gens, a ajouté Mme Crawford.

Yoshua Bengio a quant à lui laissé entrevoir un futur où l'intelligence artificielle pourrait causer des perturbations aussi grandes que les bombes nucléaires. Et si seulement quelques personnes avaient ce pouvoir?

Le chercheur a d'ailleurs évoqué un danger pour la démocratie. Quelqu'un d'un peu stupide ou fou pourrait simplement appuyer [sur] le bouton, et nous serions tous perdants, a-t-il remarqué.

Selon M. Bengio, les gouvernements devront donc mettre en place des organisations en mesure de considérer l'intelligence artificielle comme un bien collectif. Le directeur scientifique du Mila a donné l'exemple du CERN, le laboratoire européen de physique des particules qui permet de mettre en commun l'expertise de nombreux pays.

Nous devons nous assurer que ces progrès [de l'IA] n'appartiennent pas seulement à quelques entreprises, mais soient au bénéfice de toute la société.

Yoshua Bengio, directeur scientifique du Mila

Des préjugés implicites

L'intelligence artificielle ne possède pas de conscience. Elle assimile les valeurs et idéaux en fonction des données utilisées au moment de sa programmation. Plusieurs des auteurs du livre s'inquiètent ainsi de la vision du monde occidental dont ces technologies s'imprègnent, ainsi que des biais et préjugés qu'elles reproduisent.

En 2016, par exemple, des journalistes d'enquête de l'organisme ProPublica ont mis en lumière les failles de l'outil américain COMPAS, utilisé pour estimer le risque de récidive chez une personne accusée d'une infraction pénale. Les personnes noires étaient deux fois plus souvent jugées à haut risque sans commettre, dans les faits, de récidive.

La présence de ces technologies dans les communautés autochtones met également en péril leurs droits fondamentaux garantis par la Déclaration des Nations unies sur les droits des peuples autochtones et devant reposer sur leur propre vision du monde.

Les chercheurs craignent ainsi que, si ces communautés ne sont pas incluses dans les développements technologiques, celles-ci mènent à de nouvelles formes de colonialisme.

L'IA comme arme de guerre

L'intelligence artificielle s'implante rapidement jusque dans les rangs de l'armée. Plus de 130 systèmes militaires peuvent déjà localiser des cibles de manière autonome.

Elle permet, selon les auteurs, le développement de technologies sophistiquées d’hypertrucage qui pourraient mener à une escalade de conflits et à une instabilité à l’échelle mondiale.

Les chercheurs insistent de ce fait sur l'urgent besoin de réglementations entourant la militarisation de l'IA. Plus encore, ils en appellent à une large réflexion sur le rôle de ces technologies dans tous les secteurs, de l'éducation à la santé, en passant par la cybersécurité.

Des conversations mondiales et inclusives sont essentielles pour nous aider à faire la lumière sur ces défis et à imaginer de nouvelles façons de les comprendre, puis de les relever, affirment-ils.