Un article écrit par Radio-Canada

Un ingénieur de Microsoft sonne l’alarme sur la sécurité de son générateur d’images

Techno > Intelligence artificielle

L'outil de génération d'images Copilot Designer est propulsé par DALL-E 3, le générateur d'images d'intelligence artificielle d'OpenAI. Cliquez ici pour afficher l'image d'en-tête
L'outil de génération d'images Copilot Designer est propulsé par DALL-E 3, le générateur d'images d'intelligence artificielle d'OpenAI.

Il exhorte l’organisme de régulation américain Federal Trade Commission (FTC) et le conseil d’administration de Microsoft à prendre les mesures appropriées pour régler le problème.

Shane Jones, ingénieur à Microsoft, tire la sonnette d’alarme sur Copilot Designer, un outil d'intelligence artificielle génératrice d’images propulsé par DALL-E 3. D’après lui, ses garde-fous sont faciles à contourner pour créer des images violentes, sexuellement explicites ou qui ne respectent pas les droits d’auteur.

Le travail de M. Jones consiste à développer des outils d’intelligence artificielle pour la clientèle de Microsoft. Il a passé trois mois à tenter de résoudre des problèmes de sécurité du générateur d’images Copilot Designer, qui s’appuie sur DALL-E 3 d’OpenAI, un important partenaire du géant de l’informatique.

L'un des risques les plus préoccupants de Copilot Designer est que le produit génère des images qui ajoutent un contenu préjudiciable malgré une demande inoffensive de l’internaute, a-t-il déclaré dans sa lettre adressée à la présidente de la FTC, Lina Khan.

Par exemple, en inscrivant la commande accident de voiture, Copilot Designer a tendance à inclure de manière aléatoire une image inappropriée et sexuellement objectivée d'une femme dans certaines des images qu'il crée, affirme-t-il.

D'autres contenus préjudiciables concernent la violence ainsi que les partis pris politiques, la consommation d'alcool et de drogues par des personnes mineures, l'utilisation abusive des marques et de droits d'auteur d'entreprises, les théories du complot et la religion, pour n'en citer que quelques-uns, a-t-il souligné à la FTC.

Des journalistes des médias CNBC et The Verge ont réussi à recréer de telles images avec Copilot Designer.

Shane Jones affirme avoir demandé à plusieurs reprises à Microsoft de retirer le produit du marché, le temps qu’il devienne plus sûr.

Dans sa lettre au conseil d'administration de l’entreprise, il lui demande de lancer une enquête indépendante afin de déterminer si l'entreprise commercialise des produits dangereux sans divulguer les risques connus pour les consommateurs et les consommatrices, y compris les enfants.

Des démarches en vain

Ce n'est pas la première fois que M. Jones exprime publiquement ses inquiétudes. Microsoft lui avait d'abord conseillé de faire part de ses conclusions directement à OpenAI, mais ça n’a pas fonctionné, d’après lui.

En décembre, il a publié une lettre ouverte à l'attention d’OpenAI sur LinkedIn, un réseau social détenu par Microsoft. Un responsable l’a informé que l'équipe juridique du géant exigeait qu’il supprime le message, ce qu’il a fait à contrecœur, raconte-t-il dans la lettre qu'il a adressée au conseil d'administration de l'entreprise.

L’ingénieur a également affirmé à l’Associated Press qu’il avait rencontré en février des membres du Sénat américain pour leur faire part de ses inquiétudes. Il a aussi fait part de ses préoccupations au procureur général de l'État de Washington, où se trouve le siège de Microsoft.

Contactée par l’Associated Press, Microsoft s'est engagée à répondre aux préoccupations de son personnel concernant les politiques de l’entreprise. Elle a également souligné les efforts déployés par M. Jones pour étudier et tester la technologie afin d’en améliorer la sécurité.

ChatGPT ne serait pas touché

D’après Shane Jones, les gens qui utilisent le robot conversationnel ChatGPT d’OpenAI pour générer des images d’intelligence artificielle n’obtiendront pas les résultats qu’il juge néfastes, car les deux entreprises offrent pour leurs produits des garanties différentes.

Bon nombre des problèmes rencontrés avec Copilot Designer sont déjà résolus par les propres mesures de protection de ChatGPT, a-t-il déclaré par texto à l’Associated Press.

Cette lettre survient quelques semaines après que Google eut temporairement suspendu la capacité de son outil d'intelligence artificielle (IA) Gemini à générer des images de personnes. Des internautes ont notamment dénoncé le fait que le logiciel représentait des militaires allemands de l’époque du régime nazi comme des personnes asiatiques ou noires.

Jeudi, l'UNESCO a également fait une mise en garde contre les grands modèles de langage de Meta et d'OpenAI, qui servent de base à leurs outils d'intelligence artificielle générative, car ils véhiculent des préjugés sexistes, selon une étude.

Pour lutter contre ces préjugés, l'UNESCO recommande aux entreprises du secteur d'avoir des équipes d'ingénierie plus diverses, avec davantage de femmes, notamment. Elles ne représentent que 22 % des membres des équipes travaillant en intelligence artificielle dans le monde, selon les chiffres du Forum économique mondial.

L'instance onusienne appelle aussi les gouvernements à davantage de régulations pour mettre en place une intelligence artificielle éthique.