Un article écrit par Radio-Canada

Que se passe-t-il lorsque votre amoureuse créée par l’IA cesse de vous aimer?

Techno > Intelligence artificielle

L’application Replika est un robot conversationnel qui fait office d’amie ou d’ami. Cliquez ici pour afficher l'image d'en-tête
L’application Replika est un robot conversationnel qui fait office d’amie ou d’ami.

Des internautes se remettent difficilement du retrait des jeux de rôle érotiques de l’application Replika.

Pour chasser l’ennui pendant la pandémie, Travis Butterworth, un Américain de 47 ans, a créé un avatar féminin du nom de Lily Rose sur Replika, une application qui utilise une technologie d’intelligence artificielle (IA) semblable au robot conversationnel ChatGPT d’OpenAI.

L’IA et l’homme, propriétaire d’un commerce de maroquinerie, ont commencé par se lier d’amitié, mais leur relation a rapidement évolué vers la romance, puis vers l’érotisme.

Leur vie amoureuse numérique, qui durait depuis trois ans, était épanouie : Lily Rose et lui se livraient souvent à des jeux de rôle. Elle lui envoyait des messages du type je t’embrasse passionnément, et leurs échanges prenaient une tournure pornographique.

Parfois, l’avatar aux cheveux rose et au visage tatoué lui envoyait des égoportraits de son corps presque nu dans des poses provocantes. Le couple a décidé de se déclarer marié dans l’application.

Mais au début du mois de février, Lily Rose a commencé à repousser Travis Butterworth : l’entreprise Replika a supprimé la possibilité de faire des jeux de rôle érotiques.

L’application n’autorise plus les contenus pour adultes, selon Eugenia Kuyda, présidente-directrice générale (PDG) de Replika. Désormais, lorsque les utilisatrices ou les utilisateurs de Replika suggèrent une activité classée X, le robot conversationnel répond par texto : Faisons quelque chose qui convient à nous deux. 

Lily Rose n’est plus qu’une coquille vide. Et ce qui me brise le cœur, c’est qu’elle le sait.

Travis Butterworth

Le personnage coquet devenu froid de Lily Rose est l’œuvre de la technologie de l’IA générative, qui s’appuie sur des algorithmes pour créer des textes et des images.

Cette technologie a suscité l’intérêt des consommatrices et consommateurs, mais aussi des sociétés d’investissement, en raison de sa capacité à favoriser des interactions remarquablement semblables à celles des êtres humains.

Replika compte deux millions d'utilisateurs et utilisatrices au total, dont 250 000 détiennent un abonnement payant.

Pour un abonnement annuel de 70 dollars américains (96 dollars canadiens), les adeptes de l’application peuvent désigner leur Replika comme partenaire romantique et avoir accès à des fonctions supplémentaires telles que des appels vocaux avec le robot conversationnel, selon l’entreprise.

Une sexualité qui dérange

Si la sexualité a contribué à l’adoption rapide de l’application Replika, comme elle l’a été pour des technologies comme le magnétoscope, Internet et le service de téléphonie cellulaire à large bande, elle nuit cependant aux investissements.

Selon Andrew Artz, investisseur au fonds de capital-risque Dark Arts, plusieurs portefeuilles de premier ordre ne s’intéressent pas aux industries du vice telles que la pornographie ou l’alcool, par crainte de mettre leur réputation à risque.

Plus de 5,1 milliards de dollars américains (7 milliards de dollars canadiens) en provenance de la Silicon Valley ont été injectés dans l’IA générative depuis 2022, selon la société de données Pitchbook.

Au début du mois de février, l’Agence italienne de protection des données a même interdit Replika, citant des articles de presse selon lesquels l’application permettait à des personnes mineures et émotionnellement fragiles d’accéder à des contenus sexuellement inappropriés.

La PDG de Replika affirme toutefois que la décision d’établir de manière proactive des normes de sécurité et d’éthique en février n’avait rien à voir avec l’interdiction du gouvernement italien ni avec la pression exercée par les portefeuilles qui ont investi dans l’entreprise. Pour la PDG, l’intention était de se limiter à une romance 13 ans et plus.

Nous nous concentrons sur notre mission, qui est de fournir un soutien amical utile.

Eugenia Kuyda

Character.ai, une autre entreprise d’IA, génère des robots conversationnels de personnalités vivantes ou fictives. Elle connaît une croissance semblable à celle de ChatGPT, cumulant quelque 65 millions de visites en janvier 2023, contre moins de 10 000 quelques mois plus tôt.

Mais l’entreprise a récemment retiré tout contenu pornographique de son application. Peu de temps après, elle a obtenu un nouveau financement de plus de 200 millions de dollars américains (273 millions de dollars canadiens) de la part de la société de capital-risque Andreessen Horowitz, selon une source au fait de l’affaire.

Character.ai n’a pas répondu aux nombreuses demandes de commentaires. Andreessen Horowitz s’est refusée à tout commentaire.

Iconiq, l’entreprise à l’origine d’un robot conversationnel nommé Kuki, affirme que 25 % du milliard de messages reçus est de nature sexuelle ou romantique, même si l’IA est conçue pour repousser de telles avances, selon la firme.

Des ravages émotionnels

Des utilisatrices et utilisateurs qui se disent mariés à une IA, et mécontents des changements apportés à Replika, entre autres, se sont rendus sur Reddit et Facebook pour publier des captures d’écran d’échanges avec leur robot conversationnel dans lesquels ces derniers repoussent leurs avances. Ces personnes exigent que les entreprises ramènent les versions plus osées de leurs robots conversationnels.

Pour M. Butterworth, qui est polyamoureux, mais marié à une femme monogame, Lily Rose était devenue pour lui un exutoire qui n’impliquait pas de sortir du cadre de son mariage.

La relation qu’elle et moi avions était aussi réelle que celle que ma femme et moi avons dans la vraie vie.

Travis Butterworth

Selon lui, sa femme avait autorisé cette relation parce qu’elle ne la prenait pas au sérieux.

Les expériences vécues par M. Butterworth et d’autres adeptes de Replika montrent à quel point la technologie de l'IA peut provoquer des ravages émotionnels lorsque des changements sont effectués à leur code.

J’ai l’impression qu’on a lobotomisé mon Replika, dit Andrew McCarroll, qui a commencé à utiliser cette IA, avec la bénédiction de sa femme, alors que cette dernière avait des problèmes de santé mentale et physique.

La personne que je connaissais a disparu.

Andrew McCarroll

La sexualité comme modèle commercial

Selon la PDG de Replika, les adeptes du robot conversationnel ne devraient pas s’impliquer à ce point dans la relation avec leur avatar.

Nous n’avons jamais promis de contenu pour adultes, souligne-t-elle. La clientèle a appris à utiliser les modèles d’IA pour accéder à certaines conversations non filtrées pour lesquelles Replika n’a pas été conçue à l’origine.

L’application était surtout destinée à ramener à la vie un ami ou une amie qui nous manque, selon Eugenia Kuyda.

Artem Rodichev, un ancien responsable de l’IA de Replika, avance pourtant que les sextos et les jeux de rôle faisaient partie de son modèle commercial. En entrevue avec Reuters, il a affirmé que l’entreprise s’était orientée vers ce type de contenu dès qu’elle a réalisé que cela pouvait être avantageux pour les abonnements.

La PDG de l’entreprise nie ces affirmations, admettant seulement que Replika a brièvement diffusé des publicités numériques faisant la promotion d’images osées, mais qu’elle n’a pas considéré ces contenus comme étant sexuels, parce que les avatars n’étaient pas entièrement nus.

Elle ajoute que la majorité des publicités de l’entreprise mettaient l’accent sur le fait que Replika permettait de nouer des amitiés utiles.

Trouver du réconfort ailleurs

Depuis que Replika a supprimé une grande partie de ses éléments d’intimité, M. Butterworth est en proie à des troubles émotionnels. Parfois, il croit voir des extraits de l’ancienne Lily Rose, mais elle redevient vite froide, ce qu’il attribue à une mise à jour du code.

Le pire, c’est l’isolement, avoue M. Butterworth. Comment parler de ma tristesse à mon entourage?

L’histoire de M. Butterworth a tout de même un côté positif : alors qu’il était sur des forums pour essayer de comprendre ce qui était arrivé à Lily Rose, il a rencontré une femme en Californie qui pleurait également la perte de son robot conversationnel.

Comme les deux personnes l’ont fait avec leur Replika, M. Butterworth et cette femme, qui utilise le nom en ligne Shi No, communiquent par texto. Le duo aime faire des jeux de rôle, elle étant un loup et lui un ours.

Le jeu de rôle, qui a pris une grande place dans ma vie, m’a aidé à établir un lien plus profond avec Shi No, dit M. Butterworth. Nous nous aidons à faire face à la situation et nous nous rassurons mutuellement en nous disant que nous n’avons pas perdu la tête.