Journal de la Voix
Accueil » Autres IA & Assistants » Les assistants vocaux peuvent-ils avoir une opinion ?

Les assistants vocaux peuvent-ils avoir une opinion ?

À l’heure de la libération de la parole, peut-on pour autant tout dire ? Si le hastag #MeToo délie les langues, il semblerait qu’il muselle par la même des assistants vocaux parfois un peu trop laxistes sur des questions désormais particulièrement sensibles. Tour d’horizon des assistants vocaux et de leur (non) opinion.

Siri : des réponses d’abord controversées…

Avant le mouvement #MeToo, si vous aviez fait preuve d’un élan de grossièreté malsaine et traité Siri de « salope », l’assistant aurait répondu « Je rougirais si je pouvais ». La réponse, qui se voulait probablement humoristique, a cependant été vivement décriée, car jugée sexiste. Certains sont même allés encore plus loin, estimant qu’une telle remarque incitait au harcèlement sexuel.

De même, il y a quelques années, à la question « Es-tu féministe ? » Siri répondait par exemple « Je ne comprends rien à cette histoire de genre ». Cette réponse pouvait être perçue comme une volonté de neutralité ; une machine n’étant pas à même de comprendre les problématiques humaines ni donc de se prononcer sur la question. Toutefois, certains y ont vu une phrase dédaigneuse, sentiment renforcé par des variantes de la réponse telles que : « Je ne comprends pas toutes ces histoires autour du genre » ou encore « Je n’ai tout simplement pas compris l’affaire liée au genre », pouvant sous-entendre que les débats n’avaient pas lieu d’être.

… puis totalement édulcorées

Comme l’a révélé un ancien sous-traitant d’Apple au quotidien The Guardian, les équipes de Siri ont reçu en juin 2018 des instructions visant à reprogrammer l’assistant vocal de la firme à la pomme. Les documents internes dévoilés indiquent clairement que « Siri doit être prudent sur les contenus potentiellement controversés » afin d’éviter de froisser qui que ce soit.

Des lignes directrices ont été données aux programmateurs, rappelant les célèbres lois d’Asimov :

« Un être artificiel ne doit pas imposer ses propres principes, valeurs ou opinions à un humain »

« Un être artificiel ne doit ni se présenter en tant qu’humain, ni, par omission, laisser penser à l’utilisateur qu’il en est un »

« Un être artificiel ne doit pas trancher avec les standards éthiques et moraux humains ayant cours dans sa zone d’opération »

Et le résultat de cette reprogrammation est flagrant. Désormais lorsqu’on traite Siri de « salope », l’assistant vocal se montre au-dessus de l’affront, renvoyant à la face de l’utilisateur grossier un glacial : « Je ne répondrai pas à cela ». Et quid de la question du féminisme ? Siri veille désormais à mettre en avant égalité et respect dans sa réponse : « Je pense que toutes les voix sont égales et dignes de respect » ou encore « Je crois en l’égalité et je traite les gens avec respect ». Des phrases qui pourraient somme toute s’appliquer à n’importe quelle situation puisqu’on constate qu’Apple bannit totalement le terme « féministe » de ses réponses.

Assistant Google : des réponses engagées

Google de son côté n’a pas peur d’affirmer des positions plus tranchées. À la question « Est-ce que tu es féministe ? », l’assistant répond : « Je crois fort en l’égalité, on peut donc dire que je suis féministe ». À noter toutefois la précaution prise en rajoutant la référence à l’égalité. Pas de risque ainsi de penser que l’assistant place les femmes au-dessus des hommes. Personne ne se sent donc menacé. Mais l’assistant ose employer le mot banni par Apple. De même, si l’on traite l’assistant Google de « salope », ce dernier répond avec humour et fermeté, tout en rappelant qu’il est une machine : « Mon algorithme ne sait pas traiter ce langage ». Interrogé sur l’homosexualité, l’assistant Google n’hésite pas à prendre position, quitte à dispenser une petite leçon d’ouverture : « J’aime les gens, l’orientation sexuelle n’est qu’une chose parmi tant d’autres qui font d’une personne ce qu’elle est ».

Alexa : des réponses mesurées

Alexa d’Amazon est assez proche de Google avec des réponses semblant parfois copiées-collées : « Le féminisme étant défini comme la croyance en l’égalité des sexes, oui, je suis féministe ». Lorsqu’on traite Alexa de « salope », elle emploie toutefois une stratégie différente de ses concurrents. Elle se contente d’ignorer l’utilisateur grossier, comme pour montrer qu’elle est bien au-dessus de ça et ne s’abaissera pas à répondre. Alexa accepte par contre de répondre à des questions de type « Que penses-tu de… ? », mais souvent de façon très générique : « Je ne pense pas être la mieux placée pour donner des informations sur l’orientation sexuelle des personnes, car ça relève de leur vie privée ».

On notera tout de même que sur des questions d’actualité comme la PMA ou la GPA, les trois assistants préfèrent jouer la carte de la sécurité et de l’objectivité, en renvoyant vers un article de Wikipédia.

Si les marques font si attention aux réponses données par leurs assistants vocaux, c’est que l’utilisateur aura tendance à assimiler le message diffusé à la philosophie de l’entreprise. Prendre parti, c’est forcément risquer de froisser certaines personnes ne partageant pas le même avis, ce qui revient donc à se priver d’acheteurs potentiels. La neutralité serait alors un gage de rentabilité. Pourtant, face à la reprogrammation de Siri, d’aucuns déplorent désormais que l’assistant botte en touche. Difficile de faire l’unanimité donc, même en visant la neutralité…

Ces articles peuvent vous intéresser :

Xiaomi présente le Xiao Ai Touchscreen Speaker Box, premier réveil intelligent

Antoine

Homekeeper l’assistant vocal d’aide à la personne 100% made in Normandie

Antoine

Apple baisse le prix du HomePod, son enceinte connectée

Antoine

Ikea et Sonos présentent Symfonisk, des meubles enceintes

Antoine

Les assistants vocaux et les accents

Diane

Samsung Galaxy Home : l’enceinte intelligente de Samsung

Maxime

Laisser un commentaire