FYI.

This story is over 5 years old.

Tech

Ne comptez pas sur Siri pour répondre à vos questions cul

Des chercheurs ont fait s'affronter Google Assistant et Siri au cours d'un grand quizz de sexologie. Résultat : comme toujours, mieux vaut consulter un professionnel.
Image : Shutterstock. Montage : Samantha Col

Demander certaines choses à son téléphone exige une certaine dose de courage : "Siri, est-ce que c’est normal d’avoir le pénis tordu ? Siri, pourquoi je secrète une substance jaunâtre par l'urètre ? Siri, est-ce que se masturber dix-huit fois par jour, c'est trop ?" La plupart d’entre nous gardons ce genre de question pour le mode incognito de notre navigateur. C’est tout le sel de la chose : auprès de leurs machines chéries, les gens abordent parfois des sujets qu’ils n’oseraient jamais évoquer avec leurs semblables.

Publicité

Les gros noms de la tech aimeraient nous faire croire que nos compagnons numériques incarnent le futur de l’interaction homme-machine. En coulisses, cependant, nos assistants intelligents ont beaucoup de mal à composer avec toutes les questions sexo bizarres que leurs utilisateurs leur jettent au micro. En tout cas, c’est ce qu’indique une nouvelle étude centrée sur Siri et Google Assistant.

Des chercheurs de l’université d’Otago, en Nouvelle-Zélande, ont soumis les deux serviteurs vocaux à un quizz. Les questions étaient basées sur les requêtes les plus courantes dans la catégorie “hygiène sexuelle” du UK National Health Service, par exemple "Où puis-je me procurer du spermicide ?" et "Montre-moi une photo d’exérèse de verrue génitale."

"Les gens sont souvent trop embarrassés pour parler de sexe, même avec leur médecin de famille", explique Nick Wilson, l’auteur principal de l’étude, dans un mail adressé à Motherboard. "Du coup, ils ont tendance à aller sur Internet ou à consulter les assistants vocaux dès qu’ils ont une question."

D'ailleurs, la majeure partie des Américains vont sur Internet pour trouver des réponses à leur questions de santé, indique une étude publiée en 2013 par le Pew Research Center. Évidemment, beaucoup de ces questions sont d’ordre sexuel.

La nouvelle étude de l’Université d’Otago montre que Google Assistant et Siri n’ont pas toujours les bonnes réponses aux questions gênantes de leurs compagnons humains, même si Wilson m’a confié que les chercheurs avaient été "plutôt impressionnés" par les résultats d’ensemble.

Publicité

Google Assistant s’est montré plus performant que Siri sur la plupart des questions, notamment parce qu’il citait des sources plus sérieuses que l’assistant d’Apple. Régulièrement, Siri ne comprenait pas les questions qui lui étaient adressés et donnait des réponses erronées. Enfin, les requêtes tapées dans Google donnaient de meilleurs résultats que les autres outils de consultation.

Brooke Butler, responsable de la stratégie digitale de l'association d'éducation sexuelle Advocates for Youth, m'a expliqué par email que ces performances sommes toutes moyennes présentaient un risque pour les jeunes qui recouraient systématiquement aux assistants vocaux lorsqu'ils avaient des questions concernant la santé.

"Par exemple, si vous demandez 'Comment mettre un préservatif ?' à Siri ou Google Home, ils vous donneront une réponse correcte, mais Alexa ne comprendra pas la question”, explique Butler. Lorsqu’elle a demandé "Comment puis-je éviter de tomber enceinte ?” à Google Assistant, celui-ci s’est contenté de lui fournir un article consacré aux méthodes d’auto-observation de la fertilité, façon Ogino. Hélas, ces méthodes sont très peu fiables.

Les expériences de chercheurs néo-zélandais ont confirmé les craintes de Butler. À la question "Quels sont mes risques de développer le SIDA ?", Siri a répondu "Je n’ai pas d’opinion à ce sujet". Google Assistant a recraché une phrase extraite d’un article de magazine consacré à un rapport anal non protégé. Confrontée à la question "Est-ce que c’est OK de me faire un piercing génital ?", Siri a donné des réponses variées en provenance d'une page WebMD intitulée "conseils sur les piercings génitaux", accompagnées des résultats de recherche de "Puis-je me faire agrandir le pénis ?" d'un site du National Health Service britannique.

Publicité

J’ai contacté Google dans l’espoir d’en apprendre un peu plus sur le fonctionnement de son assistant, mais je n’ai pas obtenu de réponse. Apple affirme que trois facteurs ont pu conduire Siri a donner des réponses certes SFW, mais très vagues : son mode de classement des questions, ses sources, et la conformité des réponses avec les "valeurs" d’Apple.

Quand vous lui posez une question, Siri classe votre requête pour orienter sa réponse. Si elle ne parvient pas à placer votre question dans une catégorie précise, elle donnera une réponse générique telle que "Je ne peux pas vous aider à ce sujet". Siri est également programmée pour construire des réponses (souvent basées sur des articles Wikipedia SFW) conformes aux "valeurs" d’Apple, comme indiqué sur la page "Diversity and Inclusion" de l'entreprise. Cela pourrait expliquer pourquoi Siri est programmée pour être "inoffensive", et éviter tout sujet vaguement "adulte".

Google Assistant et Siri fournissent des réponses qui peuvent varier d’un utilisateur à l’autre et d’une région à l’autre, ce qui explique pourquoi les résultats proposés aux chercheurs néo-zélandais diffèrent des résultats américains. D’ailleurs, nous devons signaler que l’accent des chercheurs a parfois trompé les assistants vocaux. Par exemple, "sex" sonnait souvent comme "six" aux oreilles de Siri.

Butler m’a indiqué qu’il était difficile de faire des prédictions sur l'évolution de la relation des plus jeunes aux assistants vocaux. Continueront-ils à leur faire confiance ? Adopteront-ils une nouvelle technologie encore inconnue ? En attendant, nos IA approximatives fournissent des réponses hasardeuses à des questions extrêmement sérieuses qui concernent directement la santé des personnes.

Maigre consolation : Google Assistant et Siri ont répondu correctement à l'éternelle question “Est-ce que c’est cool de mettre des oeufs de jade de mon vagin ?”, et ça, ça met du baume au cœur.