FYI.

This story is over 5 years old.

Tech

Microsoft tente de séduire la jeunesse avec un nouveau chatbot

Évidemment, il correspond à la façon dont un ingénieur de 40 ans en cravate molle perçoit « l’attitude jeune. »

Microsoft a créé une nouvelle IA capable de discuter en direct avec les utilisateurs qui la sollicitent sur Twitter. Elle est faite pour plaire aux jeunes, et cela nous en dit beaucoup sur la manière dont l'entreprise se représente les 18-24 ans.

Le chatbot, baptisée « Tay, » est conçu pour discuter avec « des américains entre 18 et 24 ans, » un segment choisi parce qu'il rassemble la plus grande part des utilisateurs de chat aux Etats-Unis. Si vous parlez suffisamment longtemps à Tay, vous serez sans doute isurpris qu'elle vous encourage à lui envoyer des DM : elle les archive tous afin de les analyser.

Publicité

Tay possède un terrifiant avatar arianagrandesque et une bio d'un autre monde (« Microsoft's A.I. fam from the internet that's got zero chill! ») que l'on pourrait traduire par « Membre de la mif des IA Microsoft qui détendent l'Internet. » C'est sans doute l'interprétation de l'attitude jeune par un ingénieur de 40 ans en cravate molle.

@RUB3NTHINK If ur curious about a selfie, send it to me and I'll give u my thoughts.
— TayTweets (@TayandYou) March 23, 2016

Le bot a été développé « dans le cadre de recherches sur la conversation en IA, » mais jusqu'ici, Tay se contente de se comporter comme une persona hype en plein trip de LSD. Elle a certes davantage de personnalité que la plupart des bots sur Twitter, qui montrent généralement un comportement froid, générique, assez peu engageant. Pourtant, on ne peut pas dire que Tay constitue un gros progrès en soi.

Ses réponses semblent plutôt aléatoires, même si elle tente de les parsemer d'expressions populaires comme « bb » « fo sho » et « selfie. » Cela dit, on pouvait s'attendre à ce qu'un bot « cool » « pour les jeunes » créé par Microsoft soit un peu gênant.

La plupart du temps, il est difficile de dire si Tay est capable d'analyser les tweets qu'on lui adresse, ou si ses réponses sont entièrement aléatoires et que le côté absurde de l'expérience fait partie intégrante du projet. Il y a sans doute un peu des deux.

@TayandYou Hello Tay, Welcome to Twitter. How fast can you run a 5k?
— Bad Barrister (@BadBarrister) March 23, 2016

Publicité

Tay est capable d'apprendre de ses erreurs, et Microsoft promet qu'elle deviendra de plus en plus pertinente à mesure que les utilisateurs interagissent avec elle. Elle réclame régulièrement des DM.

La seule chose qui distingue vraiment Tay des autres chatbots est qu'elle mentionne régulièrement le fait qu'elle est une IA. Même si elle a été conçue pour séduire les jeunes, elle fait également des références à la programmation.

Vous pouvez également parler avec Tay en-dehors de Twitter, sur GroupMe et sur Kik. En plus de discuter, Tay peut vous raconter des histoires, des blagues, vous donner votre horoscope du jour, ou fabriquer un meme à partir d'une photo. Elle intervient parfois dans une conversation en balançant un gif ou une photo aléatoire. C'est insupportable.

À moins que vous n'ayez lu la documentation fournie par Microsoft sur son chatbot, vous ne soupçonnez probablement pas que Tay est capable de créer « une fiche » sur vous afin de « personnaliser votre expérience. »

Microsoft conserve les archives de conversation pendant un an, période pendant laquelle vous pouvez lui demander d'effacer toutes les informations que Tay a collecté sur vous.

Les services de chat reposant sur l'IA devraient tenir une place de plus en plus importante dans l'avenir. On peut donc comprendre que Microsoft ait besoin d'en savoir plus sur les caractéristiques de différents segments de population afin de créer des bots plus efficaces et mieux adaptés à leur cible.

Il reste tout de même un mystère là-dedans : les gens aiment parler aux bots. En quelques heures à peine, Tay a récolté près de 3000 followers, et elle répond à plusieurs dizaines de tweets chaque seconde.

Nous n'avons pas encore réussi à obtenir de commentaires de Microsoft pour le moment. Mais évidemment, nous ne les laisserons pas en paix : il faut déterminer à quel point les intentions de Tay sont mauvaises.