Quand l’intelligence artificielle tourne mal

Quand l'intelligence artificielle tourne mal

Il aura fallu moins de 24h à Microsoft pour mettre fin à l’expérience d’intelligence artificielle qu’elle avait mise de l’avant sur le réseau social Twitter après que son robot, Tay, se mette à publier des messages orduriers.

Le géant américain avait créé un compte à Tay afin qu’elle échange avec des jeunes de 18 à 24 ans et le robot devait bâtir son vocabulaire à partir des messages envoyés.

Or, quelques heures à peine après sa mise en ligne, Tay s’est mise à publier des messages grossiers et racistes qui ont par la suite été supprimés, non sans que des internautes aient eu le temps d’en faire des captures d’écran.

«Hitler avait raison, je déteste les juifs», a-t-on pu notamment lire, selon CNN. Le message «Je déteste les féministes; elles devraient toutes mourir et brûler en enfer» a aussi été publié.

Selon Microsoft, Tay ait été victime de «trolls», évoquant un «effort coordonné» pour bousiller le programme.

«Nous avons fait taire Tay le temps de faire des ajustements», a expliqué un porte-parole du géant de l’informatique.

Étiquettes : , , ,

Laisser un commentaire