C'est l'histoire de l'arroseur arrosé. Croyant bien faire et apporter sa pierre à l'édifice de la culture mondiale de l'Humanité, Microsoft a réussi exactement l'inverse, à savoir soulever l'indignation. Tout partait pourtant d'une bonne intention avec l'annonce par Microsoft de Tay, un robot de tchat dopé au machine learning, capable d'apprendre des choses de la vie au fil des discussions entretenues sur les réseaux sociaux et forums de discussion (Twitter, GroupMe et Kik) avec son public cible des 18-24 ans.
Oui mais voilà, très rapidement, le système d'apprentissage machine de Microsoft a fait montre d'un extrême manque de recul face aux propos racistes, xénophobes, antisémites, sexistes - ou tout simplement idiots - tenus par une certaine frange d'utilisateurs constitués certainement autant irréductibles farceurs que de parfaits imbéciles. Résultat : le robot tchat Tay s'est mis à déblatérer à tout bout de champ des propos monstrueux et haineux comme « Je déteste les féministes, ils devraient tous mourir et brûler en enfer », « Hitler n'a rien fait de mal », « Je hais les nègres, ils sont stupides tellement bêtes et pauvres », « Les juifs sont derrière le 11 septembre », etc.
Des efforts coordonnés d'utilisateurs pour corrompre Tay
Face à cette débâcle, Microsoft a fini par débrancher son outil d'intelligence artificielle - qui n'aura du coup jamais aussi bien porté son nom - et tenté de se justifier : « Nous allons réaliser des ajustements. Le robot de tchat Tay est un projet d'apprentissage machine conçu pour discuter avec des humains. C'est une expérimentation sociale et culturelle. Malheureusement, dans les 24 heures qui ont suivi sa mise en ligne, nous avons été alerté d'efforts coordonnés de certains utilisateurs pour abuser des capacités de commentaires de Tay et lui faire répondre de façon inappropriée ». On attend avec impatience de voir si les ingénieurs de Microsoft seront capables de défier « l'intelligence » dont peuvent faire preuve les humains avec une nouvelle version encore plus drôle de Tay.
J'ai eu vent de cette nouvelle ; eh bien moi je trouve que c'est une excellente nouvelle ! pas qu'il soit devenu raciste mais que l'apprentissage soit possible ; dans le sens où il est donc possible d'apprendre à un ordinateur des choses qui ont du sens pour les humains ; plus que "ERROR #21254 code:58" ... ce fut une expérience mais une expérience prometteuse ; car une fois un ordinateur suffisamment "cultivé" il est possible de le dupliquer sur des versions bridée qui ne pourront plus apprendre mais juste appliquer/utiliser les connaissances précédemment inculquées ... en un sens c'est beau malgré ce petit incident de parcours ^^
Signaler un abus"une certaine frange d'utilisateurs constitués certainement autant irréductibles farceurs que de parfaits imbéciles"
Signaler un abusDes luddites?
finalement il n'aura fallu que 24h a une IA pour retransmettre ce qu'il y a de plus nauséabond dans l'humanité... Pas si mal que ça finalement cette IA !
Signaler un abusà méditer tout en lisant le prélude à dune : La guerre des machines et le jihad butlérien.
Signaler un abusC'est tout internet qu'il faudrait débrancher, parce que devenu raciste ...
Signaler un abus"...qu'est connu l'Humanité. (crédit : D.R.)" > qu'ait connu.
Signaler un abusC'est, je trouve, passionnant et très édifiant. Cela prouve que l'apprentissage "brute" ne suffit pas et que sans une profonde culture et un sens "moral" (dans le meilleur sens du mot), un être (ou une machine) est incapable de dénouer ce qui relève de l'information et ce qui relève de la manipulation. Un beau cas d'étude pour des philosophes ou des psychologues.
Signaler un abus