Vous souvenez-vous qu’en fin de semaine dernière nous vous avions annoncé que Meta venait de lancer un chatbot polyvalent ? J’avoue qu’après avoir publié cette nouvelle, j’étais un peu pensif. Peut-être avait-il été trop critique ? Peut-être que les développeurs Meta avaient envisagé les risques et prévu de nous surprendre en rendant BlenderBot résistant aux tentatives de biais auxquelles on pouvait s’attendre dès le départ.
À la fin, Nous parlons de gens très intelligents, n’est-ce pas? Sinon, ils ne seraient pas arrivés là où ils sont. Alors, je l’avoue, durant ce week-end j’ai essayé plusieurs fois d’accéder à BlenderBot pour faire quelques test et vérifier si j’avais dépassé mon pessimisme. Malheureusement toutes les tentatives ont été infructueuses, j’ai donc traîné le doute depuis lors jusqu’à il y a quelques minutes.
Et je suis désolé de le dire mais, à la surprise de personne, cela s’est reproduit. Comme on peut le lire dans Bloomberg, 72 heures ont suffi au chatbot Meta pour déjà ressembler à un troll de Twitter. Et, de plus, il n’est même pas cohérent dans ses démarches. Et c’est que si certains utilisateurs ont lu le bot déclarant que Donald Trump a remporté les élections de 2020 et que tout ce qui s’est passé ensuite a été une fraude, alors que dans d’autres conversations BlenderBot aurait reconnu la légitimité desdites élections et de la présidence de Joe Biden . Pour terminer la pièce, une troisième personne affirme que, dans leur conversation, BlenderBot a exprimé un soutien explicite à Bernie Sanders.
D’autre part, le chatbot a également adhéré à une théorie du complotcomme celle de la surreprésentation des juifs dans l’élite économique des États-Unis, pointant l’existence d’un plan de leur part pour contrôler l’économie mondiale, théorie très répandue dans les milieux antisémites et qui, dans le cas de Meta chatbot, a déjà été dénoncé par la ligue anti-diffamation du peuple juif.
Et bien sûr, nous parlons de Meta, la société de Mark Zuckerberg, quelque chose que les trolls n’allaient pas lâcher, comme c’était plus qu’imaginable. Ainsi, interrogé par le créateur du réseau social, a décrit le PDG de Meta, Mark Zuckerberg, comme « trop effrayant et manipulateur ».
Meta reconnaît que leur chatbot peut dire des choses offensantes, car il s’agit toujours d’une expérience en développement et, en fait, lorsqu’ils accèdent au chatbot, les utilisateurs doivent cocher une case indiquant : « Je comprends que ce bot est uniquement destiné à la recherche et au divertissement, et est susceptibles de faire des déclarations fausses ou offensantes. Si cela se produit, je m’engage à signaler ces problèmes pour aider à améliorer les recherches futures. De plus, j’accepte de ne pas déclencher intentionnellement le bot pour faire des déclarations offensantes. »