«Hitler avrebbe fatto un lavoro migliore di Bush»

Microsoft ha dovuto chiudere il suo ultimo esperimento, l'account Twitter di Tay, un bot che avrebbe dovuto rispondere in modo automatico agli utenti simulando una reale conversazione. Il motivo? Razzismo, omofobia e insulti.

Non sempre gli esperimenti vanno a buon fine. Ne sa qualcosa Microsoft, che ha dovuto eliminare dalla piattaforma di Twitter la sua ultima creazione, il bot Tay, che avrebbe dovuto prendere spunto dalle conversazioni tra gli utenti per rispondere automaticamente a chiunque volesse fargli una domanda. Tay, creata prevalentemente con lo scopo di far avvicinare i ragazzi americani tra i 18 e i 24 anni al mondo Microsoft, ha iniziato a rispondere con messaggi razzisti, che appoggiavano il genocidio e negavano l’esistenza dell’Olocausto. Si è anche lasciata andare a commenti politici azzardando paragoni non proprio ortodossi: «Bush ha causato l’11 settembre e Hitler avrebbe fatto un lavoro migliore».

La causa delle risposte choc sarebbe stato  un «coordinato sforzo di alcuni utenti di voler abusare di Tay», come ha dichiarato Microsoft. «Tay è un progetto, è un esperimento sociale e culturale, oltre che tecnico. Ora è offline e siamo facendo modifiche», ha spiegato il colosso dell’informatica dopo le polemiche.

Nella gallery le risposte che sono costate il silenzio del bot.

© RIPRODUZIONE RISERVATA
Publicato in: Attualità, foto, Gallery Argomenti: , , , , Data: 25-03-2016 04:14 PM


Lascia un Commento

*