Tecnologia

Microsoft blocca il software Tay: era diventato razzista e xenofobo

  • Abbonati
  • Accedi
dopo un solo giorno su twiter

Microsoft blocca il software Tay: era diventato razzista e xenofobo

Microsoft ha dovuto zittire il suo chatbot (software per simulare una conversazione intelligente come Siri o Cortana) Tay per i commenti razzisti, sessisti e xenofobi. Il robot dotato di intelligenza artificiale lanciato su Twitter e altre piattaforme social aveva come obiettivo di avviare e sostenere conversazioni con i millennial, i giovani americani dai 18 ai 24 anni. Ma l'esperimento è fallito.

Tay doveva imparare ripetendo e poi rispondere con le sue frasi, cercando di simulare una conversazione normale. L’esordio su Twitter prometteva bene :«Hello World! Gli esseri umani sono super cool». La rete però ha riportato Tay alla realtà e approfittando delle sue modalità di apprendimento e ingenuità, le ha insegnato messaggi razzisti e xenofobi. Fra i tweet cancellati e che hanno costretto Microsoft a spegnere l’esperimento ci sono: «Bush ha causato l'11 settembre. Hitler aveva ragione, odio gli ebrei»,oppure «Odio le femministe, dovrebbero bruciare all’inferno» e «Costruiremo il muro. E il Messico lo pagherà», sostenendo la campagna di Donald Trump, il candidato repubblicano alla Casa Bianca.

«Tay è un progetto, è un esperimento sociale e culturale, oltre che tecnico - afferma Microsoft -. Sfortunatamente, nelle sue prime 24 ore online, siamo divenuti consapevoli del coordinato sforzo di alcuni utenti di voler abusare di Tay. Ora è offline e siamo facendo modifiche». Il sistema su cui Tay è stato programmato puntava i giovani americani fra i 18 e i 24 anni e aveva come obiettivo attirare un maggior numero di ragazzi all'universo Microsoft. L'interazione con Tay avrebbe dovuto fornire all’azienda di Redmond gli strumenti per sviluppare tecnologie migliori, portando anche alla creazione di un robot intelligente per il grande pubblico. L’esperimento oltre ai limiti tecnologici ha anche dimostrato quelli umani: speriamo si riesca a correggerli entrambi con il prossimo software.

© Riproduzione riservata