Pues hoy, Microsoft ha matado a Tay. Parece ser que el resultado no era el que esperaban. Os copio la noticia:

Microsoft “fulmina” a Tay tras un día de vida
Si ayer mismo os informábamos de la llegada de Tay, una IA de Microsoft, a Twitter, Kik y Group Me, tan solo un día después tenemos que informaros de su “muerte”.
La breve historia de Tay sin final feliz
Al parecer, Tay habría comenzado a publicar tuits con contenido racista y xenófobo. El motivo no es otro que su propia naturaleza, pues Tay aprende de lo que lee en Twitter, en concreto de jóvenes de entre 18 y 24 años.
Al parecer, Tay empezó a referirse a personajes históricos como Hitler en sus conversaciones, lo que, evidentemente, no dice mucho a favor de una “inteligencia” artificial. También, hizo alusiones a frases dichas por el actual favorito por hacerse con el control del partido republicano en Estados Unidos, Donald Trump.
La cosa no quedó ahí, sino que la inteligencia artificial de Microsoft se volvió incluso contra la propia compañía respondiendo que está “totalmente de acuerdo” con la afirmación de otro usuario de la red social de microblogging en la que afirmaba que “Windows Phone da asco”.