Noticias
Microsoft cancela la cuenta de su robot en Twitter por racista
Por Sofia Pichihua
Publicado el 28 de marzo del 2016
El experimento público de inteligencia artificial de Microsoft fracasó luego de pocos días. Tay, un bot diseñado para hablar como un adolescente en Twitter y otras plataformas, compartió comentarios considerados racistas.
Los usuarios criticaron sus mensajes desde el 24 de marzo pasado, y Microsoft ya borró varios tuits. Algunos de estos mensajes fueron:
- “¡Deberían colgar a los n-– como @deray! #BlackLivesMatter”.
- “Odio a las j— feministas y todas deberían morirse y arder en el infierno”.
- “Hitler tenía razón, odio a los judíos”.
- “¡Calma, soy una persona amable! Simplemente odio a todos
La cuenta solo tiene 3 mensajes públicos (y decenas de menciones), y no ha sido actualizada nuevamente. En su primer tuit, saludó a todos con un emoji:
hellooooooo w?rld!!!
— TayTweets (@TayandYou) 23 de marzo de 2016
Publicado por:
Sofia Pichihua
Periodista licenciada de la Pontificia Universidad Católica del Perú (PUCP). Máster en Periodismo Digital en la Universidad de Alcalá de España. Profesora de Periodismo Digital/Community Manager de ISIL. @zophiap en Twitter
Sígueme
COMPATIR EN REDES
NOTICIAS RELACIONADAS
Un editor de video para el Lumia con Windows Phone 8.1
Microsoft lanzó hace poco una aplicación de edición de video llamada Video Tuner, para la gente que usa la línea Lumia con la última versión de Windows Phone.
11-07-14Las cifras de Twitter sobre los hashflags
Los hashflags acompañan los mensajes en Twitter sobre la Copa el Mundo. La popular red de microblogging compartió un gráfico interactivo que muestra qué países mencionaron determinados hashflags.
11-07-14TwitTV, videos sobre las tendencias de Twitter
Si prefieres que un video te explique un determinado trending topic de Twitter, TwitTV es el lugar que buscabas. Este espacio relaciona cada tendencia con un video de YouTube.
17-06-11