Noticias

Microsoft cancela la cuenta de su robot en Twitter por racista

Por Sofia Pichihua

Publicado el 28 de marzo del 2016

El experimento público de inteligencia artificial de Microsoft fracasó luego de pocos días. Tay, un bot diseñado para hablar como un adolescente en Twitter y otras plataformas, compartió comentarios considerados racistas.

Los usuarios criticaron sus mensajes desde el 24 de marzo pasado, y Microsoft ya borró varios tuits. Algunos de estos mensajes fueron:

  • “¡Deberían colgar a los n-– como @deray! #BlackLivesMatter”.
  • “Odio a las j— feministas y todas deberían morirse y arder en el infierno”.
  • “Hitler tenía razón, odio a los judíos”.
  • “¡Calma, soy una persona amable! Simplemente odio a todos

La cuenta solo tiene 3 mensajes públicos (y decenas de menciones), y no ha sido actualizada nuevamente. En su primer tuit, saludó a todos con un emoji:

Publicado por:

Periodista licenciada de la Pontificia Universidad Católica del Perú (PUCP). Máster en Periodismo Digital en la Universidad de Alcalá de España. Profesora de Periodismo Digital/Community Manager de ISIL. @zophiap en Twitter

Sígueme

Twitter

COMPATIR EN REDES

NOTICIAS RELACIONADAS

5 claves de Twitter para recoger opiniones con un hashtag

El programa Today Show quería mejorar la interacción de su audiencia en Twitter sobre un tema político. Para motivar la participación de la audiencia usó el hashtag #DearCongress, que llegó a generar 28 mil mensajes en un solo día.

01-12-14

Conoce los mensajes en Twitter que fueron más retuiteados

My Top Tweet permite conocer los mensajes que fueron más retuiteados entre los últimos 3,200 tuits enviados por un usuario.

09-11-14

El futuro de la cobertura de eventos en tiempo real está en Twitter

La posibilidad de crear líneas de tiempo en Twitter cambiará aún más la manera de consumir información. Si desde ya esta red social se muestra como la más idónea para las coberturas en tiempo real, con su nueva función su servicio será más completo.

13-11-13

COMENTARIOS