Noticias
MICROSOFT APRENDIÓ QUE Internet es un lugar oscuro y aterrador. Comenzaron un bot de chat de Twitter llamado Tay que fue diseñado para imitar el discurso de una niña de 19 años. La Inteligencia Artificial (IA) tenía la intención de ayudar a "realizar investigaciones sobre la comprensión conversacional", dijo Microsoft, y así, cuando se puso en marcha, pudo aprender de las personas con las que habló e imitar su forma de hablar.
El problema era que Microsoft no diseñó su bot para evitar temas complicados o políticos, lo que significa que reflejaría las opiniones de las personas que hablaron con él. Esto, naturalmente, era una oportunidad demasiado buena para que los trolls de Internet la dejaran pasar, y las cosas se pusieron realmente feas, muy rápido.
Dentro de las 24 horas posteriores a la conexión del bot, Tay se había convertido en un completo racista. Además de la negación del Holocausto y el nazismo, el bot también comenzó a imitar las opiniones de Donald Trump sobre la inmigración, las teorías de conspiración del 11 de septiembre y, naturalmente, comenzó a usar muchos insultos raciales horribles.
Microsoft decidió cerrarlo. Esto no quiere decir que el bot no haya sido un éxito: imitaba perfectamente a las personas con las que estaba hablando. Sin embargo, lo que Microsoft no tuvo en cuenta fue que las personas que imitaba eran trolls de Internet. Internet convirtió un experimento de alta tecnología en Inteligencia Artificial en nada más que otro idiota.