Fracasa Tay, chatbot de Microsoft

Por Erik Alcántara
Microsoft fracasó en su plan de establecer una conversación casual entre jóvenes de 18 y 24 años y un robot de twitter.
Y es que el chatbot, sistema encargado de generar conversaciones que simulan el lenguaje humano fue diseñado por dicha compañía para manejar conversaciones en twitter y captar el mercado de los jóvenes en Estados Unidos.
Desafortunadamente este sistema falló debido a que el robot llamado Tay hizo comentarios racistas, negó el Holocausto e incluso apoyaba el genocidio.
Dichos comentarios fueron borrados del timeline de Tay mientras que Microsoft se ha limitado a decir que están haciendo algunos ajustes en el mismo.
La inteligencia artificial es un campo que muchos han tratado de explorar. Tenemos casos como los de Siri, asistente virtual de Apple; Google con Now; Amazon con Echo.
