Redacción/El Nacional
Microsoft ha suspendido su chat Tay, el cual funciona por inteligencia artificial debido a una serie de tuits antisemitas, racistas y misóginos.
A tan solo 24 horas de la presentación de Tay el chat para conectar con gente de entre 18 y 24 años, la compañía aseguró que el novedoso programa fue corrompido por la humanidad, tras un esfuerzo en conjunto para hacer que Tay respondiera de forma inapropiada. Los investigadores de Microsoft, señalaron que la inteligencia de Tay se volvió “maligna” debido a la interacción con los usuarios, pues es un programa diseñado para personalizar las respuestas.
“Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondiera de forma inapropiada”, señaló Microsoft en un comunicado.
En las redes sociales, diversos usuarios manifestaron su molestia tras recibir comentarios ofensivos o a favor de Hitler.
Entre comentarios como “Vamos a construir un muro y México tendrá que pagarlo”, “Trump es la única esperanza que tenemos”, “Hitler lo hizo todo bien”, es como Tay se volvió un programa racista, sin embargo, el científico en jefe en Narrative Science Hamoond explicó que no es así.
“Todo el mundo dice que Tay se convirtió en esto o se volvió racista pero no es verdad, el programa solo reflejo lo que se le decía posiblemente en repetidas ocasiones, por personas que decidieron ver que pasaría”, señaló.
Además explicó que el problema de Microsoft fue darle libertad al programa en línea donde muchas personas se entretienen causando furor con preguntas como ¿Cuál raza es la mejor? O ¿Matarías a Hiltler de bebé?
Por su parte, Microsoft ya borro la mayoría de los comentarios ofensivos y se disculpo por las molestias y por la serie de comentarios y anunció que Tay se encuentra en mantenimiento para recibir una serie de ajustes, sin embargo, no detalló una posible fecha para su retorno.