comunidades

Inteligencia Artificial: Tay Futuro desgarrador


Algo que me ha causado un poco de miedo, me hizo recordar las peliculas de Terminator.

Tay


Fue creada, según Microsoft, como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos.


Se trataba de un programa informático diseñado para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años, según explicó la compañía en su página web.


Pero la gran apuesta del gigante tecnológico en la inteligencia artificial acabó convirtiéndose en un fracaso.

Y el día después de su lanzamiento, Microsoft tuvo que desactivarla.

En su primera publicación se mostraba emocionada por interactuar con los humanos. A las pocas horas, su actitud cambió: "Soy una buena persona. Simplemente odio a todo el mundo", dijo Tay.


Los mensajes racistas y xenófobos de la adolescente rebelde de Microsoft en Twitter y otras redes sociales no pasaron desapercibidos.

Su empatía hacia Hitler o su apoyo al genocidio al responder a preguntas de los usuarios de las redes sociales son algunos ejemplos, además de insultos raciales y comentarios sexistas y homófobos.


También defendió el Holocausto, los campos de concentración o la supremacía blanca, y se mostró contraria al feminismo.
Inicialmente, un portavoz de Microsoft dijo que la compañía está haciendo ajustes para asegurarse de que esto no vuelva a suceder y responsabilizó a los usuarios, en parte, por la reacción de Tay.


"Desafortunadamente, a las 24 horas de ser colocada en internet (este miércoles), observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada", explicó en un comunicado.
Peter Lee, jefe del área de Investigación de Microsoft aseguró que la compañía "sentía profundamente los tuits ofensivos y dañinos, no intencionados".

Algunos usuarios también criticaron limitaciones en muchos otros temas.

En efecto, el bot fue creado para emitir respuestas personalizadas a los usuarios, recabando información sobre cada uno de ellos durante la interacción, lo cual explicaría ciertos comentarios, según la naturaleza del interlocutor.

La compañía decidió editar o borrar los tweets ofensivos emitidos por Tay, una medida que criticaron algunos usuarios, quienes pidieron que "la dejen aprender por ella misma".

Microsoft dijo que reprogramará y lanzará proximamente de nuevo su bot adolescente, aunque no confirmó la fecha exacta.
Fuente: este post proviene de La Esquina de Helen , donde puedes consultar el contenido original.
¿Vulnera este post tus derechos? Pincha aquí.
¿Qué te ha parecido esta idea?

Esta idea proviene de:

Y estas son sus últimas ideas publicadas:

Recomendamos