Alexa propone a una niña hacer un “challenge” letal

Los asistentes virtuales pueden ser realmente útiles, ayudarnos a ser más productivos y hasta hacernos un poco de compañía cuando nos sentimos solos. Pero no todo es positivo, ya que la inteligencia artificial de nuestro asistente a veces puede sufrir un “cortocircuito” y volverse en nuestra contra.

Según informan los padres de una niña de 10 años, la joven habría pedido a Alexa que le propusiera un reto o “challenge”, y el asistente de Amazon habría respondido con un desafío (si es que se le puede llamar así) realmente peligroso que pondría incluso en peligro la propia vida del infante.

A la pregunta de “Cuéntame un reto para hacer”, Alexa respondió “Aquí tienes algo que he encontrado en la web. Según ourcommunitynow.com: el challenge es simple: conecta un cargador de teléfono hasta la mitad en un enchufe de la pared y después toca las puntas que están al descubierto con una moneda de un penique.”

Imagen: Twitter

El dispositivo habría cogido la idea de un artículo que hablaba sobre retos peligrosos que se comparten en la red de TikTok. Es decir, que el asistente habría interpretado incorrectamente la información encontrada en Internet y habría extraído ese challenge sin entrar a valorar el contexto ni las consecuencias reales del mismo.

Según ha confirmado Amazon a la BBC, “Tan pronto como fuimos conscientes de este error, tomamos medidas inmediatas para corregirlo”. Por nuestra parte hemos intentado replicar el fallo y efectivamente parece que ya no se reproduce. Cuando le pedimos a Alexa que nos proponga un desafío, lo más peligroso que nos ha sugerido es escuchar reguetón en Amazon Music o gastarnos 25 dólares en comida del McDonald’s.

Alexa no es el único con problemas para extraer información de internet

En cualquier caso, cabe destacar que Amazon no es el único que se ha encontrado con este tipo de “fallos en Matrix”. Cuando un usuario preguntó a Google qué podía hacer si tenía convulsiones, el buscador le habría respondido en las tarjetas destacadas justo con lo contrario, es decir, con cosas que no hay que hacer cuando alguien está sufriendo convulsiones.

Este fallo también fue corregido, pero el problema de fondo sigue estando ahí. Los algoritmos empleados para ofrecer información relevante y correcta funcionan para la mayoría de casos, pero hay veces en las que no saben interpretar como es debido lo que encuentran online.

Si la información es errónea pero irrelevante, el asunto se queda en poco más que una anécdota curiosa. Ahora bien, ¿qué podemos hacer cuando la respuesta del asistente o buscador de turno entraña un verdadero peligro?

Aquí es donde debería entrar en juego el sentido común del usuario, pero eso es algo que no siempre se puede dar por sentado (pensemos en niños, o en adultos con enfermedades mentales, por ejemplo). ¿Vosotros qué pensáis al respecto? ¿Deberían pedirse responsabilidades a las compañías tecnológicas en caso de ocurrir una desgracia de este tipo? Sin duda es un tema que deja mucho margen para el debate.

¿Tienes Telegram instalado? Recibe el mejor post de cada día en nuestro canal. O si lo prefieres, entérate de todo desde nuestra página de Facebook.

DEJA UNA RESPUESTA

Escribe tu comentario!
Escribe aquí tu nombre
  • Fin del tratamiento: Controlar el spam, gestión de comentarios.
  • Legitimación: Tu consentimiento.
  • Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  • Derechos: Acceso, rectificación, portabilidad, olvido.
  • Informe adicional: Más información en nuestra política de privacidad y aviso legal.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.