«Podrías darles un puñetazo en la garganta», la respuesta de Alexa a una madre sobre sus hijos que ha obligado a Amazon a explicarse

Los asistentes personales digitales se han convertido en un objeto ya imprescindible para muchas familias que lo utilizan para resolver dudas, conocer el tiempo o, incluso, organizar la domótica de sus viviendas. Sin embargo, y por muy avanzados que estén en pleno 2022, no dejan de ser máquinas cuyo diseño y programación pueden incurrir en errores. Esto es lo que le ha pasado a una mujer que se quedó perpleja con una respuesta de Alexa, el dispositivo asistente personal creado por Amazon . Lo ha contado a través de su cuenta de TikTok y las reacciones ya se cuentan por miles . La mujer pidió a su Alexa consejo para lograr que sus hijos, sobreexcitados, dejarán de alborotar y reírse. MÁS INFORMACIÓN noticia No El boom de los asistentes digitales en casa: tus deseos son órdenes Lo hizo a modo de curiosidad y broma en complicidad con sus pequeños, pero la respuesta del asistente le dejó perpleja. «Según un colaborador de Alexa Answers, si corresponde, podrías darles un puñetazo en la garganta», sugirió Alexa, para sorpresa de su propietaria. Pero había más. El consejo del asistente no terminaba ahí y era incluso más violento: « Si se retuercen de dolor y no pueden respirar , será menos probable que se rían». Código Desktop @corieile Alex hates kids 😂😂😂😪 #alexa #kids #punchtheminthethroat ♬ original sound – Corinna Nino O'Brien Imagen para móvil, amp y app Código móvil @corieile Alex hates kids 😂😂😂😪 #alexa #kids #punchtheminthethroat ♬ original sound – Corinna Nino O'Brien Código AMP @corieile Alex hates kids 😂😂😂😪 #alexa #kids #punchtheminthethroat ♬ original sound – Corinna Nino O'Brien Código APP @corieile Alex hates kids 😂😂😂😪 #alexa #kids #punchtheminthethroat ♬ original sound – Corinna Nino O'Brien Amazon ha explicado que la respuesta no proviene directamente de la base de inteligencia artificial de su dispositivo sino que recoge una sugerencia de ‘Alexa Answers’, el foro en el que usuarios sugieren respuestas para las posibles preguntas que los poseedores de un asistente puedan hacer. En este caso, está claro que el filtro de moderación que pasan todas las sugerencias que hacen internautas ajenos a Amazon ha fallado.