«Fue claramente un error inaceptable», ha reconocido un portavoz de Facebook en declaraciones a ‘The Verge’, donde ha pedido disculpas a los usuarios que hayan podido ver estas «recomendaciones ofensivas».<blockquote class=»twitter-tweet»><p lang=»en» dir=»ltr»>Um. This “keep seeing” prompt is unacceptable, <a href=»https://twitter.com/Facebook?ref_src=twsrc%5Etfw»>@Facebook</a>. And despite the video being more than a year old, a friend got this prompt yesterday. Friends at FB, please escalate. This is egregious. <a href=»https://t.co/vEHdnvF8ui»>pic.twitter.com/vEHdnvF8ui</a></p>— Darci Groves (@tweetsbydarci) <a href=»https://twitter.com/tweetsbydarci/status/1433492516439932930?ref_src=twsrc%5Etfw»>September 2, 2021</a></blockquote> <script async src=»https://platform.twitter.com/widgets.js» charset=»utf-8″></script>
Asimismo, Facebook ha deshabilitado completamente su función de recomendaciones de vídeos a través de la IA -que analiza automáticamente el contenido de los vídeos para sugerir otros relacionados- hasta investigar la causa del error y prevenir que vuelva a ocurrir de nuevo.
«Si bien hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer», ha admitido la compañía estadounidense.
El fallo de Facebook no es el primero de este tipo que registra la Inteligencia Artificial de una tecnológica. En 2015, Google se vio salpicada por la polémica después de que su herramienta Photos catalogase como ‘gorilas’ a dos personas negras. Más recientemente, en 2020, un estudio demostró que cuando se sube una imagen demasiado grande a Twitter en la que aparecen dos personas, una blanca y otra negra, el algoritmo de la red social, después de recortar la fotografía para mostrar la parte más relevante, tenía tendencia a mostrar a la persona de piel clara.

