Luis Méndez Zaldivar
Después de 6 meses los ingenieros de Facebook detuvieron la “falla de clasificación masiva”, la cual impulsó hasta en un 30% el alcance de contenido que promovía la desinformación en el News Feed de la plataforma.
La falla se detectó en octubre de 2021, según The Verge, y se identificó como un “riesgo de integridad” para la plataforma y los usuarios, pues presentaba aumentos repentinos de noticias falsas, contenido pornográfico, violento, entre otros.
Según los ingenieros de la red social entre el material distribuido en mayor proporción en la red social se incluyó información de medios rusos.
También te puede interesar: Se filtran nuevos documentos sobre el papel de Facebook en difusión de contenido polémico
https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js?client=ca-pub-5276943697118145 (adsbygoogle = window.adsbygoogle || []).push({});Falla muestra la necesidad de transparencia en redes sociales
A pesar del error, Sahar Massachi, exmiembro del equipo de Integridad Cívica de Facebook dijo a The Verge que la falla muestra la necesidad de una mayor transparencia en las plataformas de Internet y los algoritmos que emplean.
También te puede interesar: Facebook sí combate el discurso de odio de forma efectiva
La red social usa un sistema de degradación que modera los contenidos que circulan en la plataforma, con el fin de suprimir contenidos fuera de los límites permitidos por Facebook.
“En un sistema grande y complejo como este, los errores son inevitables y comprensibles y para una poderosa empresa [como Facebook] cuál sería la forma de saber si la falla sigue vigente” afirmó Massachi.https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js?client=ca-pub-5276943697118145 (adsbygoogle = window.adsbygoogle || []).push({});
La tecnología que utiliza Facebook ¿es efectiva?
En el mes de octubre el Wall Street Journal informó que la tecnología de Inteligencia Artificial que utiliza Facebook para combatir el discurso de odio es poco efectiva, de acuerdo a comentarios de empleados de la compañía.
Un empleado que funge como ingeniero senior y científico investigador de Facebook declaró al medio estadounidense que “el problema es que no tenemos —y posiblemente nunca tendremos— un modelo que capture siquiera la mayoría de los daños a la integridad, particularmente en áreas sensibles”.
https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js?client=ca-pub-5276943697118145 (adsbygoogle = window.adsbygoogle || []).push({});