Frances Hausen es la responsable de la filtración de varios documentos de la compañía que muestra como la empresa ha ignorado su responsabilidad en la difusión de desinformación y el impacto nocivo de Instagram en la salud mental de los adolescentes.
Hace unos días les contamos como el consejo asesor de contenido advirtió a Facebook que debía ser más transparente sobre sus políticas de moderación de contenido y la creación de listas blancas.
Esto sucedió luego de que una fuente le informara al Wall Street Journa l que los mecanismos de las empresas son permisivos con las figuras más populares de sus redes sociales.
Los documentos internos aportados como evidencia mostraban que Facebook no solo miraba para otro lado cuando los VIP rompían las reglas sino que sabía como Instagram afectaba la salud mental de los adolescentes.
Esta fue una de las causas de la suspensión de la versión de Instagram para los menores de 13 años.
Testimonio La fuente del WSJ ha decidido dar la cara. Frances Haugen ha aparecido en el conocido programa periodístico 60 minutos .
Haugen llegó a Facebook en 2019, trabajó en aspectos relacionados con la democracia y la desinformación y fue líder de producto hasta dejar la empresa en mayo de 2021.
La Comisión ejecutiva realizó todos los pasos legales para cubrir su espalda, incluso se presentó en el registro de fuentes de la Bolsa y Valores de los Estados Unidos para obtener su protección.
Palabras vacías Haugen apuntó que Facebook actúa de una forma que no se corresponde con sus declaraciones públicas.
Sobre el ataque al capitolio en Estados Unidos por parte de seguidores del ex presidente Donald Trump, comentó: “Facebook ha promocionado su trabajo para combatir la desinformación y el extremismo violento relacionado con las elecciones de 2020 y la insurrección (…) En realidad Facebook sabía que sus algoritmos y plataformas promovían este comportamiento dañino, y no realizó ninguna recomendación interna o implementó contramedidas ”.
Economía del odio Haugen marca 2018 como un año clave, dado que fue cuando la plataforma cambió sus algoritmos para las líneas de tiempo de las noticias de forma tal que le diera prioridad al contenido que producía más interacción. Esto hizo que el material más divisivo se convirtiera en el más destacado, porque es más fácil inspirar el enojo que otras emociones.
Frances señala que “Facebook sabe que si cambia el algoritmo para que sea más seguro, la gente pasará menos tiempo en el sitio, hará menos clics en los avisos y producirá menos dinero”.