Cómo Facebook y Google financian la desinformación global

Los gigantes tecnológicos están pagando millones de dólares a los operadores de páginas clickbait, financiando el deterioro de los ecosistemas de información en todo el mundo.



luz y sombra en el suelo

Getty

20 de noviembre de 2021

Birmania, marzo de 2021.





A un mes de la caída del gobierno democrático.

Su navegador no soporta la etiqueta de vídeo. Su navegador no soporta la etiqueta de vídeo.

Un video de Facebook Live mostró a cientos de personas protestando contra el golpe militar en las calles de Myanmar.

Tenía casi 50.000 acciones y más de 1,5 millones de visitas, en un país con poco más de 54 millones de habitantes.



Los observadores, incapaces de ver los eventos en el terreno, utilizaron las imágenes, junto con cientos de otras transmisiones en vivo, para rastrear y documentar la situación que se desarrollaba. (MIT Technology Review difuminó los nombres y las imágenes de los carteles para evitar poner en peligro su seguridad).

Pero menos de un día después, el mismo video se volvería a transmitir varias veces, cada una de las cuales afirmaría estar en vivo.

En medio de una crisis política masiva, ya no había forma de discernir qué era real y qué no.

En 2015, seis de los 10 sitios web en Myanmar que obtuvieron la mayor participación en Facebook procedían de medios legítimos, según datos de CrowdTangle, una herramienta administrada por Facebook. Un año después, Facebook (que recientemente cambió su nombre a Meta) ofreció acceso global a Instant Articles, un programa que los editores podían usar para monetizar su contenido.



Un año después de ese lanzamiento, los editores legítimos representaban solo dos de los 10 principales editores en Facebook en Myanmar. Para 2018, representaron cero. En cambio, todo el compromiso se había ido a sitios web de noticias falsas y clickbait. En un país donde Facebook es sinónimo de internet, el contenido de baja calidad abrumó a otras fuentes de información.

Fue durante esta rápida degradación del entorno digital de Myanmar que un grupo militante de rohingya, una minoría étnica predominantemente musulmana, atacó y mató a una docena de miembros de las fuerzas de seguridad en agosto de 2017. Mientras la policía y el ejército comenzaban a reprimir a los rohingya e impulsar la propaganda anti-musulmana, los artículos de noticias falsas que capitalizan el sentimiento se volvieron virales. Decían que los musulmanes estaban armados, que se estaban reuniendo en turbas de 1.000, que estaban a la vuelta de la esquina y venían a matarte.

Todavía no está claro si las noticias falsas provinieron principalmente de actores políticos o de personas con motivaciones financieras. Pero de cualquier manera, el gran volumen de noticias falsas y clickbait actuó como combustible en las llamas de tensiones étnicas y religiosas ya peligrosamente altas. Cambió la opinión pública e intensificó el conflicto, que finalmente condujo a la muerte de 10.000 rohingya, según estimaciones conservadoras, y al desplazamiento de 700.000 más.

En 2018, una investigación de Naciones Unidas determinó que la violencia contra los rohingya constituyó un genocidio y que Facebook había jugado un papel determinante en las atrocidades. Meses después, Facebook admitió que no había hecho lo suficiente para ayudar a evitar que nuestra plataforma fuera utilizada para fomentar la división e incitar a la violencia fuera de línea.

Durante las últimas semanas, las revelaciones de los Papeles de Facebook, una colección de documentos internos proporcionados al Congreso y un consorcio de organizaciones de noticias por la denunciante Frances Haugen, han reafirmado lo que los grupos de la sociedad civil han estado diciendo durante años: la amplificación algorítmica de contenido incendiario de Facebook. , combinado con su incapacidad para priorizar la moderación de contenido fuera de los EE. UU. y Europa, ha alimentado la propagación del discurso de odio y la desinformación, desestabilizando peligrosamente a países de todo el mundo.

Pero hay una pieza crucial que falta en la historia. Facebook no solo amplifica la desinformación.

La empresa también lo está financiando.

Una revisión de tecnología del MIT La investigación, basada en entrevistas a expertos, análisis de datos y documentos que no se incluyeron en los Documentos de Facebook, descubrió que Facebook y Google están pagando millones de dólares publicitarios para financiar a los actores de clickbait, alimentando el deterioro de los ecosistemas de información en todo el mundo.

La anatomía de una granja clickbait

Facebook lanzó su programa de artículos instantáneos en 2015 con un puñado de editores estadounidenses y europeos. La empresa presentó el programa como una forma de mejorar los tiempos de carga de los artículos y crear una experiencia de usuario más eficiente.

Cómo Facebook se volvió adicto a difundir información errónea

Los algoritmos de inteligencia artificial de la compañía le dieron un hábito insaciable de mentiras y discursos de odio. Ahora el hombre que los construyó no puede solucionar el problema.

Esa fue la venta pública. Pero el movimiento también capturó convenientemente los dólares publicitarios de Google. Antes de los artículos instantáneos, los artículos publicados en Facebook redirigirían a un navegador, donde se abrirían en el sitio web del editor. El proveedor de anuncios, generalmente Google, sacaría provecho de cualquier vista o clic de anuncios. Con el nuevo esquema, los artículos se abrirían directamente dentro de la aplicación de Facebook y Facebook sería el propietario del espacio publicitario. Si un editor participante también hubiera optado por monetizar con la red de publicidad de Facebook, llamada Audience Network, Facebook podría insertar anuncios en las historias del editor y obtener una reducción del 30 % de los ingresos.

Instant Articles cayó rápidamente en desgracia con su cohorte original de grandes editores principales. Para ellos, los pagos no eran lo suficientemente altos en comparación con otras formas de monetización disponibles. Pero eso no fue cierto para los editores en el Sur Global, que Facebook comenzó aceptando en el programa en 2016 . En 2018, la empresa informó haber pagado $ 1.5 mil millones a editores y desarrolladores de aplicaciones (que también pueden participar en Audience Network). Para 2019, esa cifra había alcanzado varios miles de millones .

Al principio, Facebook realizaba poco control de calidad sobre los tipos de editores que se unían al programa. El diseño de la plataforma tampoco penalizó lo suficiente a los usuarios por publicar contenido idéntico en las páginas de Facebook; de hecho, recompensó el comportamiento. Publicar el mismo artículo en varias páginas podría duplicar la cantidad de usuarios que hicieron clic en él y generaron ingresos publicitarios.

Las granjas de clickbait de todo el mundo aprovecharon esta falla como estrategia, una que todavía usan hoy.

Una granja creará un sitio web o varios sitios web...

…por publicar contenido predominantemente plagiado.

Los registra conArtículos instantáneosyRed de audiencia,

que inserta anuncios en sus artículos.

Luego, publica esos artículos en un grupo de hasta docenas de páginas de Facebook a la vez.

Actores de clickbait surgieron en Myanmar de la noche a la mañana. Con la receta adecuada para producir contenido atractivo y evocador, podrían generar miles de dólares estadounidenses al mes en ingresos publicitarios, o 10 veces el salario mensual promedio, que les paga directamente Facebook.

Un documento interno de la empresa, primero informado por MIT Technology Review en octubre , muestra que Facebook era consciente del problema desde 2019. El autor, el excientífico de datos de Facebook Jeff Allen, descubrió que estas tácticas exactas habían permitido que las granjas de clickbait en Macedonia y Kosovo llegaran a casi medio millón de estadounidenses un año antes de las elecciones de 2020. . Las granjas también se abrieron paso en Instant Articles and Ad Breaks, un programa de monetización similar para insertar anuncios en videos de Facebook. En un momento, hasta el 60% de los dominios inscritos en Instant Articles usaban las tácticas de escritura de spam empleadas por las granjas de clickbait, según el informe. Allen, obligado por un acuerdo de confidencialidad con Facebook, no hizo comentarios sobre el informe.

A pesar de la presión de los investigadores internos y externos, Facebook luchó para detener el abuso. Mientras tanto, la empresa implementaba más programas de monetización para abrir nuevas fuentes de ingresos. Además de las pausas publicitarias para videos, hubo monetización de IGTV para Instagram y anuncios in-stream para videos en vivo. Ese impulso imprudente para el crecimiento de usuarios que vimos, ahora estamos viendo un impulso imprudente para el crecimiento de los editores, dice Victoire Rio, una investigadora de derechos digitales que lucha contra los daños inducidos por las plataformas en Myanmar y otros países del Sur Global.

MIT Technology Review descubrió que el problema ahora está ocurriendo a escala global. Han surgido miles de operaciones de clickbait, principalmente en países donde los pagos de Facebook proporcionan una fuente de ingresos más grande y constante que otras formas de trabajo disponibles. Algunos son equipos de personas, mientras que otros son individuos, ayudados por herramientas automatizadas baratas que los ayudan a crear y distribuir artículos a gran escala. Ya no se limitan a publicar artículos tampoco. Publican videos en vivo y ejecutan cuentas de Instagram, que monetizan directamente o usan para atraer más tráfico a sus sitios.

Google también es culpable. Su programa AdSense impulsó las granjas con sede en Macedonia y Kosovo que se dirigieron al público estadounidense en el período previo a las elecciones presidenciales de 2016. Y es AdSense el que está incentivando a los nuevos actores de clickbait en YouTube a publicar contenido escandaloso e información errónea viral.

Actualmente, muchas granjas de clickbait monetizan tanto con Instant Articles como con AdSense, y reciben pagos de ambas compañías. Y porque los algoritmos de Facebook y YouTube impulsar lo que sea atractivo para los usuarios , han creado un ecosistema de información donde el contenido que se vuelve viral en una plataforma a menudo se recicla en la otra para maximizar la distribución y los ingresos.

Estos actores no existirían si no fuera por las plataformas, dice Rio.

Las granjas de trolls llegaron a 140 millones de estadounidenses al mes en Facebook antes de las elecciones de 2020, según muestra un informe interno

Esto no es normal. Esto no es saludable.

En respuesta a la evidencia detallada que proporcionamos a cada empresa sobre este comportamiento, el portavoz de Meta, Joe Osborne, cuestionó nuestros hallazgos principales y dijo que habíamos entendido mal el problema. Independientemente, hemos invertido en la creación de nuevas soluciones escalables y dirigidas por expertos para estos problemas complejos durante muchos años, y continuaremos haciéndolo, dijo.

Google confirmó que el comportamiento violó sus políticas y canceló todos los canales de YouTube que MIT Technology Review identificó como que difundían información errónea. Trabajamos arduamente para proteger a los espectadores de clickbait o contenido engañoso en nuestras plataformas y hemos invertido mucho en sistemas que están diseñados para elevar la información autorizada, dijo la portavoz de YouTube, Ivy Choi.

Las granjas de clickbait no solo apuntan a sus países de origen. Siguiendo el ejemplo de los actores de Macedonia y Kosovo, los operadores más nuevos se han dado cuenta de que no necesitan entender ni el contexto local de un país ni su idioma para convertir la indignación política en ingresos.

MIT Technology Review se asoció con Allen, quien ahora dirige una organización sin fines de lucro llamada The Instituto de Integridad que realiza investigaciones sobre el abuso de la plataforma, para identificar posibles actores de clickbait en Facebook. Nos enfocamos en las páginas que se quedaron sin Camboya y Vietnam, dos de los países donde las operaciones de clickbait ahora están sacando provecho de la situación en Myanmar.

Obtuvimos datos de CrowdTangle, cuyo equipo de desarrollo la compañía se separó a principios de este año , y de Listas de editores de Facebook , que registran qué editores están registrados en programas de monetización. Allen escribió un algoritmo de agrupamiento personalizado para encontrar páginas que publican contenido de manera altamente coordinada y dirigidas a hablantes de idiomas que se usan principalmente fuera de los países donde se basan las operaciones. Luego analizamos qué grupos tenían al menos una página registrada en un programa de monetización o promocionaban mucho el contenido de una página registrada en un programa.

Encontramos más de 2000 páginas en ambos países involucradas en este comportamiento similar al clickbait. (Eso podría ser un recuento insuficiente, porque CrowdTangle no rastrea todas las páginas de Facebook). Muchas tienen millones de seguidores y probablemente lleguen a más usuarios. En su informe de 2019, Allen descubrió que 75% de los usuarios que estuvieron expuestos al contenido de clickbait de granjas administradas en Macedonia y Kosovo nunca habían seguido ninguna de las páginas. En cambio, el sistema de recomendación de contenido de Facebook lo había incluido en sus fuentes de noticias.

Cuando MIT Technology Review envió a Facebook una lista de estas páginas y una explicación detallada de nuestra metodología, Osborne calificó el análisis como defectuoso. Si bien algunas páginas aquí pueden haber estado en nuestras listas de editores, muchas de ellas en realidad no monetizaron en Facebook, dijo.

De hecho, estos números no indican que todas estas páginas generaron ingresos publicitarios. En cambio, es una estimación, basada en los datos que Facebook ha puesto a disposición del público, de la cantidad de páginas asociadas con actores de clickbait en Camboya y Vietnam que Facebook ha hecho elegibles para monetizar en la plataforma.

Osborne también confirmó que más de las páginas similares a clickbait administradas por Camboya que encontramos se habían registrado directamente con uno de los programas de monetización de Facebook de lo que creíamos anteriormente. En nuestro análisis, encontramos que el 35 % de las páginas de nuestros grupos lo habían hecho en los últimos dos años. El otro 65% tendría indirectamente generó ingresos publicitarios al promocionar en gran medida el contenido de la página registrada a un público más amplio. Osborne dijo que de hecho sobre mitad de las páginas que encontramos, o aproximadamente 150 páginas más, se habían registrado directamente en algún momento con un programa de monetización, principalmente Instant Articles.

Poco después de que nos acercáramos a Facebook, los operadores de páginas clickbait en Myanmar comenzaron a quejarse en foros en línea de que sus páginas habían sido arrancadas de Instant Articles. Osborne se negó a responder a nuestras preguntas sobre las últimas medidas de cumplimiento que ha tomado la empresa.

Facebook ha buscado continuamente eliminar a estos actores de sus programas. Por ejemplo, solo 30 de las páginas administradas por Camboya todavía se están monetizando, dijo Osborne. Pero nuestros datos de las listas de editores de Facebook muestran que la aplicación a menudo se retrasa y es incompleta: las páginas de clickbait pueden permanecer dentro de los programas de monetización durante cientos de días antes de que se eliminen. Los mismos actores también abrirán nuevas páginas una vez que las antiguas se hayan desmonetizado.

allen es ahora código abierto solíamos alentar a otros investigadores independientes a perfeccionar y desarrollar nuestro trabajo.

Para apoyar el periodismo de MIT Technology Review, considere suscribirse.

Usando la misma metodología, también encontramos más de 400 páginas administradas por extranjeros dirigidas principalmente a audiencias estadounidenses en grupos que aparecieron en las listas de editores de Facebook en los últimos dos años. (No incluimos páginas de países cuyo idioma principal es el inglés). El conjunto incluye un grupo de monetización que se ejecuta en parte desde Macedonia dirigido a mujeres y la comunidad LGBTQ. Tiene ocho páginas de Facebook, incluidas dos verificadas con más de 1,7 millones y 1,5 millones de seguidores respectivamente, y publica contenido de cinco sitios web, cada uno registrado con Google AdSense y Audience Network. También tiene tres cuentas de Instagram, que monetizan a través de tiendas de regalos y colaboraciones y dirigiendo a los usuarios a los mismos sitios web en gran parte plagiados. Los administradores de las páginas de Facebook y las cuentas de Instagram no respondieron a nuestras solicitudes de comentarios.

Las páginas de Noticias LGBT y Noticias de derechos de la mujer en Facebook publican contenido idéntico de cinco de sus propios sitios afiliados que se monetizan con Instant Articles y Google AdSense, así como de otros medios de comunicación con los que parece tener asociaciones pagas.

Osborne dijo que Facebook ahora está investigando las cuentas después de que las llamamos la atención de la compañía. Choi dijo que Google eliminó los anuncios de AdSense de cientos de páginas en estos sitios en el pasado debido a violaciones de la política, pero que los sitios mismos todavía pueden monetizarse según las revisiones regulares de la compañía.

Si bien es posible que los macedonios que manejan las páginas se preocupen por la política estadounidense y por los derechos de las mujeres y LGBTQ, es innegable que el contenido genera ingresos. Esto significa que lo que promocionan probablemente se guíe por lo que gana y pierde con el algoritmo de suministro de noticias de Facebook.

La actividad de una sola página o grupo de páginas puede no parecer significativa, dice Camille François, investigadora de la Universidad de Columbia que estudia las campañas de desinformación organizada en las redes sociales. Pero cuando cientos o miles de actores están haciendo lo mismo, amplificando el mismo contenido y llegando a millones de miembros de la audiencia, puede afectar la conversación pública. Lo que la gente ve como una conversación doméstica sobre un tema en realidad puede ser algo completamente diferente, dice François. Es un grupo de personas pagadas que pretenden no tener ninguna relación entre sí, optimizando lo que publican.

Osborne dijo que Facebook ha creado varias políticas nuevas y protocolos de aplicación en los últimos dos años para abordar este problema, incluida la penalización de páginas que se agotan en un país y que se comportan como si fueran locales de otro, así como la penalización de páginas que crean una audiencia en el país. base de un tema y luego pasar a otro. Pero tanto Allen como Rio dicen que las acciones de la compañía no lograron cerrar lagunas fundamentales en las políticas y diseños de la plataforma, vulnerabilidades que están alimentando una crisis de información global.

Está afectando principalmente a países fuera de los EE. UU., pero también presenta un riesgo masivo para los EE. UU. a largo plazo, dice Rio. Va a afectar prácticamente en cualquier parte del mundo cuando haya eventos intensos como una elección.

Desinformación de alquiler

En respuesta al informe inicial de MIT Technology Review sobre el informe interno de Allen de 2019, que publicado en su totalidad , David Agranovich, director de interrupción de amenazas globales en Facebook, tuiteó , Las páginas a las que se hace referencia aquí, basadas en nuestra propia investigación de 2019, son spammers motivados financieramente, no operaciones de influencia abierta. Ambos son desafíos serios, pero son diferentes. Combinarlos no ayuda a nadie. Osborne repitió que estábamos fusionando los dos grupos en respuesta a nuestros hallazgos.

Pero los expertos en desinformación dicen que es engañoso trazar una línea divisoria entre los spammers motivados financieramente y las operaciones de influencia política.

Hay una distinción en la intención: los spammers motivados económicamente son indiferentes al contenido que publican. Van dondequiera que estén los clics y el dinero, dejando que el algoritmo de suministro de noticias de Facebook dicte qué temas cubrirán a continuación. En cambio, las operaciones políticas están dirigidas a impulsar una agenda específica.

Pero en la práctica No importa : en sus tácticas e impacto, a menudo tienen el mismo aspecto. En un día normal, un sitio de clickbait motivado financieramente puede estar lleno de noticias de celebridades, animales lindos o historias muy emotivas, todos ellos generadores de tráfico fiables. Luego, cuando surge la agitación política, se desvían hacia las noticias hiperpartidistas, la desinformación y el cebo de la indignación porque atraen más la atención.

El grupo de páginas de Macedonia es un buen ejemplo. La mayoría de las veces el contenido promueve los derechos de las mujeres y LGTBQ. Pero en el momento de eventos como las elecciones de 2020, la insurrección del 6 de enero y la aprobación del proyecto de ley contra el aborto en Texas, el grupo amplificó un contenido político particularmente puntiagudo. Muchos de sus artículos han sido ampliamente difundidos por páginas legítimas con muchos seguidores, incluidos los dirigidos por Occupy Democrats, Union of Concerned Scientists y Women’s March Global.

Un ejemplo de un artículo altamente político que finalmente se eliminó de uno de los cinco sitios afiliados del clúster. Los sitios de clickbait a menudo eliminan artículos antiguos de sus páginas.

Mientras tanto, las operaciones de influencia política podrían publicar contenido de celebridades y animales para construir páginas de Facebook con muchos seguidores. Luego, también pasan a la política durante eventos políticos sensibles, aprovechando las enormes audiencias que ya tienen a su disposición.

Los operadores políticos a veces también pagan a los spammers motivados financieramente para que difundan propaganda en sus páginas de Facebook, o compran páginas para reutilizarlas para campañas de influencia. Rio ya ha visto evidencia de un mercado negro donde los actores de clickbait pueden vender sus grandes audiencias de Facebook.

En otras palabras, las páginas parecen inocuas hasta que dejan de serlo. Hemos empoderado a actores no auténticos para que acumulen una gran cantidad de seguidores con fines en gran medida desconocidos, escribió Allen en el informe.

Este cambio ha ocurrido muchas veces en Myanmar desde el surgimiento de las granjas de clickbait, en particular durante la crisis de los rohingya y nuevamente en el período previo y posterior al golpe militar de este año. (Esto último fue precipitado por eventos muy parecidos a los que condujeron a la insurrección del 6 de enero en EE. afirmaciones falsas generalizadas de una elección robada .)

En octubre de 2020, Facebook eliminó varias páginas y grupos involucrados en un comportamiento coordinado de clickbait en Myanmar. En un análisis de esos activos, Graphika, una firma de investigación que estudia la difusión de información en línea, descubrió que las páginas se enfocaban predominantemente en noticias y chismes de celebridades, pero descartaban la propaganda política, la peligrosa retórica antimusulmana y la desinformación sobre el covid-19 durante los momentos clave de la crisis. . Docenas de páginas tenían más de 1 millón de seguidores cada una, y la más grande superaba los 5 millones.

El mismo fenómeno se desarrolló en Filipinas en el período previo a la elección del presidente Rodrigo Duterte en 2016. Duterte ha sido comparado con Donald Trump por su política populista, retórica ampulosa e inclinaciones autoritarias. Durante su campaña, una granja de clickbait, registrada formalmente como la compañía Twinmark Media, pasó de cubrir celebridades y entretenimiento a promocionarlo a él y su ideología.

En ese momento, se creía ampliamente que los políticos habían contratado a Twinmark para realizar una campaña de influencia. Pero en entrevistas con periodistas y investigadores , los ex empleados de Twinmark admitieron que simplemente buscaban ganancias. A través de la experimentación, los empleados descubrieron que el contenido a favor de Duterte sobresalió durante una elección acalorada. Incluso pagaron a otras celebridades y personas influyentes para compartir sus artículos para obtener más clics y generar más ingresos publicitarios. según estudios de los estudiosos de los medios y la comunicación Jonathan Ong y Jason Vincent A. Cabañes.

En los meses finales de la campaña, Duterte dominó el discurso político en las redes sociales. Facebook mismo lo nombró el rey indiscutible de las conversaciones de Facebook cuando descubrió que era objeto de 68% de todas las discusiones relacionadas con las elecciones , en comparación con el 46% de su próximo rival más cercano.

Tres meses después de la elección, Maria Ressa, directora ejecutiva de la empresa de medios Rappler, quien ganó el Premio Nobel de la Paz este año por su trabajo en la lucha contra la desinformación, publicó una pieza describiendo cómo un concierto de clickbait coordinado y propaganda en Facebook cambia[ed] la opinión pública sobre temas clave.

Es una estrategia de 'muerte por mil cortes': desmenuzar los hechos, usar verdades a medias que fabrican una realidad alternativa al fusionar el poder de los bots y las cuentas falsas en las redes sociales para manipular a personas reales, escribió.

En 2019, Facebook finalmente derribó 220 páginas de Facebook, 73 cuentas de Facebook y 29 cuentas de Instagram vinculadas a Twinmark Media. Para entonces, Facebook y Google ya habían pagado a la granja hasta millones ( 400 millones de pesos filipinos ).

Ni Facebook ni Google confirmaron esta cantidad. Osborne de Meta cuestionó la caracterización de que Facebook había influido en las elecciones.

Una amenaza en evolución

Facebook hizo un gran esfuerzo para eliminar las granjas de clickbait de Instant Articles y Ad Breaks en la primera mitad de 2019, según el informe interno de Allen. Específicamente, comenzó a verificar la originalidad del contenido de los editores y a desmonetizar a aquellos que publicaban contenido en gran parte no original.

Pero estos controles automatizados son limitados. Se centran principalmente en evaluar la originalidad de los videos y no, por ejemplo, en si un artículo ha sido plagiado. Incluso si lo hicieran, dichos sistemas solo serían tan buenos como las capacidades de inteligencia artificial de la empresa en un idioma determinado. Los países con idiomas no priorizados por la comunidad de investigación de IA reciben mucha menos atención, si es que reciben alguna. En el caso de Etiopía hay 100 millones de personas y seis idiomas. Facebook solo admite dos de esos idiomas para los sistemas de integridad, dijo Haugen durante su testimonio ante el Congreso.

Rio dice que también hay lagunas en la aplicación. Los infractores son sacados del programa pero no de la plataforma, y ​​pueden apelar para ser reincorporados. Las apelaciones son procesadas por un equipo separado del que hace cumplir la ley y realiza solo controles tópicos básicos antes de reintegrar al actor. (Facebook no respondió a las preguntas sobre qué buscan realmente estos controles). Como resultado, un operador de clickbait puede tardar solo unas horas en volver a unirse una y otra vez después de la eliminación. De alguna manera, todos los equipos no se hablan entre sí, dice ella.

Así fue como Rio se encontró en estado de pánico en marzo de este año. Un mes después de que el ejército arrestara a la exlíder democrática Aung San Suu Kyi y tomara el control del gobierno, los manifestantes aún enfrentaban violentamente al nuevo régimen. El ejército cortaba esporádicamente el acceso a Internet y las redes de transmisión, y Rio estaba aterrorizada por la seguridad de sus amigos en el país.

Comenzó a buscarlos en los videos de Facebook Live. La gente estaba viendo estos videos de manera muy activa porque así es como haces un seguimiento de tus seres queridos, dice ella. No le preocupó ver que los videos provenían de páginas con problemas de credibilidad; ella creía que los streamers estaban usando páginas falsas para proteger su anonimato.

Entonces sucedió lo imposible: vio el mismo video en vivo dos veces. Lo recordaba porque era aterrador: cientos de niños, que parecían de tan solo 10 años, en fila con las manos en la cabeza, siendo cargados en camiones militares.

Cuando investigó, descubrió que los videos no eran en vivo en absoluto. Los videos en vivo están destinados a indicar una transmisión en tiempo real e incluyen metadatos importantes sobre la hora y el lugar de la actividad. Estos videos se descargaron de otros lugares y se retransmitieron en Facebook utilizando herramientas de terceros para que parecieran transmisiones en vivo.

Arriesgó todo para exponer Facebook. Ahora ella está contando su historia.

Sophie Zhang, ex científica de datos de Facebook, reveló que permite la manipulación política global y ha hecho poco para detenerlo.

Hubo cientos de ellos, acumulando decenas de miles de compromisos y cientos de miles de visitas. A principios de noviembre, MIT Technology Review encontró docenas de videos en vivo falsos duplicados de este período de tiempo aún vigentes. Un par duplicado con más de 200.000 y 160.000 visitas, respectivamente, proclamado en birmano, soy el único que transmite en vivo desde todo el país en tiempo real. Facebook eliminó varios de ellos después de que les llamamos la atención, pero aún quedan docenas más, así como las páginas que los publicaron. Osborne dijo que la compañía está al tanto del problema y ha reducido significativamente estos Lives falsos y su distribución durante el año pasado.

Irónicamente, cree Rio, los videos probablemente fueron extraídos de imágenes de la crisis subidas a YouTube como evidencia de derechos humanos. Las escenas, en otras palabras, son de hecho de Myanmar, pero todas fueron publicadas desde Vietnam y Camboya.

Durante el último medio año, Rio ha rastreado e identificado varios grupos de páginas que se han agotado en Vietnam y Camboya. Muchos usaron videos en vivo falsos para aumentar rápidamente su número de seguidores e impulsar a los espectadores a unirse a grupos de Facebook disfrazados de comunidades a favor de la democracia. A Rio ahora le preocupa que el lanzamiento más reciente de Facebook de anuncios in-stream en videos en vivo incentivará aún más a los actores de clickbait para falsificarlos. Un clúster de Camboya con 18 páginas comenzó a publicar información política errónea muy dañina, alcanzando un total de 16 millones de interacciones y una audiencia de 1,6 millones en cuatro meses. Facebook eliminó las 18 páginas en marzo, pero continúan surgiendo nuevos grupos mientras que otros permanecen.

Por lo que Rio sabe, estos actores vietnamitas y camboyanos no hablan birmano. Es probable que no entiendan la cultura birmana o la política del país. La conclusión es que no necesitan hacerlo. No cuando están robando su contenido.

Desde entonces, Rio ha encontrado varios de los grupos privados de Facebook y Telegram de los camboyanos (uno con más de 3000 personas), donde intercambian herramientas y consejos sobre las mejores estrategias para ganar dinero. MIT Technology Review revisó los documentos, las imágenes y los videos que recopiló y contrató a un traductor de khmer para interpretar un video tutorial que guía a los espectadores paso a paso a través de un flujo de trabajo de clickbait.

Los materiales muestran cómo los operadores camboyanos recopilan investigaciones sobre el contenido de mejor rendimiento en cada país y los plagian para sus sitios web clickbait. Una carpeta de Google Drive compartida dentro de la comunidad tiene dos docenas de hojas de cálculo de enlaces a los grupos de Facebook más populares en 20 países, incluidos EE. UU., Reino Unido, Australia, India, Francia, Alemania, México y Brasil.

El video tutorial también muestra cómo encuentran los videos de YouTube más virales en diferentes idiomas y usan una herramienta automatizada para convertir cada uno en un artículo para su sitio. Encontramos 29 canales de YouTube que difunden información política errónea sobre la situación política actual en Myanmar, por ejemplo, que se estaban convirtiendo en artículos clickbait y redistribuyéndolos a nuevas audiencias en Facebook.

bebé crecido en laboratorio

Uno de los canales de YouTube que difunde información política errónea en Myanmar. Google finalmente lo eliminó.

Después de llamar su atención sobre los canales, YouTube los canceló a todos por violar las pautas de la comunidad, incluidos siete que determinó que formaban parte de operaciones de influencia coordinadas vinculadas a Myanmar. Choi señaló que YouTube también había dejado de publicar anuncios en casi 2000 videos en estos canales. Continuamos monitoreando activamente nuestras plataformas para evitar que los malos actores busquen abusar de nuestra red para obtener ganancias, dijo.

Luego hay otras herramientas, incluida una que permite que los videos pregrabados aparezcan como videos falsos de Facebook Live. Otro genera aleatoriamente detalles de perfil para hombres de EE. UU. , incluida la imagen, el nombre, la fecha de nacimiento, el número de la Seguridad Social, el número de teléfono y la dirección, por lo que otra herramienta más puede producir cuentas de Facebook falsas en masa utilizando parte de esa información.

Ahora es tan fácil de hacer que muchos actores camboyanos actúan solos. Rio los llama microempresarios. En el escenario más extremo, ha visto a personas administrar hasta 11,000 cuentas de Facebook por su cuenta.

Los microempresarios exitosos también están capacitando a otros para hacer este trabajo en su comunidad. Va a empeorar, dice ella. 'Cualquier Joe en el mundo podría estar afectando su entorno de información sin que usted se dé cuenta.

Beneficio sobre seguridad

Durante su testimonio en el Senado en octubre de este año, Haugen destacó las fallas fundamentales del enfoque basado en el contenido de Facebook para el abuso de la plataforma. La estrategia actual, centrada en lo que puede y no puede aparecer en la plataforma, solo puede ser reactiva y nunca integral, dijo. No solo requiere que Facebook enumere todas las posibles formas de abuso, sino que también requiere que la empresa domine la moderación en todos los idiomas. Facebook ha fallado en ambos aspectos, y las personas más vulnerables del mundo han pagado el precio más alto, dijo.

El principal culpable, dijo Haugen, es el deseo de Facebook de maximizar la participación, que ha convertido su algoritmo y diseño de plataforma en un megáfono gigante para el discurso de odio y la desinformación. Un Investigación de MIT Technology Review de principios de este año, basado en docenas de entrevistas con ejecutivos de Facebook, empleados actuales y anteriores, colegas de la industria y expertos externos, corrobora esta caracterización.

Su testimonio también hizo eco de lo que Allen escribió en su informe, y lo que Rio y otros expertos en desinformación han visto repetidamente a través de su investigación. Para las granjas de clickbait, ingresar a los programas de monetización es el primer paso, pero la cantidad que ganan depende de hasta qué punto los sistemas de recomendación de contenido de Facebook impulsan sus artículos. No prosperarían ni plagiarían un contenido tan dañino si sus tácticas turbias no funcionaran tan bien en la plataforma.

Como resultado, eliminar las granjas en sí no es la solución: los actores altamente motivados siempre podrán crear nuevos sitios web y nuevas páginas para obtener más dinero. En cambio, son los algoritmos y los mecanismos de recompensa de contenido los que deben abordarse.

En su informe, Allen propuso una manera posible Facebook podría hacer esto: mediante el uso de lo que se conoce como una medida de autoridad basada en gráficos para clasificar el contenido. Esto amplificaría las páginas de mayor calidad, como noticias y medios, y disminuiría las páginas de menor calidad, como clickbait, revirtiendo la tendencia actual.

Haugen enfatizó que el hecho de que Facebook no arreglara su plataforma no se debió a la falta de soluciones, herramientas o capacidad. Facebook puede cambiar, pero claramente no lo hará por sí solo, dijo. Mi temor es que sin acción, los comportamientos divisivos y extremistas que vemos hoy son solo el comienzo. Lo que vimos en Myanmar y ahora estamos viendo en Etiopía son solo los primeros capítulos de una historia tan aterradora que nadie quiere leer el final.

(Osborne dijo que Facebook tiene un enfoque fundamentalmente diferente de Myanmar hoy en día con una mayor experiencia en los problemas de derechos humanos del país y un equipo dedicado y tecnología para detectar contenido violatorio, como discurso de odio, en birmano).

En octubre, el enviado especial saliente de la ONU para Myanmar dijo que el país había se deterioró en la guerra civil . Miles de personas han huido desde entonces a países vecinos como Tailandia e India. A mediados de noviembre, los actores de clickbait continuaban publicando noticias falsas cada hora. En una publicación, la líder democrática, Mother Suu, había sido asesinada. En otro, finalmente había sido liberada.

Un agradecimiento especial a nuestro equipo. Diseño y desarrollo por Rachel Stein y Andre Vitorio. Dirección de arte y producción de Emily Luong y Stephanie Arnett. Editado por Niall Firth y Mat Honan. Verificación de hechos por Matt Mahoney. Edición de copia por Linda Lowenthal.

Corrección: Una versión anterior del artículo afirmaba incorrectamente que después de que nos pusimos en contacto con Facebook, los actores de clickbait en Camboya comenzaron a quejarse en los foros en línea por haber sido expulsados ​​de Instant Articles. Los actores estaban en realidad en Myanmar.

Tecnologías Reales

Categoría

Sin Categorizar

Tecnología

Biotecnología

Política De Tecnología

Cambio Climático

Humanos Y Tecnología

Silicon Valley

Informática

Revista Mit News

Inteligencia Artificial

Espacio

Ciudades Inteligentes

Blockchain

Artículo De Fondo

Perfil De Exalumnos

Conexión De Exalumnos

Característica De Noticias Del Mit

1865

Mi Vista

77 Mass Ave

Conoce Al Autor

Perfiles De Generosidad

Visto En El Campus

Cartas De Exalumnos

Función De Noticias Del Mit

Cadena De Bloques

Perfil De Ex Alumnos

77 Avenida De Masas

Política Tecnológica

Perfiles En Generosidad

Noticias

Revista De Noticias Del Mit

Elecciones 2020

Con Índice

Bajo La Cúpula

Manguera

Historias Infinitas

Proyecto De Tecnología Pandémica

Del Presidente

Artículo De Portada

Galería De Fotos

Recomendado