El boicot que expuso a Facebook en su flanco más vulnerable

Daniel Mazzone
5 min readJul 8, 2020

--

Daniel Mazzone

Fb enfrenta su segunda crisis vinculada a la publicidad en 3 años. Habituado a la falta de límites, parece haberse topado con líderes que entienden su modelo de negocios y también la comunicación algorítmica y lo enfrentan de igual a igual.

¿Facebook es responsable por las “fake news”, la desinformación, la infodemia o como quiera llamársele al descontrol en la circulación de textos? No, claramente no lo es. ¿Se le puede pedir que controle el flujo textual que circula por las arterias de la sociedad? Tampoco. ¿Cuál es, entonces, el problema? ¿Por qué vivimos hablando de Facebook? ¿Y por qué tropezó con dos grandes crisis en apenas 3 años? Es lo que intenta desbrozar este artículo.

Hace décadas que utilizamos cajeros automáticos y buscadores que resuelven en segundos dudas informativas o de ubicación geográfica; también plataformas que conectan entre sí a miles de millones, o nos proveen películas, música, libros. Se diría que hemos naturalizado la parte beneficiosa de la cultura algorítmica, pero nos paraliza la sorpresa ante la mentira contumaz de un político o una campaña de falsedades sobre complejos problemas climáticos que se abre camino en la mente de centenares de millones.

¿Por qué los macrodatos jugarían en un sentido y no en otro? Las relativamente nuevas condiciones en que nos descubrimos inmersos, no solo exceden nuestra comprensión; también superan el marco legal vigente, o sea que desbordan la comprensión política, aun en los países que crearon esta cultura.

¿Cómo definir brevemente una cultura algorítmica? Es aquella en que prevalece el procesamiento de datos, se generaliza la interconexión de personas y contenidos y se multiplican los sistemas de control automatizado.

Su propagación se aceleró entre 1998 y 2004, cuando Google y Facebook empezaron a conectar contenidos y personas. El sistema alcanzó tal grado de desarrollo, que el próximo 27 de julio, los CEO’s de las 4 grandes plataformas (Amazon, Apple, Google y Facebook) declararán ante el Congreso de los Estados Unidos por primera vez en forma conjunta, en una investigación por presunto monopolio.

Quizá por la magnitud de su audiencia (más de 2.600 millones de usuarios), Facebook ocupa la atención en forma protagónica. Sus crisis pueden ser una vía para comprender algo más del ecosistema en que vivimos.

Las dos crisis de Facebook

El crecimiento exponencial de Fb -pasó de 100 millones de usuarios en 2008 a 1.300 millones en 2013- derivó naturalmente en la posibilidad de monetizar los datos y los clics de sus usuarios. Y rápidamente las marcas -grandes o pequeñas- se mostraron dispuestas a pagar por conectarse a la conversación de esa audiencia gigantesca. No era de extrañar, 200 años antes, en otra escala, otros actores y modalidades, había ocurrido algo similar con los diarios y la publicidad.

El énfasis publicitario fue alejando progresivamente a Facebook de sus orígenes, hasta conformar junto con Google, el duopolio que maneja más de 55% de la publicidad online global. No es extraño entonces, que sus dos crisis más importantes se vinculen a la publicidad.

Crisis 1: Cambridge Analytica y la microsegmentación. Entre 2014 y 2016, la consultora Cambridge Analytica trabajó para la campaña presidencial de Donald Trump. La clave fue la venta de publicidad microsegmentada por parte de Fb para que la Campaña de Trump se comunicara con los perfiles de millones de usuarios seleccionados, obtenidos e investigados en forma fraudulenta por Cambridge Analytica. Jamás se aclaró el grado de participación de la plataforma en la maniobra. Los Congresos de los Estados Unidos y el Reino Unido iniciaron investigaciones; bajaron momentáneamente las acciones de Fb, pero las cosas volvieron a su cauce.

Crisis 2: Boicot #StopHateForProfit y la publicidad programática. La segunda crisis está ocurriendo y se vincula con la llamada publicidad programática, como se designa a la compra automatizada de espacios, que articula varias características de la comunicación algorítmica (cruzamiento de grandes cantidades de datos, decisiones automatizadas y conexión directa de las marcas con los usuarios). Las ventajas de la modalidad para anunciante y vendedor son obvias, pero presenta inconvenientes. Por su carácter automático puede ocurrir -y a menudo ocurre- que el anuncio de una firma prestigiosa quede pegado a un contenido pornográfico, racista, violento, o hasta terrorista.

“Anuncios comprados por marcas como Walt Disney, Amazon y Microsoft a través de procedimientos de venta automatizada de publicidad, aparecieron en historias que difundían discursos de odio y desinformación sobre las protestas ocurridas entre el 22 y el 26 de junio, de acuerdo a Global Disinformation Index” (Digiday, 30 de junio).

Facebook no es prolijo en el filtrado de los contenidos que admite, dada la dinámica que requiere su modelo de negocios. Una auditoría contratada por el propio Fb en 2018, y conocida en julio de 2020, concluyó que “Facebook no ha hecho lo suficiente para proteger a los usuarios de la discriminación, las falsedades y la incitación a la violencia”. Sobre ese punto actuaron los organizadores del boicot publicitario #StopHateForProfit

Al 8 de julio son 1011 compañías de distinto porte las que pausaron su publicidad en la plataforma durante el mes de julio (la lista actualizada en este link). Seguramente Facebook también capeará esta crisis. Pero los organizadores del boicot dejaron al descubierto algunas costuras y excesos indeseados de la cultura algorítmica.

Ahora entendemos un poco más

Facebook quedó expuesto en su versión más vulnerable y también el sistema que desde 2016 tiene en vilo a sociedades y ciudadanos que carecen de certezas sobre los contenidos que circulan y que conducen a adoptar decisiones envueltos en nubes de confusión viral generadas en forma artificial.

Volviendo a las preguntas del comienzo: es claro que Fb no debe arbitrar la conversación pública. Pero también lo es, que las plataformas no deberían moverse con la impunidad y la falta de controles sistemáticos -más allá de algunas multas y reconvenciones- que les otorga por omisión, un marco legal irrestricto y desactualizado.

Una de las fuentes de confusión en la conversación pública ha sido visibilizada por un grupo de organizaciones sociales que no se remitieron a una explicación abstracta de los efectos de la publicidad programática; la exhibieron por la vía de demostrar bajo qué modalidades opera el descontrol, quiénes lo favorecen y qué inercias lo prolongan.

Demostraron que a Fb poco le importa dónde se ubican los anuncios. Y que las marcas no controlan el contexto en que se muestran sus productos. Y le demostraron a los usuarios, que el desinterés de marcas y plataformas, potencia y reproduce al infinito, las condiciones contra las cuales esos mismos usuarios/ciudadanos protestan en las calles o en las redes.

Demostraron que no hay un único responsable sino una cadena de responsabilidades. Y que si las crisis de Facebook parecen por su magnitud y dimensiones, asuntos de Estado, es porque lo son.

Artículo relacionado: “Facebook y la desinformación” se publicó en Medium el 19 de diciembre de 2019.

--

--

Daniel Mazzone

Magister UdeSA, Buenos Aires. Libro más reciente: Máquinas de mentir, “noticias falsas” y “posverdad”, Buenos Aires, noviembre de 2018