Cómo limitar el poder de las grandes tecnológicas: proteger la libertad de expresión de todos y todas

Read the page in English
lire la page en français
читать по русски

Los gobiernos de todo el mundo buscan regular cómo las empresas de redes sociales abordan el contenido problemático en sus plataformas, especialmente los discursos de odio, el acoso y la desinformación. 

Sin embargo, a pesar de las buenas intenciones, sus propuestas podrían ser más perjudiciales que útiles, y no resuelven el verdadero problema: el poder excesivo de unas pocas grandes empresas cuyos modelos comerciales son esencialmente de explotación. 

Las políticas de ARTICLE 19 plantean una solución que no solo protegería el derecho a la libertad de expresión y la privacidad en línea, sino que además nos ofrecería, por fin, una alternativa viable a las grandes tecnológicas. 

El problema con las plataformas

Las redes sociales son un espacio vital para conectarse, compartir y acceder a información, pero como los modelos comerciales de las grandes plataformas de redes sociales se basan en captar nuestra atención y vendérsela a los anunciantes, sus algoritmos están diseñados para mantenernos conectados el mayor tiempo posible, incluso mediante la ampliación de contenidos problemáticos como los discursos de odio y la desinformación.

Los gobiernos han presentado varias propuestas para responder a este problema. Sin embargo, en lugar de abordar el modelo comercial deficiente, muchas de sus propuestas se centran en el tipo de contenido que las personas deben, o no, permitirse publicar o acceder en las redes sociales. 

Esto otorga a las grandes plataformas aún más poder para vigilar lo que vemos, decimos y compartimos en línea, con consecuencias desastrosas para el debate público, la libre circulación de información y la democracia misma.

La conversación sobre las redes sociales se ha visto empañada por el «drama regulatorio»: no queremos la intrusión del Estado, pero sí, una regulación más adecuada. 

¿Cómo puede resolverse este drama? 

ARTICLE 19 tiene una solución que combina dos elementos fundamentales.

La solución de ARTICLE 19

1. Cómo regular la moderación de contenido y proteger, al mismo tiempo, la libertad de expresión

En primer lugar, nuestra política «Vigilar a los vigilantes» establece cómo los gobiernos pueden garantizar que sus esfuerzos por regular las plataformas respeten la libertad de expresión de los usuarios y usuarias, mejoren la transparencia, la rendición de cuentas y la toma de decisiones de las plataformas y, lo que es más importante, eviten otorgar aún más poder al puñado de empresas que dominan el ámbito digital. 

Vigilar a los vigilantes

Cómo regular la moderación de contenido y proteger, al mismo tiempo, la libertad de expresión

Lea nuestro informe de política

No obstante, establecer normas de derechos humanos para los servicios de redes sociales es sólo una parte del problema. 

Actualmente, unas pocas plataformas dominan los mercados de redes sociales, explotan a sus usuarios/usuarias y violan nuestros derechos a la privacidad, la libertad de expresión y la no discriminación. La falta de alternativas viables nos atrapa en estas relaciones de explotación.

Para solucionar realmente los problemas en los mercados de redes sociales, debemos abordar el excesivo poder de mercado de las pocas grandes empresas que los controlan. 

2. Cómo abordar el excesivo poder de mercado de los gigantes de las redes sociales

La segunda política de ARTICLE 19, «Cómo limitar el poder de las grandes tecnológicas», muestra cómo hacerlo. 

Plantea una solución que favorecería la competencia y transformaría las redes sociales: de un espacio cerrado, controlado por unas pocas empresas explotadoras y en el que abundan los discursos de odio y la desinformación, a uno abierto y diverso donde tenemos una opción real de elegir entre proveedores de servicios y alternativas a las relaciones de explotación.

Cómo limitar el poder de las grandes tecnológicas

Cómo abordar el excesivo poder de mercado de los gigantes de las redes sociales

Lea nuestro informe de política

Tomadas en conjunto, estas dos propuestas protegerían la libertad de expresión, el pluralismo y la diversidad de los medios, y conducirían a plataformas más abiertas, equitativas y descentralizadas que permitan la libre circulación de información. 

Esto sería beneficioso para todas las partes: usuarios de las redes sociales, los proveedores de servicios más pequeños, y la sociedad y la democracia en general.

Respuesta a las principales preguntas

¿Acaso no es positivo que los gobiernos aborden los contenidos problemáticos en las redes sociales?

Sin duda, es alentador que los gobiernos quieran dar respuesta al abuso, los discursos de odio y otros contenidos problemáticos en línea, cuestiones que las plataformas más grandeshan repetidas veces sido incapaces de abordar y que alejan a muchos usuarios de las redes sociales. 

Si bien sus intenciones pueden ser incuestionables, muchas de sus propuestas concretas serían más perjudiciales que útiles, pues, aunque afirman que pretenden regular las plataformas, en realidad se centran en regular el discurso de los usuarios y usuarias. En la práctica, los gobiernos están pidiendo a las plataformas que nos vigilen y decidan qué tipo de discursos son «ilícitos», o incluso «lícitos pero nocivos», lo que otorgaría aún más poder a algunas pocas grandes empresas.

La política de ARTICLE 19 «Vigilar a los vigilantes» describe cómo los gobiernos pueden regular la moderación y curación de contenido de las plataformas de manera que proteja los derechos de los usuarios y usuarias. 

No obstante, la moderación y la curación del contenido es solo una parte del problema. Los gobiernos también deben abordar el excesivo poder de mercado de las empresas tecnológicas dominantes.

Este excesivo poder de mercado juega un rol importante en los retos que enfrenta la la libertad de expresión. Es por eso  que nuestras propuestas ofrecen una solución de doble enfoque que evita una mayor concentración de ese poder y plantea una solución innovadora que crearía mercados de redes sociales más abiertos, equitativos y descentralizados.

En este sentido, las dos políticas de ARTICLE 19 son dos caras de la misma moneda, y ambas soluciones son necesarias para proteger los derechos de los usuarios y usuarias.

Si a la gente no le gustan las redes sociales, ¿por qué no dejan de utilizarlas? 

En todo el mundo, más de las tres cuartas partes de las personas mayores de 13 años usan las redes sociales y todos los días pasamos un promedio de 2,5 horas en las plataformas.

Abandonar las redes sociales no es una opción para la mayoría de las personaspues son centrales a cada aspecto de nuestras vidas.

Desde mantenerse en contacto con amigos y familiares hasta realizar compras, desde estar al día con las noticias internacionales hasta participar en foros comunitarios, desde estudiar hasta compartir aficiones, y desde organizar una fiesta de cumpleaños hasta intercambiar información sobre protestas, las redes sociales se han convertido en los parques, las plazas públicas y los ayuntamientos digitales. 

Así pues, suponer que la gente puede simplemente dejarlas es una posición muy privilegiada. Para muchas personas, dejarlas sería como abandonar nuestras comunidades, incluso nuestras sociedades, y verse privados de servicios básicos. 

Además, tampoco deberíamos tener que irnos, dado que no hay un servicio de la competencia al que cambiar, lo que en sí mismo es el resultado del dominio del mercado por parte de las grandes tecnológicas. 

Estamos entre la espada y la pared. 

La única vía de escape es hacer frente al excesivo poder de las grandes tecnológicas.

¿Por qué importa que un número reducido de empresas controlen los espacios en línea?

Los monopolios de cualquier tipo son malos para la sociedad. Controlan el mercado, nos obligan a usar sus bienes o servicios y no tienen ningún incentivo para mejorar. Al fin y al cabo, no hay competencia ni alternativa.

Ninguna entidad, privada o pública, debería controlar el flujo de información en la sociedad. Aun así, el excesivo poder de mercado de las grandes plataformas de redes sociales, unido a su popularidad como fuente de información y al control que tienen sobre lo que vemos, les permite hacer precisamente eso. 

De este modo, las plataformas dominantes se convierten no solo en los guardianes de acceso al mercado (porque pueden deshacerse de los competidores y hacer que los usuarios y usuarias permanezcan atados a sus servicios) sino también de los derechos humanos (porque pueden otorgar o restringir nuestros derechos a la privacidad, la libertad de expresión y otros derechos fundamentales). 

Para solucionar estos desafíos, debemos diluir este poder y mantenerlo bajo control.

¿Cuál es la solución que propone ARTICLE 19 para abordar el poder excesivo de las grandes tecnológicas?

La política de ARTICLE 19, «Cómo limitar el poder de las grandes tecnológicas», ofrece una solución única a estos dos problemas: la moderación y curación de contenido en las plataformas de redes sociales, y el excesivo poder de mercado de las empresas propietarias.

Proponemos la separación de dos servicios (también denominado unbundling) que las grandes plataformas actualmente ofrecen como un paquete: 1) alojamiento de contenido y 2) curación de contenido.

Actualmente, las plataformas alojan nuestro contenido (es decir, podemos crear nuestro perfil y publicar información en su plataforma) y lo curan (es decir, utilizan sus propios algoritmos y moderadores para crear nuestra línea del tiempo o selección de noticias: lo que vemos en su plataforma). No nos ofrecen la posibilidad de elegir:presentan el alojamiento y la curación de contenido, dos servicios distintos, como un paquete inseparable. 

Sin embargo, no hay ninguna razón por la que estos servicios deban ser inseparables. El único motivo por el que actualmente lo son es porque permite a las empresas dominantes bloquear a los competidores, atar a los usuarios y usuarias con sus reglas de servicios y maximizar sus ya excesivos beneficios (por ejemplo, en 2021, Meta obtuvo un beneficio de 39 370 millones de dólares estadounidenses). 

La separación de estos dos servicios significaría que las grandes plataformas podrían seguir alojando nuestro contenido (es decir, todavía podríamos utilizar nuestro perfil existente en su plataforma), pero tendrían que permitir que terceros lo curasen (es decir, crear nuestra línea del tiempo o selección de noticias). Los proveedores externos podrían competir con las gigantescas empresas tecnológicas para curar de formas más diversas los contenidos que vemos, ofreciéndonos más opciones y un mayor control, y acabando con el monopolio actual.

Esto implicaría que, por ejemplo, Facebook tendría que preguntarnos si queremos que esta misma empresa u otra, que podemos seleccionar libremente, seleccione nuestros contenidos. Podríamos elegir una empresa que priorice la privacidad, o simplemente una que se especialice en un tema que nos interese (ya sea el fútbol, la música hip-hop o el cambio climático), para curar el contenido que vemos en nuestra selección de noticias.

Por supuesto, algunos usuarios estarían de acuerdo con que Facebook continúe alojando y curando su contenido, y esta también seguiría siendo una opción. El factor crucial aquí es la elección del usuario o usuaria. 

Sin embargo, el modelo actual es tan lucrativo para las grandes plataformas que no lo van a cambiar de forma voluntaria. Por eso, la solución de ARTICLE 19 requiere reguladores independientes y responsables que garanticen su puesta en práctica y su supervisión. 

Fundamentalmente, necesitamos tanto la separación de servicios como normas acordes con los derechos humanos a las que todos los proveedores de curación de contenidos, desde el más pequeño hasta el más grande, deberían de  adherirse. 

¿Acaso no es hora de que paguen por resolver los problemas que crearon?

Es por eso que ARTICLE 19 cree que las plataformas más grandes deberían pagar la factura de separar el alojamiento de contenido de la curación de contenido.

Y es por eso que los gobiernos deberían imponer un impuesto a las plataformas más grandes para financiar nuestras otras soluciones, como dar acceso a las personas a mecanismos de resolución de disputas cuando su contenido se elimine indebidamente y respaldar nuevos modelos de negocio para plataformas que crean valor social, en lugar de simplemente extraer de nosotros.

¿Cómo beneficiaría nuestra solución a las personas, los proveedores y la sociedad?

Como establece la política de ARTICLE 19 «Cómo limitar el poder de las grandes tecnológicas», la separación del alojamiento de contenido de su curación, y el acceso a empresas competidoras tendría innumerables beneficios: 

  • Para las personas: finalmente nos ofrecería alternativas concretas y viables a los sistemas de curación de contenido de las plataformas más grandes. Podríamos elegir una empresa para la selección de contenido en función de una variedad de criterios, por ejemplo, hasta qué punto protege nuestra privacidad o nos garantiza que tengamos acceso a una pluralidad de perspectivas,ambas condiciones que son esenciales para tomar decisiones informadas y proteger la democracia. Además, ni siquiera necesitaríamos abandonar la plataforma; podríamos mantener nuestro perfil, amigos y seguidores existentes.
  • Para los proveedores más pequeños: les concedería un acceso más fácil a los usuarios y usuarias, y un incentivo para competir ofreciendo la selección de contenido que mejor sirva a los  intereses de los usuarios y usuarias, incluida la protección de la privacidad y los discursos en línea.
  • Para la sociedad: avanzaríamos hacia mercados de redes sociales mucho más abiertos, equitativos, diversos y descentralizados que facilitarían la libre circulación de información; un entorno más saludable para la libertad de expresión en general.

Es decir, nuestra solución sería beneficiosa para los usuarios y usuarias de las redes sociales, los proveedores más pequeños y la sociedad en general.

¿Quién debe financiar nuestra solución?

En 2021, Meta, la empresa propietaria de Facebook, Instagram, Messenger y WhatsApp, obtuvo un beneficio de 39 370 millones de dólares estadounidenses

Una cantidad superior al Producto Interior Bruto (PIB) de más de la mitad de los países del mundo, y que excede el PIB combinado de los 31 países más pobres.  

Alrededor del 97% de los ingresos totales de Meta provienen de la publicidad, es decir, de monetizar la atención de los usuarios y usuarias, y venderla. 

Trabajamos para ellos.

Trabajamos gratis.

Ganan miles de millones invadiendo nuestra privacidad, controlando lo que podemos ver y decir en línea, y amplificando el conflicto, la desinformación y el discurso de odio. 

No es algo accidental, es su modelo de negocio. 

Crean intencionalmente estos problemas, que son rentables para ellos, pero desastrosos para la sociedad, mientras aparentan que están haciendo del mundo un lugar mejor para todos nosotros.

Recomendaciones

Para las grandes empresas de redes sociales

Separar el alojamiento de contenido de su curación y asegurar que terceros o los operadores externos tengan acceso a los usuarios y usuarias a fin de ofrecerles servicios de curación alternativos. 

Esta separación de servicios debe configurarse como una forma de separación funcional. Es decir, nuestra propuesta no significa que una gran plataforma deba vender la parte de curación de contenido de su negocio. Las grandes plataformas que prestan servicios de alojamiento también deben seguir siendo libres de ofrecer curación de contenidos, de modo que los usuarios y usuarias puedan elegir libremente qué empresa les presta este servicio. A fin de garantizar una posibilidad real de elegir, la opción de seleccionar la gran plataforma debe presentarse al usuario como una opción de participación voluntaria.

Para los gobiernos

Adoptar regulación que exija a las grandes plataformas de redes sociales que separen sus servicios de alojamiento y curación de contenido y que ofrezcan un acceso equitativo, razonable y no discriminatorio a terceros o proveedores externos.

Actualmente, las plataformas alojan contenido en sus plataformas y los curan a través de algoritmos. La separación de estas dos funciones ofrecería a los usuarios y usuarias más opciones para elegir qué empresa selecciona sus noticias o línea del tiempo, ofreciéndoles una alternativa viable para cambiar y un mayor control sobre la información que ven, sin necesidad de abandonar la plataforma que utilizan actualmente. Asimismo, fomentaría la competencia entre proveedores para prestar un servicio que proteja mejor la privacidad de los usuarios y usuarias, represente opiniones plurales y, por lo tanto, fortalezca el debate informado y mejore el conocimiento público en general. La nueva política de ARTICLE 19, «Cómo limitar el poder de las grandes tecnológicas», trata este asunto con más detalle.

Esta separación de servicios debe ser obligatoria y debe ser puesta en práctica y supervisada por autoridades independientes Las grandes plataformas no separarán estas dos funciones a menos que se les obligue a hacerlo, pues esto las expondría a la competencia. 

En nuestra política, «Cómo limitar el poder de las grandes tecnológicas», planteamos una serie de recomendaciones preliminares sobre cómo los reguladores pueden poner en práctica de manera efectiva la separación de los servicios de alojamiento y curación de contenido.

Introducir una regulación que garantice que todas las empresas de redes sociales, no solo las plataformas más grandes, basen sus normas de moderación y curación de contenido en los derechos humanos.

La transparencia, la rendición de cuentas y la protección de los derechos humanos deben ser los principios generales de cualquier marco normativo para las plataformas de redes sociales. 

La regulación debe incluir obligaciones para mejorar la transparencia sobre las decisiones de moderación de contenido y para mejorar los sistemas de resolución de disputas que puedan causar estas decisiones. 

Los gobiernos no deben imponer a las empresas de redes sociales la obligación general de monitorear el contenido. Esto podría dar lugar a una mayor censura y silenciaría demasiadas voces.

Todo marco que regule la moderación de contenido debe cumplir los siguientes requisitos:

  • Tener un ámbito de aplicación estrictamente limitado. Debe centrarse únicamente en el contenido ilícito (no «lícito pero nocivo»), no debe aplicarse a los servicios de noticias ni a los mensajes privados, y solo debe ser efectivo en el país que aprueba la regulación.
  • Definir claramente las obligaciones. Deben incluir obligaciones en materia de transparencia, protección de la privacidad y promoción de la diversidad de los medios. No deben incluir objetivos de cumplimiento ni un «deber de diligencia» para evitar daños, que sea demasiado amplio.
  • Ser proporcionado. Los gobiernos no deben adoptar medidas que, si bien están destinadas a hacer que las grandes empresas de redes sociales rindan cuentas, en realidad impongan una carga indebida a los proveedores de servicios más pequeños.
  • Proveer acceso a recursos efectivos para usuarios y usiarias. Deben incluir mecanismos internos de queja, acceso a recursos judiciales y mecanismos alternativos de resolución de disputas.

Mantener la inmunidad condicional de responsabilidad de las plataformas por los contenidos de terceros, pero aclarar su ámbito de aplicación y los procedimientos de notificación y actuación. Eliminar o limitar la inmunidad de responsabilidad de las plataformas les daría un incentivo para eliminar o demasiado o muy poco contenido.

Cómo limitar el poder de las grandes tecnológicas

Cómo abordar el excesivo poder de mercado de los gigantes de las redes sociales

Lea nuestro informe de política

Vigilar a los vigilantes

Cómo regular la moderación de contenido y proteger, al mismo tiempo, la libertad de expresión

Lea nuestro informe de política

«Las propuestas de ARTICLE 19 nos ofrecen finalmente alternativas concretas y viables a las plataformas más grandes. Nos permitirían elegir a proveedores que curen nuestro el contenido en función de  qué tan bien protegen nuestra privacidad y aseguren que tengamos acceso a una pluralidad de perspectivas, ambas condiciones esenciales para tomar decisiones informadas y proteger la democracia».

Más información

Digital markets: Why competition is good for freedom of expression
27.07.2022 5 min read

Digital markets: Why competition is good for freedom of expression

Click here to go to article
Bridging the Gap: Local voices in content moderation
06.06.2022 1 min read

Bridging the Gap: Local voices in content moderation

Click here to go to article
Twitter: What Elon Musk must do to protect free speech
27.04.2022 3 min read

Twitter: What Elon Musk must do to protect free speech

Click here to go to article
International: Why Haugen’s Facebook testimony misses the point
10.11.2021 7 min read

International: Why Haugen’s Facebook testimony misses the point

Click here to go to article
US: A Capitol riot and Big Tech takes a stand: but is it the one we want?
12.01.2021 14 min read

US: A Capitol riot and Big Tech takes a stand: but is it the one we want?

Click here to go to article
Why decentralisation of content moderation might be the best way to protect freedom of expression online
30.03.2020 11 min read

Why decentralisation of content moderation might be the best way to protect freedom of expression online

Click here to go to article
#MissingVoices Campaign
10.12.2019 1 min read

#MissingVoices Campaign

Click here to go to article