Ilustración: New York Times
Regulación democrática contra la desinformación
Cuando el ambiente informacional no tiene fiabilidad, hay un problema central para la democracia, porque se afecta el derecho de la población a estar correctamente informada para su toma de decisiones.
Redacción CAP
Si la información es falsa, engañosa o manipulada y si puede causar un daño potencial a la paz, a los derechos humanos, al desarrollo sostenible, no interesa si es difundida intencionalmente o no; el posible efecto es el mismo, afirmó João Brant, investigador brasileño y consultor en Políticas de la Comunicación, Internet y Cultura, al inicio de la novena sesión de trabajo del Ciclo de Actualización para Periodistas (CAP) sobre Democracia, Desinformación y Libertad de Expresión.
Brant, quien también fue viceministro de Cultura de Brasil entre 2015 y 2016 y actualmente dirige el Instituto Cultura y Democracia, analizó con las y los periodistas participantes en los Ciclos CAP la evolución del fenómeno de la desinformación, la visión normativa y el papel de los Estados. También ejemplificó casos concretos y explicó las disputas sobre el tema de la regulación de las plataformas digitales.
El experto señaló que, aunque la desinformación siempre existió, el surgimiento de Internet, de las redes sociales y de las plataformas digitales la hizo “evolucionar” hasta transformarla en un problema muy grave.
“La desinformación no es un tema nuevo, ocurre desde hace mucho tiempo. La propaganda, los rumores, siempre fueron parte de la discusión pública”, explicó Brant. “Desde fines del siglo XIX y la primera mitad del siglo XX se habló sobre la propaganda de guerra y el uso político de rumores como propaganda política. Sin embargo, cuando cambia la velocidad, el volumen, los incentivos sistémicos y la visibilidad de la información, cambia también el tamaño de problema”, sostuvo. Y es por eso que tenemos que mirar en el contexto actual a la desinformación como un problema especialmente grave, insistió.
Hubo un tiempo entre la posguerra y el año 2010 en el que prevaleció el periodismo profesional como organizador del ambiente informacional y eso creó una esfera muy grande de tratamiento de las excepciones a la verdad, dijo el experto. “Si una mentira circulaba en un medio de comunicación o fuera de un medio de comunicación en 1995, el chance de que alcanzara a mucha gente representativa era muy bajo y rápidamente los medios salían a desmentirla. O cuando un rumor tomaba volumen en la esfera público-privada, en general los medios tomaban el tema y lo aclaraban”, explicó.
Pero lo que ocurrió después de 2010, según Brant, fue un cambio muy grande porque se modificaron el volumen y la velocidad en la circulación de las informaciones, la entrada de nuevos actores que no son los medios tradicionales y la visibilidad de la información.
Cuando hablamos de visibilidad, señaló el especialista, nos referimos a “la fragmentación y opacidad que afecta la visibilidad de los participantes del debate público y también de los reguladores”. Y puso un ejemplo: “en Brasil las aplicaciones de mensajería -como Telegram o WhatsApp- tienen un rol importante en el debate público y a veces no se sabe que hay millones de personas que están recibiendo informaciones falsas o engañosas. Por tanto, no es solo la visibilidad para los participantes, sino para quien intenta aplicar la ley”, sostuvo.
En resumen, “a partir de la aparición de los teléfonos inteligentes y de la prevalencia de las redes sociales y las plataformas de llegada de video, incluyendo las redes cerradas, se amplió la diversidad y el pluralismo producido, pero la confiabilidad y la fiabilidad se convirtieron en un gran problema”, subrayó Brant.
Imagen: Getty Images
No estamos hablando solamente del tiempo de utilización en los dispositivos, sino del cambio en la fuente principal de noticias que ahora son las redes sociales, complementó. “La gente ya no elige periódicos de confianza para informarse. Pasa a recibir noticias de cualquier fuente, sin siquiera interesarse en si existe realmente o es un periódico de verdad”.
“En la década de los años 90 y 2000, los medios tradicionales o independientes y el periodismo profesional prevalecía, teníamos pluralismo y diversidad como temas complicados, pero la confiabilidad y la fiabilidad de la información no era tan complicada”, sostuvo.
El problema ahora es el volumen y la velocidad de circulación de la información, los incentivos sistémicos y la visibilidad de la información, agregó. “Todo esto cambia el tamaño del problema y, por eso, creo que tenemos que mirar la desinformación como un problema especialmente grave. Si la información no tiene fiabilidad hay un problema para la democracia”, enfatizó.
Para reforzar su punto, João Brant dijo: “hay una lectura incentivada por avales personales y sociales, no por criterios periodísticos y hay una lógica de incentivo directo al desempeño personal, si uno discute un tema de manera más fría no va a tener tantos likes y shares, en cambio, si uno intenta hacer un discurso más ‘inflamado’ va a tener mayor propagación”, subrayó.
Debido a que la difusión viral de contenidos en mensajes privados no expone al autor a responsabilidad moral y civil por los textos publicados, se afecta la recepción de mensajes y se genera un incentivo para el rumor y la desinformación. “Estamos en una “guerra sin ley”, sentenció.
La dimensión individual y colectiva de la libertad de expresión
“Hay una posición que sostiene un grupo de académicos y colegas investigadores sobre que la desinformación no es el problema, pero sí los efectos que genera sobre derechos y bienes jurídicos protegidos”, dijo Brant. Y bajo esta concepción argumentan que no deben crearse leyes contra la desinformación sino protegerse los bienes jurídicos afectados como la salud pública o la integridad electoral.
Pero la cuestión, replicó, es que “la desinformación está provocando daños irreparables o de difícil reparación y, por lo tanto, aunque estemos hablando de derechos fundamentales que tienen que ser protegidos, el hecho de que haya daños irreparables -o de difícil reparación- hace que la desinformación sea en sí misma un problema”, argumentó.
Por otro lado, dijo Brant, la libertad de expresión tiene una dimensión colectiva o social que está siendo directamente afectada por la desinformación. “Si el ambiente informacional como tal no tiene fiabilidad, hay un problema central para la democracia porque se afecta el derecho de la población a estar correctamente informada para su toma de decisiones”, explicó.
La libertad de expresión está bien definida en el artículo 19 de la Declaración Universal de los Derechos Humanos que establece que “todo individuo tiene derecho a la libertad de opinión y de expresión; este derecho incluye el de no ser molestado a causa de sus opiniones, el de investigar y recibir informaciones y opiniones, y el de difundirlas, sin limitación de fronteras, por cualquier medio de expresión”, citó textualmente Brant para reforzar su idea.
Así, la Declaración, protege la libertad de expresión en su dimensión individual, pero al mismo tiempo en su dimensión social o colectiva cuando se resguarda el acceso a la información, es decir, el derecho a recibir informaciones y opiniones.
Esta dimensión también está incluida en los parámetros internacionales de la OEA, dijo Brant. Y el texto principal que lo recoge es de 1985, la Opinión Consultiva 5 de la Corte Interamericana de Derechos Humanos (CIDH), a partir de la discusión de la colegiación obligatoria para periodistas en Costa Rica.
En esa opinión se incluyó la dimensión social de la libertad de expresión como un medio para el intercambio de ideas e informaciones y para la comunicación masiva entre los seres humanos. “Así como comprende el derecho de cada uno a tratar de comunicar a los otros sus propios puntos de vista, implica también el derecho de todos a conocer opiniones y noticias. Para el ciudadano común tiene tanta importancia el conocimiento de la opinión ajena o de la información de que disponen otros, como el derecho a difundir la propia”, recalcó.
Esto, dijo João Brant, es muy importante porque establece la idea de que la libertad de expresión es una condición previa para la democracia. Esta perspectiva quizá sea el lado menos iluminado de la libertad de expresión, anotó.
Siguiendo con esta reflexión, el experto señaló que si bien el pluralismo y la diversidad están bien defendidos por la jurisprudencia de la CIDH no pasa lo mismo con la discusión de la veracidad. “Y saber cómo tratar la verdad es un tema clave para definir qué regulaciones son democráticas o no en términos de combate a la desinformación”, indicó.
Un punto importante que el expositor resaltó fue el hecho de que la Declaración de Principios de Libertad de Expresión de la CIDH fue elaborada en el año 2000 cuando la preocupación central era la censura previa de los Estados. “Estamos hablando en un contexto entre el 85 y el año 2000 en que la dimensión de veracidad o no veracidad eran excepciones y no era la regla de una gran parte del debate público”, expuso.
Esta declaración también recoge el concepto de real malicia, señaló, cuando establece que: “la protección a la reputación debe estar garantizada solo a través de sanciones civiles en los casos que la persona ofendida sea un funcionario público (…) y debe probarse que el comunicador -o el periodista- tuvo la intención de infligir daño o tenía pleno conocimiento de que estaba difundiendo notcias falsas o se condujo con manifiesta negligencia en la búsqueda de la verdad o falsesdad de las mismas”.
Pero el contexto, que se mantuvo casi hasta 2013, varió cuando la desinformación deliberada empezó a salirse de control, explicó. “Y ahora se nos plantea el gran desafío de cómo dejar de tratar el problema únicamente desde la dimensión individual de violación a la libertad de expresión y encontrar formas legítimas ya que gran parte de la información que se pone a disposición del público hoy, en este nuevo contexto, es falsa o engañosa”, sostuvo.
Ilustración: FTI Consulting
Por eso, el experto cuestionó el hecho de que la Relatoría Especial para la Libertad de Expresión (RELEX) de la CIDH plantee como solución con efecto inmediato “dejar libres a las plataformas para actuar contra la desinformación a su propia discreción”.
Si bien es verdad que puede generar un efecto positivo y mitigar los impactos, dijo Brant, “esta vía de darle libertad a los medios privados -que son altamente concentrados- legitima decisiones privadas sobre la veracidad de la información sin escrutinio público. Así que tenemos un problema en este punto”, expresó.
“Cuando las empresas privadas se tornan en policías de contenido pueden errar para más o para menos. Pueden dejar contenido que debería ser removido por afectar el debate público o pueden bajar contenido que debería ser mantenido en defensa de la libertad de expresión”, sostuvo.
Imagen: Pixabay
En esa perspectiva señaló que la discusión no debe ser acerca de permitir o prohibir la moderación por parte de las plataformas, sino bajo qué parámetros públicos ellas deben actuar. “Un camino posible para la regulación de la desinformación, es que los Estados nacionales podrían establecer parámetros legales generales para la moderación de la desinformación, en especial cuando afecta derechos colectivos como la protección de la democracia y la salud pública”, propuso Brant y agregó: “Estos parámetros, que deberían ser proporcionales y necesarios, guiarían la actuación de las plataformas que tendrían un papel de aplicación en un modelo de corregulación”.
Este camino, sostuvo Brant evitaría cuatro problemas: primero, la inacción. “Si bien es verdad que los Estados no pueden, ni deben, buscar soluciones apuradas, también es verdad que no pueden ser espectadores inertes ante la erosión de la democracia”, añadió.
Según el investigador, en segundo lugar, esta ruta también evitaría la acción arbitraria de los poderes ejecutivos, como la censura previa. Un tercer problema que se sortearía es la sobrecarga de los sistemas de justicia que no podrían manejar el volumen de casos de desinformación que se presentan todos los días en las redes. Por último, dijo, dejaríamos de dar todo el poder a las plataformas para que establezcan parámetros y criterios que van más allá de la legislación nacional y los parámetros internacionales.
“No podemos definir que “Zuckerberg sea la nueva corte suprema en libertad de expresión, tienen que haber parámetros legales generales”, subrayó.
Estudio de casos
Junto a otros investigadores, João Brant publicó en junio de 2020 un estudio relativo a la regulación para combatir la desinformación, que incluyó ocho casos internacionales y recomendaciones para un enfoque democrático. Aunque no ahondó en cada uno, compartió las conclusiones principales de la investigación, como el hecho de que en varios de los casos se identificó un riesgo de amenaza a la libertad de expresión y, en otros, se concluyó que la regulación no es efectiva.
Un nodo crítico que aparece en los casos, dijo Brant, es la discusión acerca de quién arbitra sobre la verdad. ¿Son los gobiernos, las plataformas, los chequeadores, la justicia?, se preguntó. “Quién es el árbitro sobre la verdad y la confiabilidad de la información”, insistió.
El otro nodo, de acuerdo con el especialista, es la responsabilidad de los intermediarios, de las plataformas. “¿Cuál es su responsabilidad?, ¿dejar que el debate esté suelto, hacer monitoreo de contenido?”, planteó.
Y desde esta perspectiva, señaló: “Hasta el momento, no existe un debate maduro y de mejores prácticas, porque los consensos actuales giran en torno a temas como la transparencia y los códigos de conducta, que son insuficientes para enfrentar la desinformación en la gravedad que ha alcanzado el tema”. Y agregó: “El camino adoptado por Alemania y Reino Unido, en los que la plataforma no se responsabiliza de cada contenido individualmente, sino de los procesos de cuidado y protección de los deberes de los usuarios, parece ser el más prometedor”.
Hay un consenso casi generalizado sobre que no hay responsabilidad del intermediario por el contenido publicado por terceros, para no provocar un efecto silenciador o inhibidor. Y otro sobre la libertad de las plataformas de moderar el contenido “cuestionable” según sus propias reglas, dijo Brant.
Sin embargo, sostuvo, es necesario cuestionarse sobre si en el contexto actual este modelo es todavía el “ideal” o ya no lo es. Por ejemplo, explicó, en el Reino Unido y la Unión Europea, existe una discusión sobre qué grado de responsabilidad deben tener las plataformas para que “no se tenga un ambiente informacional donde lo que prevalezca sea la desinformación”.
Por otro lado, el expositor remarcó que no existe un único camino para combatir la desinformación, sino que el abordaje debe hacerse desde múltiples enfoques.
“Algunas sugerencias de abordaje al problema de la desinformación son la implementación de reglas propias de las empresas, la regulación y corregulación, la investigación y juicios, los acuerdos e iniciativas internacionales -como las que están planteando en este momento en OEA y UNESCO-; el fortalecimiento del periodismo profesional, que es clave para enfrentarla; la educación para los medios, que es un tema estructural; la idea de monitoreo y seguimiento por parte de organizaciones no gubernamentales e investigadores; el fact-checking y, una idea que talvez sea muy osada, que es el rediseño de plataformas respecto de los objetivos sistémicos”, explicó.
“Las empresas están intentando apagar fuego con poca agua porque los problemas se están generando en gran parte por la economía de la atención y eso amerita resolver un problema estructural de diseño de las plataformas”, reforzó. Pero también hay otras vías como el combatir el comportamiento inauténtico coordinado, ofrecer canales de denuncia o abrir espacios para chequeadores e investigadores independientes, anotó.
Para finalizar su exposición, João Brant explicó que actualmente existen dos experiencias que son las más avanzadas en cuanto a la regulación democrática de la desinformación: la “Digital Service Act” de la Unión Europea y la “Online Safety Bill” del Reino Unido. Esta última dijo, incluye un “marco de seguridad desde el diseño”, en el que se plantea que las empresas inviertan parte de los incentivos sistémicos de la desinformación, que son propios del diseño de negocio de la economía de la atención, para evaluar cómo resolver los problemas que emanan de la “arquitectura” de las plataformas.