Derechos digitales

Los desafíos no resueltos de la Directiva de medios audiovisuales

11 Mar , 2020  

 

 

La Directiva de servicios de medios audiovisuales de la UE (AVMSD) se adoptó en noviembre de 2018, con el objetivo de reflejar mejor la era digital y crear un campo de juego más nivelado entre la televisión tradicional y los servicios más nuevos a pedido y para compartir videos.

La fecha límite para su implementación es septiembre de 2020 y hay muchas preguntas abiertas.

Joan Barata (jurista de la Universidad de Standford experto en libertad de expresión, asesor de diversos organismos internacionales como la OSCE, y miembro de la PDLI) explica en un artículo reciente para la London School of Economics los retos inmediatos que plantea esta Directiva.

1. Obligaciones legales vs. ‘términos del servicio’ o ‘reglas de la comunidad’

Una de las cuestiones clave será cómo establecer una separación adecuada entre las decisiones de moderación de contenidos de la plataforma basadas en la ley (que están asociadas con una serie de salvaguardas y protecciones legales para los usuarios) y las medidas adoptadas sobre la base exclusiva de sus propios términos de servicio de las plataformas.

2. Nuevas obligaciones para las plataformas de intercambio de vídeos

Entre las novedades de la Directiva se encuentran las nuevas obligaciones para las plataformas de intercambio de vídeos: el artículo 28b abarca una serie de deberes de las llamadas plataformas de compartición de videos (VSP) con respecto a la prevención y moderación de contenido que constituye discurso de odio y pornografía infantil, afecta el desarrollo físico y mental de los niños, viola obligaciones en el área de comunicaciones comerciales, o puede ser considerado como terrorista.

Las autoridades nacionales (principalmente autoridades independientes de regulación de medios audiovisuales) tienen la responsabilidad de verificar que estas plataformas (VPS) hayan adoptado “medidas apropiadas” para tratar adecuadamente los tipos de contenido señalados.

Esto requerirá que las plataformas revisen y apliquen adecuadamente sus ‘Términos de Servicio’, tengan funcionalidades apropiadas para reportar contenido, implementen sistemas de verificación de edad o de calificación de los contenidos; habiliten procedimientos transparentes, fáciles de usar y efectivos para resolver las quejas de los usuarios; y proporcionar herramientas de alfabetización mediática.

Las plataformas no solo tendrán el deber de eliminar los discursos de odio ilegales, sino que también tendrán el poder de eliminar el contenido legítimo (en el sentido de totalmente legal) que viole sus propios Términos del Servicio.

En el segundo caso, es evidente que la plataforma en cuestión no podría ser en principio forzada a mantenerlo en línea mientras que en el primero será un regulador estatal quien decida si la decisión de la plataforma ha sido correcta.

3. Qué dice Naciones Unidas

En un informe reciente al Consejo de Derechos Humanos de la ONU, el Relator Especial de las Naciones Unidas sobre libertad de expresión, David Kaye, recuerda que las empresas deben “(d) determinar la categoría de contenido que consideran discurso de odio con explicaciones razonadas para los usuarios y el público y enfoques consistentes en todas las jurisdicciones “, y que” cualquier aplicación de las reglas de discurso de odio implica una evaluación del contexto y el daño que el contenido impone a los usuarios y al público “.

Al mismo tiempo, los Estados deben adoptar “leyes que exijan a las compañías que describan en detalle y en público cómo definen el discurso de odio y hacen cumplir sus reglas contra él”.

También apunta el Relator que cuando “las reglas de la compañía difieren de los estándares internacionales, las compañías deben dar una explicación razonada de su política diferencial de antemano”.

En definitiva, el Relator Especial acepta que los Términos de Servicio de las Plataformas pueden ir más allá de los estándares legales (al menos internacionales), en la medida en que los requisitos de certeza, necesidad y proporcionalidad se cumplen adecuadamente.

4. Irlanda tendrá el control de la regulación de contenidos

La aplicación del principio del país de origen (el control de los contenidos corresponde al Estado Miembro donde tiene su ‘domicilio’ legal la plataforma) presumiblemente concentrará la responsabilidad de la regulación en manos de las autoridades irlandesas, en el caso de las plataformas de intercambio de vídeos más importantes.

Esto significa que la moderación de algo tan sensible a nivel nacional como el discurso de odio o el contenido de terrorismo será definido principalmente por un solo (y pequeño) Estado miembro de la UE, sin importar en qué parte de la Unión se encuentre el autor del contenido y su público objetivo.

Esto crea un escenario regulatorio único que diverge completamente de la aplicación del mismo principio a los medios audiovisuales “tradicionales”.

En un documento reciente, el regulador irlandés (BAI) asume que estará a cargo de las plataformas de intercambio de vídeos más importantes de Europa, especificando una lista preliminar que incluye plataformas cuyo objetivo principal es proporcionar servicios VSP (YouTube, TikTok, Vimeo, DailyMotion, Twitch) y aquellos que los proporcionan como parte de sus funcionalidades esenciales (Facebook, Twitter, Instagram, Snapchat, LinkedIn, Reddit).

5. Cuestiones pendientes y abiertas

La cuestión del país de origen crea un nuevo escenario regulatorio: cómo se van a resolver en la práctica los problemas de jurisdicción que esto genera (quién decide qué  y cómo) aún no está claro.

El regulador irlandés ha presentado una propuesta en la que aborda cuestiones como la diferencia entre la ‘Macro regulación’  y las ‘micro decisiones’: se plantea otorgar al regulador el poder de establecer marcos regulatorios “macro” y entregar a las compañías las miles de decisiones sobre casos individuales “micro”. Es decir, el regulador definirá y desarrollará ampliamente el alcance de las categorías de contenido ilegal incluidas en la Directiva. Las plataformas luego transformarán estas pautas “macro” en reglas de ‘Términos del Servicio’ específicas.

Esto significa que la mayoría de las quejas sobre contenido presuntamente ilegal serán abordadas por los VSP (plataformas). No olvidemos que tales decisiones no se tomarán sobre la base de pautas legales y regulatorias “macro” incorporadas y desarrolladas en sus ‘Términos del Servicio’, sino también sobre la base de cualquier regla interna adicional que decidan adoptar.

Un problema de este planteamiento es que no previene las confusiones previsibles entre retiradas de contenido basadas ​​en disposiciones legales y regulatorias, de aquellos basadas ​​únicamente en los ‘Términos del Servicio’

Otro desafío es lo relativo a las “quejas y mecanismos de apelación”:  para compensar la pérdida casi completa de poderes de los reguladores nacionales antes mencionada, Irlanda sugiere que las compañías otorguen a ciertos organismos el estatus de “demandante prioritario”, lo que crearía la responsabilidad de prestar especial atención a las consideraciones de interés público planteadas por tales denunciantes. En particular, los organismos reguladores de otros Estados miembros tendrían esa prioridad como demandantes.

6. El futuro inmediato

A juicio de Joan Barata, “se necesita mucho diálogo y reflexión tanto a nivel nacional como entre los socios de la UE para alcanzar un modelo regulatorio basado en una comprensión adecuada del papel y las capacidades de los VSP, que puede proporcionar soluciones adecuadas y proporcionadas para proteger eficazmente los derechos de los ciudadanos, así como para crear un mayor grado de seguridad jurídica en lo que respecta a la regulación de los servicios en línea”.

[LEER EL ARTÍCULO COMPLETO AQUÍ]

Documento

DIRECTIVA (UE) 2019/770 DEL PARLAMENTO EUROPEO Y DEL CONSEJO de 20 de mayo de 2019 relativa a determinados aspectos de los contratos de suministro de contenidos y servicios digitales (BOE – 20 de mayo de 2019)

 


Comments are closed.