Los intermediarios de internet desarrollan actividades de moderación de contenidos por diferentes causas. Llevan adelante acciones concretas para verificar y asegurar que el contenido que se comparte haciendo uso de su servicios sea legal y coherente con sus propias condiciones de uso. Uno de los grandes motivos por los que se lleva adelante moderacion de contenidos es para evitar la proliferacion de discursos de odio, abuso sexual infantil documentado, etc. En este portal encontrará información referida a la moderación de contenidos por copyright.
Esta moderación de contenido por copyright por parte de los intermediarios de internet (Ver: Responsabilidad de Intermediarios de Internet) se lleva adelante muchas veces sin un análisis pormenorizado de cada situación, lo que puede derivar en un debilitamiento en el pleno ejercicio de la libertad de expresión y libertad de prensa, toda vez que el incluso el uso de contenidos protegidos por copyright puede verse alcanzado por la excepción general del Uso Justo o “fair use” (Ver «Uso justo»: ¿qué es?, ¿existe en Argentina?) contemplado en la DMCA.
Para muchos creadores de contenidos, como periodistas, youtubers, streamers, etc, las políticas de moderación de contenidos suponen un riesgo y un obstáculo a sus actividades, ya que en muchas ocasiones sufren sanciones por parte de las plataformas que les impiden conseguir rédito económico a partir de sus contenidos (incluso cediendo la plataforma los frutos obtenidos en base a visualizaciones a los titulares de los derechos sobre el contenido en presunta infracción). También existen circunstancias donde se dan de baja cuentas de estos generadores de contenido, impidiendo totalmente cualquier interacción por su parte.
El mecanismo que plantea la DMCA para moderar y remover los contenidos es el de Notice and Take down, que consiste en un procedimiento de notificación a la plataforma de la existencia de un contenido supuestamente infractor y la consecuente eliminación de contenido de la misma y, si bien las plataformas comunican al usuario los motivos por los cuales un contenido es moderado, dado de baja o suspendido o sancionado, los procedimientos para discutir la decisión de moderar un contenido requieren conocimientos legales previos, o el apoyo de expertos legales. En este sentido, en una gran cantidad de casos los usuarios optan por no realizar las gestiones necesarias para defenderlo, como puede ser presentar una contranotificación con los motivos por los cuales el contenido es legitimo, lo cual se percibe como un gasto de tiempo y recursos muchas veces sin resultados (este fenómeno de inhibición se conoce como ”Chilling effect”).
Si sos creador de contenido y has sufrido una moderación que consideras injusta, puedes reportar tu caso en esta plataforma haciendo click aquí. Tu reporte nos ayuda a entender mejor cómo funciona la moderación de contenidos en América Latina, y a buscar mecanismos para reducir la censura ilegítima que muchas veces supone.
Esta moderación muchas veces limita con la censura ilegítima a la libertad de expresión. En palabras del Relator Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión de la O.N.U: “la responsabilización de los intermediarios con respecto al contenido difundido o creado por sus usuarios menoscaba gravemente el disfrute del derecho a la libertad de opinión y de expresión, pues da lugar a una censura privada de autoprotección excesivamente amplia, a menudo sin transparencia y sin las debidas garantías procesales” (ONU, Asamblea General, Informe del Relator Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión, A/HRC/17/27, 16 de mayo de 2011, párr. 40. Disponible para consulta en: https://bit.ly/1PdxX7h).
¿Qué sucede cuando la moderación de contenidos es automática?
Este mecanismo incluso se encuentra automatizado a partir de tecnología tales como el sistema de Content ID de Google. Este mecanismo supone un filtrado automático del contenido potencialmente en infracción de manera que “preventivamente” impide la visualización por parte de los usuarios.
Los sistemas de detección automática son falibles (todos ellos) por lo que en ocasiones marcan un contenido como infracción cuando no lo es y viceversa. Para evitar que existan falsos negativos (casos que son infracciones pero el sistema no los marca como tales) se corre el límite de detección generando mayor cantidad de falsos positivos (casos que no son infracciones pero el sistema los marca como tales).
Por otro lado la plataforma tampoco tiene una forma real de saber si se cuenta o no con el permiso para utilizar dicho contenido o si entra en el uso justo de la DMCA . Cuando se carga contenido a las plataformas se revisa si el contenido coincide con una base de datos que posee la plataforma previamente donde indica quién es titular de los derechos de autor de ciertos contenidos. Si lo que se carga coincide con algo que se encuentra en dicha base de datos y quien lo cargó no es el titular de derechos, se desactiva la visualización automáticamente, (o se desmonetiza o se suspende la cuenta) independientemente si efectivamente se posee una autorización o si entra dentro de uso justo.