El informe de la ONU establece fuertes recomendaciones para que las empresas protejan la libertad de expresión

28 de Junio de 2018

La regulación de contenido en línea generado por los usuarios es uno de los temas que actualmente enfrenta a la sociedad civil y a plataformas tecnológicas,

El último informe del Relator Especial es el primer informe de la ONU que se centra en la regulación del contenido generado por los usuarios en línea, busca enfoques centrados en el usuario, alineados con la ley de derechos humanos para la formulación de políticas de contenido, la transparencia, el debido proceso.

Un tema complejo en que a menudo leyes a veces conflictivas y los marcos regulatorios pueden ir en contra de la protección de los derechos de los usuarios, donde muy a menudo son pocas las empresas que aplican principios de derechos humanos en sus operaciones, y pongan el derecho a la libertad de expresión como enfoque central.

El Relator Especial observa que tanto la regulación gubernamental como las prácticas de moderación de contenido de la empresa pueden limitar la libertad de expresión para los usuarios de las plataformas.

El Relator en sus recomendaciones finales menciona:

Practique la transparencia significativa: la empresa que informa sobre las solicitudes del Estado debe complementarse con datos detallados sobre los tipos de solicitudes recibidas y las medidas adoptadas (consulte nuestro informe reciente Quién tiene su espalda para conocer el ranking de las empresas populares).
Proporcione ejemplos específicos cuando sea posible. Los informes de transparencia deben incluir las demandas del gobierno en el marco de los Términos de servicio y dar cuenta de las iniciativas público-privadas, como el Código de conducta de la UE para contrarrestar el extremismo.
Implementar salvaguardas para mitigar los riesgos a la libertad de expresión que plantea el desarrollo y la aplicación de sus propias políticas. Las empresas deberían participar en consultas con la sociedad civil y los usuarios, especialmente en el Sur Global. Dichas consultas podrían ayudar a las empresas a reconocer cómo “reglas aparentemente benignas u ostensiblemente ‘favorables a la comunidad’ pueden tener impactos significativos e ‘hiperlocales’ en las comunidades”.
Sea transparente sobre cómo hacen sus reglas. Al menos deberían buscar comentarios sobre sus evaluaciones de impacto y deberían comunicar claramente al público las reglas y procesos que los produjeron.
Asegúrese de que cualquier tecnología automatizada empleada en la moderación de contenido sea rigurosamente auditada, que los usuarios tengan la capacidad de desafiar las acciones de contenido a través de un mecanismo de apelación robusto y la capacidad de remediar los “impactos adversos” de las decisiones.
Permita la autonomía del usuario a través de reglas relajadas en grupos cerrados basados ​​en la afinidad, la capacidad de silenciar o bloquear a otros usuarios o tipos específicos de contenido, e incluso la capacidad de moderar su propio contenido en grupos privados.
Desarrollar iniciativas de transparencia que expliquen el impacto de sus diversas herramientas de moderación. Un consejo de redes sociales -una idea detallada en detalle por el artículo 19 aquí- “podría ser un mecanismo creíble e independiente para desarrollar [tal] transparencia”.

  • Practique la transparencia significativa: la empresa que informa sobre las solicitudes del Estado debe complementarse con datos detallados sobre los tipos de solicitudes recibidas y las medidas adoptadas (consulte nuestro informe reciente Quién tiene su espalda para conocer el ranking de las empresas populares).
  • Proporcione ejemplos específicos cuando sea posible. Los informes de transparencia deben incluir las demandas del gobierno en el marco de los Términos de servicio y dar cuenta de las iniciativas público-privadas, como el Código de conducta de la UE para contrarrestar el extremismo.
  • Implementar salvaguardas para mitigar los riesgos a la libertad de expresión que plantea el desarrollo y la aplicación de sus propias políticas. Las empresas deberían participar en consultas con la sociedad civil y los usuarios, especialmente en el Sur Global. Dichas consultas podrían ayudar a las empresas a reconocer cómo “reglas aparentemente benignas u ostensiblemente ‘favorables a la comunidad’ pueden tener impactos significativos e ‘hiperlocales’ en las comunidades”.
  • Sea transparente sobre cómo hacen sus reglas. Al menos deberían buscar comentarios sobre sus evaluaciones de impacto y deberían comunicar claramente al público las reglas y procesos que los produjeron.
  • Asegúrese de que cualquier tecnología automatizada empleada en la moderación de contenido sea rigurosamente auditada, que los usuarios tengan la capacidad de desafiar las acciones de contenido a través de un mecanismo de apelación robusto y la capacidad de remediar los “impactos adversos” de las decisiones.
  • Permita la autonomía del usuario a través de reglas relajadas en grupos cerrados basados ​​en la afinidad, la capacidad de silenciar o bloquear a otros usuarios o tipos específicos de contenido, e incluso la capacidad de moderar su propio contenido en grupos privados.
  • Desarrollar iniciativas de transparencia que expliquen el impacto de sus diversas herramientas de moderación. Un consejo de redes sociales– “podría ser un mecanismo creíble e independiente para desarrollar [tal] transparencia”.

Usuarios Digitales tomó el texto original de EFFhttps://www.eff.org/deeplinks/2018/06/un-report-sets-forth-strong-recommendations-companies-protect-free-expression

Comparte:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *