En los últimos meses la regulación de las redes sociales emerge como un tema preponderante a raíz de diversos sucesos en México y el mundo.

El enfrentamiento de el expresidente Donald Trump por sus mensajes, la proliferación de noticias falsas o “fake news” y la moderación de contenidos, así como las expresiones de odio o llamados a la insurrección, así como la filtración de datos personales y los derechos de los usuarios, son algunas de las vertientes que generan la discusión en cuanto a regular las redes sociales.

El sitio rochainforma.com realiza una compilación de distintas expresiones relativas al tema con el fin de contribuir al debate público.

De acuerdo con la red Forbes: “Los diferentes intentos por regular las redes sociales en todo el mundo de ninguna manera son homogéneos, por el contrario, tienen objetivos tan diversos que van desde la legitima protección de la seguridad de los infantes, el uso y comercialización de los datos personales y la seguridad de grupos vulnerables, hasta el intento de poner límites a las empresas tecnológicas o censurar los contenidos, sobre todo aquellos de carácter político”.

TE PUEDE INTERESAR

La misma red establece que el debate sobre la regulación de los medios sociales gira en torno a 4 puntos que desarrolla en el artículo “4 puntos para debatir la regulación de las redes”.

1) Protección de datos personales

2) Comunicación digital y elecciones

3) Libertad de expresión

4) Regulación de contenidos

La autoregulación

De acuerdo con la BBC de Londres, YouTube, propiedad de Google, informó que 8.8 millones de videos fueron eliminados entre julio y septiembre de 2019, con 93% de ellos eliminados automáticamente por las máquinas, y dos tercios de esos clips sin recibir una sola vista.

También eliminó 3.3 millones de canales y 517 millones de comentarios.

A nivel mundial, YouTube emplea a 10,000 personas en la supervisión y eliminación de contenido, así como en el desarrollo de políticas.

Facebook, que también es propietario de Instagram, dijo a Reality Check que tiene más de 35,000 personas en todo el mundo trabajando en seguridad y protección, y también publica estadísticas sobre la eliminación de contenido.

Entre julio y septiembre de 2019, tomó medidas sobre 30.3 millones de piezas de contenido, 98.4% fueron localizadas antes de que los usuarios las conocieran.

Experiencias internacionales

Alemania

La ley NetzDG de Alemania entró en vigor a principios de 2018 y se aplica a empresas con más de dos millones de usuarios registrados en el país.

Se vieron obligados a establecer procedimientos para revisar las quejas sobre el contenido que alojaban, eliminar todo lo que fuera claramente ilegal en un plazo de 24 horas y publicar actualizaciones cada seis meses sobre su desempeño.

Las personas pueden ser multadas con hasta 5 millones de euros (5.6 millones de dólares; 4.4 millones de libras) y las empresas con hasta 50 millones de euros por no cumplir con estos requisitos.

El gobierno emitió su primera multa en virtud de la nueva ley a Facebook en julio de 2019. La compañía tuvo que pagar 2 millones de euros (1.7 millones de libras esterlinas) por no informar sobre actividades ilegales en sus plataformas en Alemania, aunque la compañía se quejó de que la nueva ley no había claridad.

Unión Europea

La UE está considerando tomar medidas drásticas, específicamente contra los videos de terrorismo.

Las plataformas de redes sociales enfrentan multas si no eliminan el contenido extremista en una hora.

La UE también introdujo el Reglamento General de Protección de Datos (GDPR) que establece reglas sobre cómo las empresas, incluidas las plataformas de redes sociales, almacenan y utilizan los datos de las personas.

TAMBIÉN PUEDES LEER:

También tomó medidas sobre los derechos de autor. Su directiva de derechos de autor responsabiliza a las plataformas de asegurarse de que el contenido que infrinja los derechos de autor no se aloje en sus sitios.

La legislación anterior solo requería que las plataformas eliminaran dicho contenido si se les indicaba.

Los estados miembros tienen hasta 2021 para implementar la directiva en su legislación nacional.

Australia

Australia aprobó la Ley de Intercambio de Material Violento Aborrecible en 2019, que introdujo sanciones penales para las empresas de redes sociales, posibles sentencias de cárcel para los ejecutivos de tecnología de hasta tres años y sanciones económicas por valor de hasta 10% de la facturación global de una empresa.

En 2015, la Ley de Mejora de la Seguridad en Línea estableció un comisionado de seguridad digital con el poder de exigir que las empresas de redes sociales eliminen las publicaciones acosadoras o abusivas. En 2018, los poderes se ampliaron al contenido con pornografía de venganza.

Executive Order Looms For Social Media Content? | PYMNTS.com

La oficina del comisionado puede emitir a las empresas «avisos de eliminación» de 48 horas y multas de hasta 525,000 dólares australianos. Pero también puede multar a personas con hasta 105,00 dólares australianos por publicar el contenido.

La legislación se introdujo después de la muerte de Charlotte Dawson, presentadora de televisión y jueza de Next Top Model de Australia, que se suicidó en 2014 tras una campaña de ciberacoso contra ella en Twitter. Tenía una larga historia de depresión.

Rusia

En noviembre entró en vigor una ley en Rusia que otorga a los reguladores el poder de desconectar las conexiones a la red mundial «en caso de emergencia», aunque todavía no está claro con qué eficacia podrían hacerlo.

Las leyes de datos de Rusia de 2015 requerían que las empresas de redes sociales almacenaran cualquier dato sobre los rusos en servidores dentro del país.

Su organismo de control de comunicaciones bloqueó LinkedIn y multó a Facebook y Twitter, pero no estaba claro cómo planeaban hacerlo cumplir.

China

Sitios como Twitter, Google y WhatsApp están bloqueados en China. En cambio, sus servicios son proporcionados por proveedores chinos como Weibo, Baidu y WeChat.

Las autoridades chinas también tienen cierto éxito al restringir el acceso a las redes privadas virtuales que algunos usuarios han empleado para evitar los bloqueos en los sitios.

La Administración del Ciberespacio de China anunció a finales de enero de 2019 que en los seis meses anteriores había cerrado 733 sitios web y «limpiado» 9,382 aplicaciones móviles, aunque es más probable que sean aplicaciones de juegos de azar ilegales o copias de aplicaciones existentes que se utilizan para fines ilegales que las redes sociales.

OPCIÓN DE LECTURA:

China tiene cientos de miles de ciberpolicías que monitorean las plataformas de redes sociales y filtran mensajes que se consideran políticamente sensibles.

Algunas palabras clave se censuran automáticamente, como las referencias al incidente de la plaza Tiananmen de 1989.

Las palabras nuevas que se consideran sensibles se agregan a una larga lista de palabras censuradas y se prohíben temporalmente o se filtran de las plataformas sociales.

Estados Unidos

El presidente de Estados Unidos firmó en mayo de 2020 una orden ejecutiva destinada a eliminar algunas de las protecciones legales tradicionalmente otorgadas a estas plataformas, que no son legalmente responsables del contenido que publican sus usuarios.

En concreto, la orden autoriza a los reguladores a evaluar si las redes deberían ser legalmente responsables de lo que publican los usuarios.

El decreto llega tras días de fuertes críticas de Trump a Twitter, red que etiquetó como «sin fundamento» dos de los tuits del presidente.

Qué dice la ONU

En el primer informe sobre el tema de la ONU sobre la regulación del contenido en línea general para los usuarios, el Relator Especial examina el papel de los Estados y las empresas de redes sociales en la provisión de un entorno propicio para la libertad de expresión y el acceso a la información en línea.

Frente a las amenazas contemporáneas como las «noticias falsas» y la desinformación y el extremismo en línea, el Relator Especial insta a los Estados a reconsiderar las restricciones basadas en el discurso y adoptar una regulación inteligente dirigida a permitir que el público tome decisiones sobre cómo y si desea participar en foros en línea.

Social Media Regulation Law Proposal was Accepted in the Parliamentary  Justice Commission

El Relator Especial también lleva a cabo una investigación en profundidad sobre cómo las empresas de Internet moderan el contenido en las principales plataformas de redes sociales y argumenta que las leyes de derechos humanos les brindan a las empresas las herramientas para articular sus posiciones de manera que respeten las normas democráticas y contrarresten las demandas autoritarias.

El informe es la culminación de una serie de consultas de un año, visitas a las principales empresas de Internet y una amplia gama de aportaciones del Estado y la sociedad civil.

Recomendaciones a los Estados

1.- Los Estados deben derogar cualquier ley que penalice o restrinja indebidamente la expresión, en línea o fuera de línea.

2.- La regulación inteligente, no la regulación basada en puntos de vista de mano dura, debería ser la norma, centrada en garantizar la transparencia y soluciones por parte de la empresa para permitir al público tomar decisiones sobre cómo y si desea participar en foros en línea. Los Estados solo deben tratar de restringir el contenido de conformidad con una orden de una autoridad judicial independiente e imparcial, y de acuerdo con el debido proceso y los estándares de legalidad, necesidad y legitimidad. Los Estados deberían abstenerse de imponer sanciones desproporcionadas, ya sean multas elevadas o encarcelamiento, a los intermediarios de Internet, dado su importante efecto paralizador de la libertad de expresión.

TAMBIÉN SOBRE EL TEMA:

3.- Los Estados y las organizaciones intergubernamentales deben abstenerse de establecer leyes o arreglos que requieran el control o filtrado «proactivo» del contenido, lo que es incompatible con el derecho a la privacidad y probablemente equivalga a censura previa a la publicación.

4.- Los Estados deben abstenerse de adoptar modelos de regulación en los que las agencias gubernamentales, en lugar de las autoridades judiciales, se conviertan en árbitros de la expresión legal. Deben evitar delegar la responsabilidad en las empresas como adjudicadores de contenido, lo que empodera el juicio de las corporaciones sobre los valores de derechos humanos en detrimento de los usuarios.

5.-Los Estados deben publicar informes de transparencia detallados sobre todas las solicitudes relacionadas con el contenido que se envíen a los intermediarios e involucrar una participación pública genuina en todas las consideraciones regulatorias.

Recomendaciones a las empresas

1.-Las empresas deben reconocer que el estándar mundial autorizado para garantizar la libertad de expresión en sus plataformas son las leyes de derechos humanos, no las diferentes leyes de los Estados o sus propios intereses privados, y deben reevaluar sus estándares de contenido en consecuencia. Las leyes de derechos humanos brindan a las empresas las herramientas para articular y desarrollar políticas y procesos que respeten las normas democráticas y contrarresten las demandas autoritarias. Este enfoque comienza con reglas arraigadas en los derechos, continúa con evaluaciones rigurosas del impacto de los derechos humanos para el desarrollo de productos y políticas, y avanza a través de operaciones con evaluaciones continuas, reevaluaciones y consultas significativas con el público y la sociedad civil. Los Principios Rectores sobre Empresas y Derechos Humanos, junto con las pautas específicas de la industria desarrolladas por la sociedad civil, los organismos intergubernamentales, la Iniciativa de Red Global y otros, proporcionan enfoques básicos que todas las empresas de Internet deberían adoptar.

2.- Las empresas deben embarcarse en enfoques radicalmente diferentes de la transparencia en todas las etapas de sus operaciones, desde la elaboración de reglas hasta la implementación y desarrollo de “jurisprudencia” que enmarque la interpretación de las reglas privadas. La transparencia requiere un mayor compromiso con las organizaciones de derechos digitales y otros sectores relevantes de la sociedad civil y evitar acuerdos secretos con los Estados sobre estándares de contenido e implementación.

3.- Dado su impacto en la esfera pública, las empresas deben abrirse a la rendición de cuentas pública. Los consejos de prensa de todo el mundo, eficaces y respetuosos de los derechos, proporcionan un modelo para imponer niveles mínimos de coherencia, transparencia y responsabilidad a la moderación del contenido comercial. Los enfoques no gubernamentales de terceros, si se basan en las normas de derechos humanos, podrían proporcionar mecanismos de apelación y reparación sin imponer costos prohibitivamente altos que disuadan a las entidades más pequeñas o los nuevos participantes en el mercado. Todos los segmentos del sector de las Tecnologías de la Información y Comunicación que moderen el contenido o actúen como guardianes deben hacer del desarrollo de mecanismos de responsabilidad en toda la industria (como un consejo de redes sociales) una prioridad máxima.

La opinión de jurista y exsenador

Eduardo Andrade Sánchez, abogado y ex-senador de la República, quien se ocupa un cargo como director general de Profesiones en la SEP, establece los siguientes puntos a pactar entre el Estado y las empresas a propósito del debate.

La regulación pactada de esta manera debería asegurar:

1.- Que la operación de cada red social en los países que suscriban la convención, quede sujeta a la autorización previa por parte de una agencia integrada por miembros de dichos países a la manera de las concesiones que se otorgan en los ámbitos nacionales.

2.- Que esa misma agencia tenga la atribución de revisar y autorizar los términos y condiciones que se imponen a los usuarios. Es bien sabido que prácticamente resulta imposible dar lectura a dichos términos y condiciones y no existe la posibilidad de negociarlos pues se trata de contratos de adhesión. Como las reglas que se aplican a dichos contratos, tales términos y condiciones deberían ser previamente autorizados por la agencia a la que me he referido.

3.- Las convenciones internacionales deberían especificar aquellas conductas o expresiones cuya difusión debe ser severamente sancionada en caso de que se incurra en las mismas, como ocurre por ejemplo con la pornografía infantil. Dichas prohibiciones deberían formar parte de los términos y condiciones que el usuario acepta para emplear las referidas redes.

4.- En los casos de violaciones a tales prohibiciones, podría autorizarse al operador de las redes a eliminar los mensajes que las infrinjan, informando a la agencia cuyo carácter será público, del ejercicio de tal atribución

5° En los casos que no estuviesen expresamente previstos, podría facultarse al operador para que consulte con una sección de la agencia, que tendría facultades jurisdiccionales para resolver si se dan circunstancias que permitan bloquear la difusión de un mensaje; pero esta atribución no debe ser ejercida unilateralmente por los directivos privados de las redes.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí