Eleonora Esposito visitó el ICS para compartir algunos detalles del trabajo que desarrolla en relación con la nueva Ley de Servicios Digitales. / Isabel Solana.

Eleonora Esposito es experta nacional destacada en la Unidad de Servicios Digitales de DG Connect, la Dirección General de Sociedad de la Información y Medios de Comunicación de la Comisión Europea. En concreto, se centra en evaluar riesgos de contenido relacionado con la ciberviolencia basada en el género. 

Es doctora en Estudios Críticos de Discurso por la Universidad de Nápoles Federico II (Italia) y la Universidad de Lancaster (Reino Unido), así como Máster en Estudios Culturales, de Género y Poscoloniales por la Universidad de Nápoles L’Orientale (Italia).

En el Instituto Cultura y Sociedad (ICS) de la Universidad de Navarra desarrolló el proyecto WONT-HATE con una beca Marie Sklodowska-Curie, en el que se centró en el impacto de la violencia online contra las mujeres políticas en la Unión Europea. Actualmente investiga sobre las intersecciones entre el lenguaje, la identidad y la sociedad digital en diversos contextos globales. 

Recientemente visitó el centro para compartir algunos detalles del trabajo que desarrolla en relación con la nueva Ley de Servicios Digitales.


¿Cómo ha evolucionado la legislación europea para proteger a los usuarios de plataformas digitales? 

Internet y las redes sociales forman parte de nuestras vidas cotidianas desde hace tiempo, pero hemos tenido que esperar hasta 2022 para contar con una regulación como la que introduce la Ley de Servicios Digitales (Digital Services Act, DSA). Nos hemos dado cuenta de que las recomendaciones y las formas voluntarias de colaboración que se reflejaban en normativas anteriores no eran suficientes. Es necesario contar con instrumentos más eficaces que ayuden a mantener bajo control riesgos relacionados con el respeto de nuestros derechos fundamentales, con la eliminación de contenido ilegal, con las garantías de acceso a un discurso público y electoral claro y con nuestra salud mental y física.

¿Por qué ahora?

Ha costado darse cuenta del impacto social de las plataformas digitales. En concreto, se han visto riesgos de la desinformación en torno a grandes cuestiones que han afectado a Europa en los últimos 15 o 20 años, como la gestión de los flujos de migrantes, las elecciones políticas y los ataques terroristas. La pandemia de Covid también ha sido un factor que nos ha ayudado a abrir los ojos sobre lo que nos llega a través de las redes sociales; basta mencionar con los problemas sociales generados por la desinformación en torno a las vacunas.


«Por primera vez, las plataformas tienen que reconocer los riesgos que introducen en la sociedad en temas como el discurso de odio, la discriminación y la igualdad de género y dar soluciones para mitigarlos».


¿Qué novedades introduce el DSA para conseguir un internet más seguro? 

Sobre todo, la estructura de diligencia debida obligatoria (due diligence). Se mantiene la idea de que las plataformas no son responsables de lo que los usuarios dicen a través de ellas, pero sí de cómo lo gestionan y de qué manera son vehículos de difusión de contenido ilegal o dañino. Asimismo, el discurso de evaluación de riesgos (risk assessment) es nuevo: por primera vez, las plataformas tienen que reconocer los riesgos que introducen en la sociedad en temas como el discurso de odio, la discriminación y la igualdad de género y dar soluciones para mitigarlos. 

Una de las críticas es que todo ese proceso puede suponer una amenaza a la libertad de expresión en suelo europeo. ¿Cómo se conjuga la regulación de contenidos con el respeto a ese derecho?

Hay que partir del hecho de que la situación actual no es idílica. No existe una verdadera y completa libertad de expresión: puedes ser atacado, censurado, silenciado y expulsado de las plataformas por expresar tus derechos como mujer, como integrante de una religión o un grupo étnico, como persona con discapacidad… Estos y otros colectivos vulnerables de la sociedad no digital y también de la digital no siempre se pueden beneficiar de las ventajas de la revolución de la web 2.0.  Sabemos que no tener acceso a las tecnologías hoy disminuye las oportunidades educativas, de instrucción y laborales de mucha gente vulnerable.

Dicho esto, la DSA ayuda a que haya más libertad de expresión y lo hace moderando los ataques y evitando la discriminación. Muchas veces se presenta como una ley que va a impedir expresar la opinión en internet. Si es una opinión de odio, claro que la vamos a impedir.


«Se trata de mirar también al impacto, no exclusivamente a la legislación, es decir, atender a los efectos sociales desde el análisis de riesgo».


¿En qué tipo de contenidos se fija la DSA: solo en los ilegales o también en los dañinos?

Es importante hacer esta distinción porque no todo lo dañino es ilegal. Y tenemos que encontrar maneras de evitar la difusión de contenido que juega a propósito con los límites entre ambos.

Algunos contenidos son ilegales en todos los países europeos y en muchas otras partes del mundo, como los que tienen que ver con abuso sexual infantil y la incitación al terrorismo -por ejemplo, el yihadista-.

La DSA es neutral en el sentido de que no define qué es ilegal. Por eso se trata de mirar también al impacto, no exclusivamente a la legislación, es decir, atender a los efectos sociales desde el análisis de riesgo. Eso es más difícil y hace falta generar más conocimiento con el apoyo de la universidad y la sociedad civil.

¿Puede poner un ejemplo?

Mi ámbito principal de investigación es la violencia basada en el género. La discriminación por género no está reconocida en todos los países como ocurre con el color de la piel o la religión, por ejemplo. Ha costado reconocer el discurso de odio basado en el género y que las mujeres son una minoría en ese sentido, aunque constituyan la mitad de la población. Hace falta ver el efecto de un determinado tipo de representación en las redes sociales y qué impacto tiene en la manera en que pensamos y funcionamos en la sociedad.

Precisamente, el tema que centró su proyecto Marie Curie en el Instituto Cultura y Sociedad fue la ciberviolencia contra las mujeres. ¿En qué medida la DSA es una aliada para combatir esta lacra? 

Estoy muy satisfecha de ver que la violencia de género es una de las formas de riesgo que las plataformas tienen que evaluar y mitigar. Se la reconoce como un riesgo distinto del discurso de odio y del discurso de la violencia en general. Hay que insistir en el gran impacto social que tiene una cierta representación en un discurso y la creación de un lenguaje en las redes sociales: contribuye a la perpetuación de una desigualdad de género que sigue presente e impide su erradicación.

La DSA deja patente, por primera vez, el continuo que existe entre el mundo físico y el virtual. En España, por ejemplo, hemos visto claramente cómo ciertos eventos de violencia grupal basados en el género se amplifican en las redes sociales y crean un discurso que incita a unos comportamientos también en el mundo físico. 

Actualmente se está discutiendo una directiva sobre violencia de género donde se criminalizan cuatro formas de ciberviolencia como acoso (stalking), hostigamiento (harassment), incitación al odio y abuso relacionado con imágenes íntimas no consensuadas. Esto complementa a la DSA. Por primera vez se criminalizan acciones virtuales, no solo las físicas, como la violación o la mutilación genital femenina. Son formas diferentes de violencia, con severidad e impactos distintos, por supuesto, pero también hay que erradicarlas. Supone un punto de llegada de todo el trabajo que se ha hecho en los últimos años para dar visibilidad a todo esto.


«A más capacidad de resonancia, más riesgos. Por esta razón, las más grandes, como Facebook o Twitter, tienen obligaciones mayores en términos de evaluar los riesgos y de funcionar con transparencia».


Ha mencionado la importancia de aunar esfuerzos con otros agentes sociales como la academia. ¿Qué pueden aportar los campus?

Los investigadores hemos batallado mucho para tener acceso a los datos de las plataformas. Esto ha sido siempre muy difícil, muy parcial y también muy caro, porque muchas veces los datos se obtienen previo pago.

Todo eso va a cambiar y se va a ganar en transparencia, que era una asignatura pendiente. La academia debe poder disponer de los datos porque solo así podrá colaborar con la moderación, la adecuada identificación de los riesgos y la valoración de las medidas que se ponen en marcha. No será fácil porque entran en juego la confidencialidad y la privacidad, pero se abren oportunidades para establecer prácticas más armonizadas a nivel de la web.

Todo esto supone democratizar el proceso. Los investigadores pueden apuntar hacia problemas concretos que no siempre se perciben pero que ellos, desde el trabajo de campo, conocen bien. 

La Comisión Europea reconoce que todas las plataformas tienen el mismo tamaño. Así, distingue entre Very Large Online Platforms (VLOPs) y Very Large Online Search Engines (VLOSEs). ¿Cómo se trabaja con ellas teniendo en cuenta esto?

El impacto de lo que se dice y se comparte en esas plataformas varía según el tamaño de estas. Una de las verdaderas innovaciones del DSA es que se reconocen esas obligaciones asimétricas. A más capacidad de resonancia, más riesgos. Por esta razón, las más grandes, como Facebook o Twitter, tienen obligaciones mayores en términos de evaluar los riesgos y de funcionar con transparencia. Su diseño tecnológico y algorítmico amplifica determinados contenidos y eso puede conllevar un impacto enorme sobre temas tan relevantes como las elecciones europeas que van a celebrarse en 2024. Como operan en toda Europa, la desinformación que se difunda a través de ellas puede producir un efecto bomba. 

¿Eso quiere decir que unas plataformas van a estar más supervisadas que otras?

No. También hay plataformas nacionales que son actores de primer nivel en sus territorios y en las lenguas que se hablan en estos. Pero es cierto que se va a pedir más a algunas por su papel primordial en la formación de opiniones y por su viralidad, que es uno de los rasgos distintivos de las VLOPs.


«Las plataformas que quieren hacer negocios en Europa tienen que aportar una persona de contacto y una dirección. La relación antes era puramente virtual y ahora hay un interlocutor». 


¿Cómo han recibido las plataformas la DSA?

Por el momento, se está poniendo en marcha la colaboración y nos estamos centrando en el ciclo anual de evaluación. Hay voluntad de entendimiento mutuo: todas están en contacto con DG Connect y han enviado la documentación que se les ha requerido. También se han mantenido encuentros con sus responsables.

Una de las novedades es que las plataformas que quieren hacer negocios en Europa tienen que aportar una persona de contacto y una dirección. La relación antes era puramente virtual y ahora hay un interlocutor

¿Cómo se financia este proceso de trabajo?

El dinero no se obtiene de los impuestos de los ciudadanos europeos, sino de una tarifa que pagan las plataformas que hacen negocio en Europa. Estamos hablando de flujos de dinero muy importantes y parece justo que sean ellas las que cubran la mayoría de los gastos. Asimismo, la DSA contempla multas económicas ante el incumplimiento de las normas, que se calculan sobre los beneficios globales. 

¿Y cómo es el trabajo que se está realizando con los países?

La DSA tiene obligado cumplimiento en febrero de 2024. Para entonces es importante organizar el trabajo con ellos, con el objetivo de que todos estén alineados. Ese es el objetivo del comité que se está poniendo en marcha en el que participarán la Comisión Europea y los países miembros. Si bien el problema de los contenidos dañinos e ilegales tiene una dimensión nacional, pues en cada país se concreta de una manera diferente, compartir experiencias contribuirá al aprendizaje mutuo.

En su conferencia ha mencionado el “Efecto Bruselas” del que habla la profesora de la Universidad de Columbia Anu Bradford: la fuerza de la Unión Europea radica en su capacidad de crear un marco regulador común. ¿Puede la DSA convertirse en fuente de inspiración para otras naciones en lo que respecta a la regulación de las plataformas?

La Unión Europea tiene un potencial muy grande como referente de respeto a los derechos fundamentales para países y regiones que tienen campo de mejora. Esto también ocurre en lo que se refiere a la aplicación de una ley pionera como esta. Quizá puede contribuir a crear un estándar de calidad a nivel internacional. No hay que olvidar que las plataformas se usan en todo el mundo y tienen aspectos locales, pero también globales.

Autora: Isabel Solana

Deja un comentario