La Comissió Europea ha proposat el desembre de l’any 2020 una nova i transcendent regulació per als serveis digitals coneguda com a DSA per les seves sigles en anglès.

La proposta es planteja amb tres objectius bàsics: protegir millor els consumidors i els seus drets fonamentals en l’entorn online; establir un marc sòlid de transparència i de rendició de comptes per a les plataformes online, i impulsar la innovació, el creixement i la competitivitat en el mercat únic.

Centrarem aquest primer anàlisis en la protecció dels ciutadans davant dels continguts il·legals i perjudicials o nocius que podem trobar a les plataformes, especialment les de gran volum conegudes com a VLP per les seves sigles en anglès.

L’ecosistema digital actual, segons constata la pròpia Unió Europea, fomenta comportaments problemàtics; la propagació de la incitació a l’odi, els continguts racistes i la desinformació són uns exemples clars de determinats models de negoci que es basen en mostrar continguts sensacionalistes i polaritzadors als usuaris amb la finalitat d’augmentar el seu temps de visualització, i per tant un major benefici d’aquestes plataformes.

Reconeixent els importants impactes de les plataformes de gran volum en la nostra economia i societat, la proposició preveu uns estàndards de transparència i responsabilitat en la manera que aquestes plataformes poden intervenir en els continguts, en la publicitat i en el procés dels algoritmes .

Entre els principals objectius de la proposició de llei de serveis digitals està la de definir quina és la responsabilitat d’aquestes plataformes amb els continguts que s’hi publiquen. Una de les qüestions que es plantegen és, a banda de la necessitat d’intervenir en els continguts il·legals, quina ha de ser l’aproximació en relació amb els continguts perjudicials o nocius.

Segons l’article 26 de la proposta, les plataformes de gran volum han d’analitzar i avaluar qualsevol risc sistèmic derivat del funcionament i ús dels seus serveis, concretament la distribució de contingut il·legal. Alhora s’ha d’avaluar qualsevol efecte negatiu dels serveis en l’exercici dels drets fonamentals a la privacitat personal i familiar, llibertat d’expressió i d’informació, la prohibició de discriminació i els drets dels infants, així com la possible manipulació dels seus serveis, com per exemple l’explotació automatitzada, amb un efecte negatiu sobre la protecció de la salut pública, sobre els menors o sobre el discurs cívic.

D’acord amb l’article 27 de la proposta, les plataformes en línia de gran volum aplicaran mesures de reducció de riscos raonables, proporcionades i efectives, entre les quals les de l’adaptació dels sistemes de moderació de continguts o de recomanació.

Aquestes previsions i d’altres contingudes en la proposta representen un indubtable pas endavant en la rendició de comptes per part d’aquestes plataformes, però estan en alguns aspectes mancades de concreció. En quins casos l’explotació automatitzada del servei comporta la seva manipulació deliberada? O com es protegiran els drets dels infants i dels menors davant de continguts nocius o perjudicials? O com s’evitarà el tractament de dades de milions d’usuaris? A més, aquesta avaluació dels possibles efectes negatius del servei té un important condicionant en l’article 7 de la proposta.

Efectivament, l’article 7 estableix expressament que no hi ha l’obligació per part de les plataformes de monitoritzar la informació que els seus proveïdors transmeten, limitant així d’entrada la seva responsabilitat.

Aquestes plataformes, amb els seus immensos recursos, tenen la capacitat de ser proactives, de monitoritzar els seus continguts i adoptar, en el seu cas, les mesures necessàries de moderació dels mateixos, però en restar exemptes de responsabilitat, la seva motivació per la moderació de continguts il·lícits o nocius no es veu precisament incentivada.

Més enllà dels continguts clarament il·legals, es detecta, tal com ja hem exposat, una manca de concreció i de protecció envers aquells continguts que, sense ser il·legals, són clarament nocius o perjudicials especialment per als menors, i respecte a aquells continguts que fomenten la desinformació i que, d’altra banda, són objecte d’una regulació molt més estricta en els mitjans tradicionals.

Esperem que en el debat amb els estats membres i especialment amb el Parlament Europeu es puguin reforçar aquestes mesures per una millor protecció dels ciutadans en el món online.

Roger Loppacher, president del Consell Audiovisual de Catalunya.

WhatsAppEmailTwitterFacebookTelegram