Una de les novetats més significatives que incorpora la revisió de la Directiva de serveis de comunicació audiovisual –Directiva UE 2018/1808, del Parlament Europeu i del Consell– és l’ampliació del seu àmbit subjectiu d’aplicació material, per bé que no tot, a les plataformes d’intercanvi de vídeos (YouTube, Vimeo o DailyMotion, etc.) i als serveis de mitjans socials –és a dir, les xarxes socials (Facebook, Snapchat, Twitter, Instagram, etc.)–, quan la seva oferta de programes i vídeos generats per les persones usuàries constitueixi una funcionalitat essencial del servei.

Es justifica l’ampliació de la Directiva a aquestes plataformes per l’augment més que significatiu, especialment en el cas dels menors i joves adults, del consum de continguts audiovisuals mitjançant aquests serveis. De fet, a l’Estat espanyol ja hi ha franges d’edat, en concret la que va dels 16 als 24 anys, que consumeixen més contingut audiovisual a través del mòbil que mitjançant la televisió convencional.

A Catalunya, el 37,2% de les persones consumeix habitualment continguts audiovisuals per xarxes socials, com ara Facebook. Entre els joves de 18 a 34 anys aquest percentatge puja al voltant del 60%.

Aquesta tendència en el consum dels continguts audiovisuals, que podria extrapolar-se arreu del territori de la Unió Europea, ha comportat que el legislador comunitari hagi considerat adient protegir als menors, així com tota la ciutadania en general, de continguts perjudicials que incitin a l’odi, a la violència i al terrorisme, als quals es pugui accedir mitjançant aquestes plataformes i serveis.

Per a fer-nos una idea de la rellevància dels nous actors que s’incorporen sota el paraigües regulador de la Directiva, m’agradaria compartir algunes dades. Al món, diàriament, es veuen més de 10.000 milions de vídeos a Snapchat, per 8.000 milions a Facebook. A YouTube es visualitzen més de 5 bilions de vídeos al dia i es publiquen 300 hores de vídeo. A Instagram es publiquen més de 100 milions de fotos i vídeos al dia.

A més, cal tenir present que, segons dades de la Comissió Europea, enguany s’espera que la quota d’intercanvi de vídeos a internet en relació amb el trànsit global de consum representi el 80%, quan al 2014 era del 64%.

Amb la inclusió d’aquests nous actors –que han vingut a quedar-se en l’ecosistema audiovisual– s’obren importants qüestions al voltant del grau d’eficàcia i efectivitat de les benvingudes i benintencionades “mesures adequades” que la Directiva preveu al llarg del seu articulat, especialment a l’article 28ter, per a protegir a les persones usuàries dels continguts perjudicials als quals puguin accedir mitjançant aquestes plataformes i serveis.

Ateses les característiques d’aquestes plataformes i serveis, les mesures previstes en la Directiva s’allunyen d’una aproximació regulatòria convencional i obren la porta a fórmules col·laboratives entre l’administració i els prestadors de plataformes d’intercanvi de vídeos –coregulació–, així com a solucions d’autogestió per part d’aquestes plataformes i serveis –autoregulació–.

Això significa que l’adopció de mesures adequades de protecció són necessàries, però aquestes s’han d’elaborar des d’una perspectiva diferent, alternativa a la regulació tradicional, implicant als prestadors de plataformes d’intercanvi de vídeos, en la mesura del possible, i tenint en compte el següent:

– Que una part significativa dels continguts posats a disposició en una plataforma d’intercanvi de vídeos no està sota la responsabilitat editorial del prestador d’aquest servei.

– Que aquests prestadors solen determinar l’organització dels continguts; és a dir, programes, vídeos generats per usuaris i comunicacions comercials audiovisuals, fins i tot per mitjans o algoritmes automàtics; i que, per tant, les “mesures adequades” han de guardar relació amb l’organització dels continguts, i no amb els continguts com a tals.

– Que les “mesures adequades” derivades de les previsions de la Directiva han d’aplicar-se sense perjudici del que disposen els articles 12 a 14 i 15 de la Directiva de comerç electrònic –Directiva 2000/31/CE, del Parlament Europeu i del Consell–.

En el marc de les consideracions anteriors, l’article 28ter de la Directiva preveu als prestadors de plataformes d’intercanvi de vídeos posar en pràctica mesures de protecció. Estableix la transparència dels procediments entre persones usuàries i plataformes, així com la determinació dels estàndards bàsics per a les reclamacions de les persones usuàries, i estableix el seu dret a la informació sobre com s’està tramitant la reclamació. També s’estableix l’opció perquè la persona usuària busqui una compensació extrajudicial, si es considera que no hi ha hagut un bon tracte per part de la plataforma, i com s’ha d’assegurar que pugui defensar els seus drets davant un tribunal.

Això sí, molt al meu pesar, la Directiva relega al regulador el rol de mer avaluador de l’adequació d’aquestes “mesures adequades”.

Malgrat sigui un pas endavant i conscient de la dificultat que comporta arribar a previsions consensuades per part de la majoria d’actors involucrats en el procés de la revisió de la Directiva, se’m presenten alguns dubtes sobre l’efectivitat real d’aquesta nova perspectiva d’elaboració de “mesures adequades” mitjançant instruments diferents als estrictament normatius, i realitzada per subjectes privats diferents a les institucions públiques que tradicionalment duien a terme aquesta tasca.

L’adopció de les “mesures adequades” que preveu la Directiva, augmentaran la transparència i la responsabilitat en els casos de retirada de continguts, així com asseguraran els drets de les persones usuàries recollits en la Carta dels drets fonamentals de la Unió Europea?

O, si per al contrari, com diu el politòleg australià John Keane, “permetre a Google o Facebook que es regulin a si mateixos és el més semblant a deixar a una cabra cuidar del jardí”?

A tall d’exemple, recordem molt breument com ha anat la recent tramesa a la Comissió Europea en relació amb els informes de Google, Facebook i Twitter sobre els progressos d’aquestes plataformes en els seus compromisos de lluita sobre la desinformació, derivats del Codi de bones pràctiques contra la desinformació.

Una vegada analitzats els documents, la Comissió ha manifestat que Facebook no ha informat sobre els resultats de les activitats empreses al gener 2019 en relació amb el control de les pràctiques de col·locació d’anuncis. Google ha subministrat paràmetres que no són suficientment específics i no aclareixen fins a quin punt es varen adoptar les mesures que es varen adoptar. Twitter no va facilitar paràmetres sobre els seus compromisos per a la millora del control de la col·locació dels anuncis. En quant a la transparència dels anuncis polítics, Twitter ha posposat la seva decisió a l’informe de compliment del Codi previst per a febrer de 2019.

La recent actuació per part d’aquestes plataformes en el cas de la desinformació no fa més que reafirmar la meva opinió que és fonamental que, en el cas de la implementació de les “mesures adequades” previstes per la Directiva de serveis de comunicació audiovisual, les autoritats independents de regulació juguin un paper cabdal i siguin les veritables garants d’una aplicació efectiva d’aquestes mesures.

D’aquesta manera, tot i valorar que la previsió de l’article 28ter de la proposta de revisió de la Directiva representa un pas endavant respecte a l’actual marc normatiu, considero que, en qüestions tan fonamentals com la protecció dels menors i altres grups de risc, les autoritats reguladores poguessin determinar la il·licitud o el caràcter perjudicial d’un contingut difós pels serveis de plataformes de distribució de vídeos i, en conseqüència poguessin ordenar la retirada immediata del contingut que s’hagués estimat com a il·lícit.

I amb això no voldria dir que aquestes plataformes d’intercanvi de vídeos i les pròpies xarxes socials amb una presència significativa de vídeos hagin de ser les responsables editorials dels continguts penjats pel propis usuaris. És evident que, tenint en compte el volum de continguts de vídeo que en elles es pengen, és del tot inviable la seva supervisió i filtratge previ.

Soc de l’opinió que sí és viable, en canvi, i alhora convenient, que quan una autoritat de regulació detectés continguts il·lícits (pornografia infantil, violència masclista, per exemple) o nocius o perjudicials per als menors (anorèxia, promoció del suïcidi, etc.), disposi de les eines i els poders necessaris per tal de fer efectiva aquesta protecció i pugui ordenar als proveïdors del servei d’allotjament la seva retirada.

Malauradament, dins d’aquest volum ingent de continguts audiovisuals disponibles al públic, és freqüent detectar continguts prejudicials que promouen la violència masclista i altres comportaments que atempten contra els drets fonamentals de les persones.

En aquest sentit, el Consell de l’Audiovisual de Catalunya, organisme que presideixo, ja en línia amb la preocupació del legislador comunitari, realitza des del 2015 actuacions en l’àmbit d’internet i els continguts perjudicials, especialment per a la infància i els grups de risc. Des d’aleshores, el CAC ha elaborat 11 informes sobre pornografia infantil, anorèxia i bulímia, violència masclista, incitació al suïcidi, pedofília, homofòbia, fake news, així com sobre la presència de continguts de desinformació en línia contra el càncer.

A dia d’avui i arran de les peticions del CAC derivades de les seves actuacions, les plataformes d’intercanvi de vídeos amb les quals hem contactat han actuat sobre 64 continguts perjudicials. En concret, n’han retirat definitivament 42, han inclòs un advertiment de contingut o bé l’obligació de registre previ en altres 13 casos, han desactivat els comentaris en un cas, i en els 8 restants els continguts no es poden trobar en obert, ja sigui perquè han caducat o bé perquè han passat a l’àmbit privat.

Reiterar que tots els continguts retirats o en els que s’han inclòs advertiments arran de l’actuació del CAC eren accessibles a tothom sense cap tipus restricció, fet especialment preocupant atesa ja l’existència de “mesures adequades” en els diferents documents de condicions i termes del servei d’aquestes plataformes i serveis de mitjans socials. Caldrà, doncs, la col·laboració i cooperació de tots els implicats per a dur a bon port les previsions de l’article 28ter de la Directiva.

Roger Loppacher, president del Consell de l’Audiovisual de Catalunya.

WhatsAppEmailTwitterFacebookTelegram