Les xarxes socials en línia són una important via de distribució de notícies falses i desinformació. Aquesta situació s’ha agreujat amb els avanços recents en les eines d’edició d’imatge i d’intel·ligència artificial, que permeten falsificar fàcilment documents audiovisuals com els anomenats deepfakes, que combinen i superposen imatges, àudios i videoclips per crear videomuntatges que semblen reals. Investigadors del grup K-riptography and Information Security for Open Networks (KISON) i del Communication Networks & Social Change (CNSC), tots dos de l’Internet Interdisciplinary Institute (IN3) de la Universitat Oberta de Catalunya (UOC), han posat en marxa un nou projecte transdisciplinari per desenvolupar eines tecnològiques innovadores que, usant tècniques d’ocultació de dades i intel·ligència artificial, ajudin els usuaris a distingir de manera automàtica entre contingut multimèdia original i alterat, amb la qual cosa contribueixen a minimitzar la redistribució d’informacions falses. DISSIMILAR és una iniciativa internacional liderada per la UOC en la qual també participen investigadors de la Universitat Tecnològica de Varsòvia (Polònia) i de la Universitat d’Okayama (el Japó).

“El projecte té un objectiu doble: d’una banda, proporcionar als creadors de contingut eines per identificar amb marques d’aigua les seves creacions, amb la qual cosa s’aconsegueix que qualsevol modificació sigui fàcilment detectable; de l’altra, dotar els usuaris de les xarxes socials d’eines basades en processament de senyals d’última generació i mètodes d’aprenentatge automàtic per detectar contingut digital fals”, explica el catedràtic David Megías, investigador líder de KISON i director de l’IN3. A més, DISSIMILAR vol incloure “la dimensió cultural i la visió de l’usuari final durant tot el projecte”, des de la concepció de les eines fins a l’estudi de l’experiència d’usabilitat en les seves diverses fases.

El perill dels biaixos

En l’actualitat, les eines de detecció de notícies falses són bàsicament de dos tipus. D’una banda, instruments automàtics basats en aprenentatge automàtic, dels quals, de moment, només hi ha alguns prototips. I, d’altra banda, les plataformes de detecció de notícies falses amb intervenció de persones, com ocorre a Facebook o Twitter, en què cal la participació humana per descobrir si un determinat contingut és genuí o fals. Segons David Megías, aquesta solució centralitzada pot estar subjecta a “diferents biaixos” i fomentar la censura. “Pensem que una avaluació objectiva basada en eines tecnològiques pot ser una opció millor, sempre que l’usuari tingui l’última paraula per decidir, en funció d’una preavaluació, si confia en un contingut o no”, explica.

Per al catedràtic de la UOC, no hi ha “una única bala de plata” que permeti detectar notícies falses, sinó que la detecció s’ha de fer mitjançant la combinació de diverses eines. “Per això, en el projecte hem optat per explorar l’ocultació d’informació (marques d’aigua), les tècniques d’anàlisi forense de continguts digitals (en gran part basades en processament de senyals) i, naturalment, l’aprenentatge automàtic”, destaca.

Verificar automàticament documents multimèdia

Les marques d’aigua digitals són un conjunt de tècniques, de la branca de l’ocultació de dades, que consisteixen a incrustar informació imperceptible en l’arxiu original per poder verificar “fàcilment i automàticament” un document multimèdia. “Poden servir per indicar la legitimitat d’un contingut, per exemple, verificar que un vídeo o una fotografia ha estat distribuït per una agència de notícies oficial; també es poden utilitzar com a marca d’autenticació, que s’eliminaria en cas de modificació del contingut, o per traçar l’origen de les dades, és a dir, per saber si una font d’informació (per exemple, un compte de Twitter) distribueix contingut fals”, enumera David Megías.

Tècniques d’anàlisi forense de continguts digitals

El desenvolupament de marques d’aigua es combinarà en el projecte amb l’aplicació de tècniques d’anàlisi forense de continguts digitals. L’objectiu és utilitzar la tecnologia de processament de senyals per detectar les distorsions intrínseques produïdes pels dispositius i programes que s’utilitzen quan es crea o modifica qualsevol document audiovisual. Aquests processos produeixen una sèrie d’alteracions, com ara sorolls del sensor o distorsions òptiques, que es podrien identificar mitjançant models d’aprenentatge automàtic. “La idea és que la combinació de totes aquestes eines millori els resultats en comparació amb l’ús de solucions d’un sol tipus”, incideix David Megías.

Estudis amb usuaris de Catalunya, Polònia i el Japó

Una de les característiques fonamentals de DISSIMILAR és que incorpora un enfocament “holístic” i recull “les percepcions i els components culturals de les notícies falses”. Per fer-ho, es duran a terme diferents estudis centrats en l’usuari, estructurats en diverses fases. “En primer lloc, volem saber com es relacionen els usuaris amb les notícies, què els interessa, quins mitjans consumeixen segons els interessos que tenen, en què es basen per identificar certs continguts com a fake news i què estan disposats a fer per comprovar-ne la veracitat. Si identifiquem aquests elements, serà més fàcil que les eines tecnològiques que dissenyem puguin contribuir a evitar la propagació de les notícies falses”, explica David Megías.

El mesurament d’aquestes percepcions es durà a terme en llocs i contextos culturals diferents, mitjançant estudis amb grups d’usuaris de Catalunya, Polònia i el Japó, per incorporar així les seves particularitats en el disseny de les solucions. “Això és important perquè, per exemple, en cada país hi ha un grau més o menys elevat de credibilitat en les institucions públiques o en el govern. Això influeix en el seguiment de les notícies i en el suport a les notícies falses: si no crec en el govern ni en les institucions públiques, per què he d’estar pendent de les notícies que provinguin d’aquestes fonts? Això es va poder veure durant la crisi de la covid-19: als països en què es confiava menys en les institucions públiques, s’acataven menys els suggeriments o les normes respecte a la gestió de la pandèmia i a la vacunació”, descriu Andrea Rosales, investigadora del CNSC.

Un producte fàcil d’emprar i comprensible

En una segona fase, els usuaris participaran en el disseny de l’eina per “assegurar que el producte serà ben rebut, fàcil d’emprar i comprensible”, ressalta Andrea Rosales. “Ens agradaria que ens acompanyessin al llarg de tot el procés fins a arribar al prototip final, perquè així podrem respondre més bé a les seves necessitats i prioritats i arribar on altres solucions no han pogut arribar”, afegeix David Megías.

Aquesta acceptació entre els usuaris podria ser una via perquè, en un futur, les plataformes de xarxes socials arribin a incorporar les solucions desenvolupades en el projecte. “Si els nostres experiments funcionen, seria fantàstic que integressin aquestes tecnologies. De moment, ens conformem amb el fet de tenir un prototip funcional i una prova de concepte que pugui animar les plataformes socials a incorporar aquestes tecnologies en el futur”, conclou David Megías.

 

Article publicat a UOC News.

WhatsAppEmailTwitterFacebookTelegram