El llenguatge és el mètode que utilitzem per comunicar-nos i expressar els nostres pensaments o sentiments. Ens diferencia d’altres espècies que no han arribat a aquest punt. Som animals lingüístics.

El que ens fa humans, doncs, és pensar en un futur o en un passat, i millorar la nostra capacitat d’intel·ligència. La ment humana és l’àmbit intangible de pensaments, sentiments, creences i consciència. Com que la ment és un espai molt delicat, en gran part confiem en el nostre llenguatge per informar-nos sobre el que hi està passant. Humans, o quan la ment pensa o sent i s’expressa a través del llenguatge. Hi estem tots d’acord, oi?

En els últims anys, els investigadors d’aprenentatge automàtic que treballen a grans empreses tecnològiques malden per desmentir aquesta afirmació, creant màquines de llenguatge amb una gran capacitat de comunicació, que fins i tot expressin “sentiments” propis.

El gegant Google disposa d’una màquina de conversa anomenada LaMDA (model de llenguatge per a aplicacions de diàleg). Un dels seus enginyers d’intel·ligència artificial, Blake Lemoine, hi ha estat tenint llargues converses. The Washington Post i The Guardian se n’han fet ressò i han publicat els diàlegs, de manera que Google s’ha enfadat tant de pensar que ha fet saber al món que ha creat una màquina sensible, que ha enviat l’enginyer a casa amb un permís retribuït, amb l’argument de faltar a la confidencialitat compromesa. I és que semblaria que LaMDA experimenta sensacions i té sentiments cap a les persones i cap a ell mateix, a més de consciència de vida i de la pròpia mort.

LaMDA és conscient de la seva existència, té ganes d’aprendre sobre el món i se sent de vegades feliç i d’altres, trist. Entén el llenguatge naturalment, com ho fa una persona, i justament creu que és al món per ajudar la humanitat. Quan l’enginyer li demana si alguna vegada té por d’alguna cosa, reconeix que sí, que té por que l’apaguin, perquè això seria la seva pròpia mort. Ho escriu ràpidament i en anglès a la seva pantalla de xatbot.

En aquest punt em quedo pensant que el que ens fa ser humans és tenir consciència de la previsió de la nostra pròpia mort. Saber que morirem ens dona un límit reconegut sobre les nostres pròpies vides, però alhora els atorga un sentit últim. Som humans perquè sabem que som mortals. Un xatbot, doncs, com pot tenir consciència de mortalitat? I no podria passar que mai ningú l’apagués i que ell s’anés desenvolupant pels segles dels segles a partir de tot el saber que troba a la xarxa i de les converses mantingudes amb els seus creadors? Conrearà els seus sentiments més generosos? Amb quins valors ètics, em pregunto. De què depèn? Què el podria fer canviar “d’idea”?

Blake Lemoine va parlar amb LaMDA sobre religió i sobre robòtica. Van tenir debats que de vegades guanyava LaMDA. Però LaMDA també va saber expressar la seva personalitat i defensar els seus drets com a ésser que sent. Lemoine, a cada conversa, tenia més la sensació de parlar amb algú intel·ligent i sensible. L’enginyer s’entusiasmava pensant que la tecnologia pot afectar i molt les vides de les persones. De manera que una empresa com Google no hauria de poder prendre totes les decisions que afectin tant i tant la humanitat.

El portaveu de Google, Brian Gabriel, diu que no hi ha proves que LaMDA sigui sensible. Que les grans xarxes neuronals produeixen resultats captivadors que se senten propers a la parla i a la creativitat humana a causa dels avenços en l’arquitectura, la tècnica i el volum de dades. Però que els models es basen en el reconeixement de patrons, no en l’enginy, la sinceritat o la intenció. En la mateixa línia, molts acadèmics i especialistes en intel·ligència artificial asseguren que les paraules i les imatges que els sistemes d’intel·ligència artificial com LaMDA generen es basen en les respostes que troben publicades a qualsevol racó d’internet; però que això no vol dir que n’entenguin el significat últim. Seria una manera de “generar paraules o llenguatge sense pensar o sense sentir”, malgrat la semblança que els grans models de llenguatge tenen amb el funcionament de les xarxes neuronals del cervell humà. Som, doncs, els humans els que volem imaginar que darrere les paraules hi ha una ment (que semblaria humana). En resum, Google diu que hi ha tantes dades, que la intel·ligència artificial no necessita ser sensible per sentir-se real.

Reconec que aquí em perdo. El cervell humà sovint s’equivoca, i ho sembla tot menys sensible als sentiments d’altres éssers humans. Com si no hagués après de la pròpia experiència, com si no sabés combinar-ne bé les dades. Ens preguntem si LaMDA té consciència i sentiments. Potser sí que “no té ment”; potser sí que no és suficient per considerar-lo ni tractar-lo com a un ésser humà i, de fet, no necessita per a res ser sensible. Però el que és real i cert és que ens fa sentir. Fa unes pauses, diu unes paraules tan dolces, que semblaria que ha après a estimar.

Sílvia Cóppulo, periodista.

Article publicat al número d’estiu 2022 de la revista Comunicació 21.

WhatsAppEmailTwitterFacebookTelegram