Carles Codina, professor de ciències socials a l’institut Montserrat Roig
Des que l’empresa OpenAI va treure al mercat el ChatGPT, les visions entre apocalíptiques i integrades respecte al que suposarà per a la supervivència i per al futur de la humanitat han estat una constant.
Aquestes darreres setmanes s’està imposant, però, la perspectiva apocalíptica. Ja són diversos els especialistes, polítics i opinadors professionals que demanen que es posi immediatament fre a aquesta nova eina digital. He anat seguint aquest tema pels diferents mitjans que han anat publicant articles, perquè m’interessa genuïnament i també perquè com a docent començo a tenir clar que està canviant la meva professió. De fet, des de la seva aparició el novembre del 2022, els països anglosaxons van posar el crit al cel respecte al canvi que havia suposat en les tasques escolars (Diane Coyle, “Contra el monopoli de la IA”, “Diari Ara”, 23-2-2023). Però encara no tinc clar si l’està canviant cap a millor o cap a pitjor. Com que no tinc una opinió totalment formada, ja que segons el que llegeixo ens n’anem o bé cap al dantesc món projectat pels germans Wachowski a “Matrix”, o bé cap al futur de les lleis de la robòtica d’Isaac Asimov, els “friendly robots” de “Star Wars” o el programa acompanyant amb la seductora veu de Scarlett Johansson, de qui un asocial Joaquim Phoenix s’enamora perdudament a “Her”, prefereixo compartir amb els lectors algunes constatacions que he pogut establir.
Per començar, són pocs els articles que expliquen la base informàtica i digital que permet a un programa d’ordinador simular el llenguatge i la capacitat organitzativa de la informació que ens caracteritza als humans. La majoria dels articles es basen en les conseqüències derivades de l’eina i no pas en la seva comprensió, com si es tractés d’una visió neoludita que culpa la màquina de la falta de feina sense entendre’n el funcionament. Es parla del ChatGPT sense coneixement de causa, derivat de l’analfabetisme informàtic en què estem immersos, i m’hi incloc jo mateix. Per posar un exemple conegut, la millora del sistema educatiu a les repúbliques bàltiques és en part gràcies al fet que els seus estudiants acaben l’ensenyament no només com a usuaris de programes informàtics sinó com a programadors. En el nostre país petit, l’alumnat i el professorat fem una immersió acrítica en el Classroom de Google, en el Moodle del Departament d’Ensenyament i qui dies passa anys empeny. Fins i tot el programa de formació digital endegat pel departament està orientat a l’ús de les apps i no pas a saber-ne programar. Si de cas, és a l’article de Diane Coyle ja citat on explica que el xat es basa en la tecnologia LLM (“Large Language Models”) o Grans Models de Llenguatge, i en el dossier que el diari va publicar el mateix dia, en què s’explica que la base són models de llenguatge que funcionen a partir de la probabilitat estadística que tenen els mots de relacionar-se amb d’altres, de manera que es necessiten grans quantitats de textos i una gran capacitat computacional. De totes maneres, tampoc no s’aprofundeix en la ciència informàtica que sustenta el model.
Noam Chomsky, pare de la gramàtica generativa i especialista en estructura lingüística des dels anys seixanta, ha publicat recentment un article al New York Times traduït al català (“La falsa promesa del ChatGPT”, Diari Ara, 23-4-2023). Comença amb una interessant referència a José Luis Borges en comparar l’eina informàtica amb els continguts de la biblioteca imaginada al conte “La Biblioteca de Babel”, aquella on es podien trobar totes les obres hagudes i per haver enmig del sense sentit, ja que en el seu famós conte, la biblioteca posseeix totes les obres fetes a partir de totes les combinacions possibles de les lletres de l’alfabet, en un espai físic que s’albira infinit. Chomsky entra en matèria considerant que un programa, per molt intel·ligent que sigui, no podrà arribar mai a la creativitat humana justament perquè és artificial. I aquí rau, crec, una confusió important que es deriva del que entenem com a intel·ligència: la que fa servir el ChatGPT és capacitat de processament de dades, velocitat de gestionar informació i recombinar-la, però molt allunyada de la creativitat, intuïció i lliure arbitri de la intel·ligència humana. Cada època té les seves metàfores per explicar com funciona el nostre cervell: quan van sorgir els vinils, si algú es feia pesat, se li deia que “tenia el disc ratllat”; quan van aparèixer els ordinadors personals, si algú havia de canviar la seva perspectiva o actitud se li deia que “havia de canviar de xip”. Ara identifiquem la capacitat de gestió de dades de la IA com a “intel·ligència”. De fet, si ens fixem en la teoria de les intel·ligències múltiples de Howard Gardner, la que té el ChatGPT seria la logicomatemàtica, una de les vuit que identifica el psicòleg nord-americà, no pas la lingüística.
Bill Gates ha publicat un llarg article (“L’edat de la IA ha començat”, “La Vanguardia”, 2-4-2023), en què fa una diferenciació conceptual interessant entre IA i IA General o Forta, i la primera és la que es pot trobar al ChatGPT i la segona, la que podria derivar-se a l’Skynet de la saga “Terminator”. Ens comenta que encara estem molt lluny de la segona, que és també la que Steven Hawking preveia com a terrorífica. Aquesta segona és encara avui dia ciència-ficció. Segons Gates, som els éssers humans (empreses, governs, institucions…) els que haurem de posar els límits en el moment que la IA sigui capaç de generar-se els seus propis objectius i que puguin arribar a ser oposats als dels humans. El magnat de Microsoft, com no podria ser de cap altra manera, defensa les noves oportunitats que es poden derivar del ChatGPT i d’altres de semblants si són capaces de disminuir les desigualtats mundials, millorar els sistemes sanitaris o l’educació, sempre basant-se en la idea de millorar la productivitat, que, segons ell, és la base de l’alliberació humana per poder dedicar-nos a una altra cosa que no sigui treballar (com ara consumir els productes de Microsoft…). Sota una aparença de responsabilitat i filantropia, el multimilionari fa una defensa de l’eina des d’un neoliberalisme desacomplexat que situa la seva mirada gairebé divina i condescendent cap a una humanitat que s’haurà de limitar a acceptar la inevitabilitat de la IA i que haurà de gestionar els seus efectes claríssimament desigualadors, com aquella concepció d’Adam Smith, que reduïa el paper de l’Estat a la construcció d’infraestructures i deixant la creació de riquesa a la iniciativa privada. Sorprenentment, el pare de l’Office no aporta cap coneixement informàtic més enllà del de l’augment de la velocitat en el processament de dades. De fet, s’entén la seva postura si tenim en compte que Microsoft ha invertit 11.000 milions de dòlars en OpenIA (Paula Solanes Alfaro, “Qui és OpenAi, el laboratori d’on va marxar Elon Musk”, “Diari Ara”, 23-4-2023).
Per finalitzar, crec que l’experiment dut a terme per Sebastian Krügel (expert en ètica i digitalització de la THI) és molt paradigmàtic dels reptes a entomar. Pretenia determinar la influència del xat en les respostes d’un seguit d’individus davant problemes morals. Plantejava un problema ètic clàssic que es basa en la idea de triar entre sacrificar un individu per salvar-ne cinc. Aquest problema posa en qüestió la idea de la maximització del bé comú (salvar cinc persones lligades a la via tirant-ne un per tal que aturi el tren) i no hi ha cap resposta correcta, només una tria entre mals o mals menors. Krüger destaca que la IA a la qual se li va preguntar va donar respostes oposades segons el moment de la consulta, de manera que no era consistent i, per tant, no era fiable, ja que una de les característiques de les postures ètiques, sigui quina sigui, ha de ser la consistència, és a dir, el fet de mantenir els mateixos criteris en contextos diferents. Segons l’especialista, aquest exemple qüestiona directament la confiança que li hem de donar a una eina com el ChatGPT. El que és preocupant del seu experiment, però, no és el fet que s’equivoqui, sinó la constatació de la influència acrítica de la resposta del xat al grup de persones sotmeses a l’experiment, el 80% dels quals no eren conscients de la influència del programa en la presa de la seva decisió (Mayte Rius, “Els consells de ChatGPT condicionen el judici moral de les persones”, “La Vanguardia”, 8-4-2023).
El debat continuarà obert durant força temps i les opinions creuades a favor i en contra també. Cada vegada, però, ens haurem d’anar informant de les conseqüències que es derivin del desenvolupament d’aquesta tecnologia, que queda clar que haurà de ser supervisada per les institucions democràtiques a causa del seu perill potencial. Els avantatges ja es poden constatar en molts àmbits, com apunta Bill Gates, però els perills rauen més a deixar en mans del mercat i de la lliure competència una eina que pot corcar les bases del sistema democràtic, de la igualtat i de la llibertat. Com a ciutadans lliures, ens hem de preocupar dels perills i hem de formar part de la societat civil que demani regular aquestes eines. Tampoc no podem deixar en mans de les institucions i dels experts el debat, però només hi podrem participar si ens informem de manera crítica i responsable, valors humans que hauria d’arribar a tenir el ChatGPT.