Josuan Eguiluz és advocat d’empresa, especialista en IA i noves tecnologies. És professor a la Universitat de Deusto i a ESADE, i actualment realitza un doctorat centrat en la relació entre IA i drets fonamentals. La seva feina combina l’anàlisi jurídica amb una mirada crítica sobre els desafiaments socials i ètics que planteja el desenvolupament tecnològic. Parlem amb ell sobre la regulació europea de la IA, els límits de la innovació, el paper del pensament crític en l’era digital i els riscos de deixar el desenvolupament tecnològic en mans d’uns pocs.
Pregunta: Com aconsegueixes treure temps per a tot el que fas?
Josuan Eguiluz: Estic en un moment de la meva vida de veritable ocupació, de moltíssimes tasques, de moltíssims esdeveniments que estan passant. I si pogués respondre a com faig per poder organitzar-me, et diria que almenys hi ha tres elements que podria destacar.
El primer seria la generositat de totes les persones que m’ajuden, les cures que també em proporcionen i aquest enteniment que no puc estar a tot. En segon lloc, et diria que una passió i una motivació absoluta que em mou, que em desperta, que em fa tenir ganes de continuar. I això, quan no és suficient, el tercer element seria la diligència, el sacrifici. M’agrada recordar una frase de la meva àvia: «contra la mandra, diligència».
Creus que la IA pot fer que ens tornem més mandrosos?
Sí, sens dubte. Però és una de les conseqüències d’un mal ús de la IA. Crec que la IA és una de les eines, un dels invents més poderosos de la humanitat. Ara mateix encara és un nadó, podríem dir.
Però sí que crec que estem davant un moment en el qual hem de veritablement rebaixar aquesta tensió i aquesta urgència que exigeix la societat, que ens exigeix el mercat, i pensar on centrar els nostres esforços per poder utilitzar-la d’una manera correcta, adequada, i que ens permeti en cap moment perdre la nostra humanitat. I sobretot, que a mi m’encanta aquest concepte i que hem parlat més en més ocasions, és el pensament crític. El pensament crític és essencial per a nosaltres com a humans.
«Hem de rebaixar aquesta urgència que exigeix la societat, i pensar on centrar els esforços per poder utilitzar la IA de manera correcta i que ens permeti no perdre la nostra humanitat»
Diries que el pensament crític és el que ens permet guiar cap a on va la IA?
El pensament crític és un concepte molt complex, i depèn des d’on el puguem abordar. A mi m’agrada quan parlem de pensament crític des de la persona que està en el món de la filosofia. L’altre dia vaig estar escoltant una conversa, era amb José Carlos Ruiz, un filòsof, en el qual parla de tota la feina que s’està fent per poder desenvolupar el pensament crític a les aules.
Ell condensa el pensament crític en tres elements. Un és la sorpresa: estem perdent la capacitat de sorprendre’ns. Entres a l’aula i és difícil captar l’atenció de l’alumnat, és difícil generar un espai en el qual aquestes persones estiguin atenent-te. I el segon punt que ell destaca, amb el qual estic totalment d’acord, és la curiositat. Crec que hem de continuar treballant en la curiositat.
Hi ha un component humà essencial en generar aquesta pregunta inicial, no? Però ara, amb els agents, si treballes només amb la IA ja ni tan sols intervens tu.
Crec que és essencial distingir els casos d’ús. Això és fonamental, i a més és el que promou la regulació: en funció del cas d’ús i del risc que implica aquest cas d’ús la regulació serà una o altra. O fins i tot, en alguns casos, gairebé cap.
Llavors, quan estiguem en àrees crítiques o d’alt risc, allà és on veritablement hem de pensar-nos molt si deleguem aquestes decisions o no.
«No és el mateix que tinguem un magistrat o magistrada dictant sentències racistes, que tinguem un sistema d’IA que està dictant sentències a gran escala»
Quines són les conseqüències? Quin és l’impacte en la salut, en la seguretat de les persones, en els seus drets fonamentals?
Això s’enllaça també amb el meu doctorat. Per exemple, en un triatge mèdic o en l’àmbit educatiu… Què passa si t’avalua una IA? Quins criteris usa per avaluar-te? I moltes vegades, quan tenim aquestes converses, sembla que parlem del futur, d’alguna cosa que passarà… i en realitat, si mirem enrere uns pocs anys, ja ha passat.
Al Regne Unit va passar una cosa molt concreta. El govern va utilitzar un algorisme per predir les notes dels alumnes que anaven a fer la selectivitat. Se suposava que, en funció del seu expedient acadèmic, el sistema predeia quina nota traurien. I què va passar? Que quan això es va portar a la pràctica, es va veure que no només es tenia en compte el teu expedient acadèmic, sinó també d’on venies. En funció d’on haguessis estudiat, això influïa també en la teva nota estimada. És a dir, la teva classe econòmica, el teu origen social… tots aquests elements que, fins i tot quan no estan expressament en els models, es poden detectar. Allà tenim un veritable problema des del punt de vista jurídic.
Els biaixos sempre han existit. La IA no és, d’alguna manera, una manera de fer-los visibles?
Crec que hi ha una diferència substancial entre un biaix humà i un biaix en una màquina, en aquest cas, en la IA. En primer lloc, hi ha la capacitat d’impacte. No és el mateix que un magistrat o magistrada dicti una sentència amb biaix racista, que un sistema d’IA estigui dictant milers de sentències amb aquest mateix biaix. L’escala ho canvia tot.
I després hi ha l’altre: nosaltres, com a humans, fa molts anys que desenvolupem estructures, regles, maneres d’actuar davant errors, davant danys que es generen en persones, objectes, patrimoni, etc. Però, què passa quan aquests danys no els genera un humà? Això és alguna cosa que encara hem de reflexionar. Sí, ja existeixen algunes propostes, alguns debats, però encara no estem preparats del tot per això. Per a mi, aquest també és un element diferenciador: tu i jo tenim biaixos, és clar que sí, però fa anys que convivim amb ells, sabem com funcionen.
«Estic molt orgullós com a jurista i com a ciutadà que la Unió Europea, que Europa s’hagi posicionat sobre com hem d’utilitzar la IA»
Creus que en el futur una IA podria substituir un jutge per complet?
És una pregunta molt interessant. I et diria que sí, podria existir un sistema així, és clar. Però la veritable qüestió és: volem que existeixi? I com volem que funcioni?
Hi ha una diferència molt important entre el que és assistir un ésser humà en la seva feina i el que és delegar completament aquesta feina en una màquina. I això també ho diferencia clarament el Reglament Europeu d’Intel·ligència Artificial. En concret, l’Administració de Justícia es considera un entorn d’alt risc, justament per les conseqüències que poden derivar-se d’una mala decisió. I el que es busca amb la regulació és que, si un magistrat o magistrada fa servir un sistema d’IA per interpretar la llei, els fets o aplicar el dret, això estigui molt ben regulat.
Allà entren en joc moltes obligacions per protegir al màxim aquest procés. Però el més important —i el reglament ho deixa clar— és saber quan desapareix la figura humana i quan no. Si la IA només assisteix, si té un paper secundari, llavors estem en un altre escenari totalment diferent. El problema és que, quan veiem la IA només com una eina que ens ajuda o complementa, podem caure en l’anomenat biaix d’automatització. És a dir, pensem: “Bé, si ho ha dit el sistema, segurament és correcte”, i deixem d’aplicar el nostre coneixement, la nostra experiència, el nostre pensament crític. I allà és on apareixen els errors… i també la responsabilitat de cada professional.
Respecte a l’AI Act, et diria que, com a jurista i com a ciutadà, estic molt orgullós que la Unió Europea hagi apostat per tenir un posicionament clar sobre com hem d’usar la intel·ligència artificial i quins són els límits que no podem creuar.
Com pot afectar l’AI Act al desenvolupament de la IA? Moltes vegades veiem aquesta tensió entre innovació i regulació.
Hi ha una narrativa molt estesa que diu que la regulació frena la innovació. Es diu que cal eliminar normes perquè són obstacles i que la innovació ens portarà tota mena de beneficis. Jo no hi estic d’acord amb aquesta visió. No crec que hàgim de triar entre innovació o regulació, sinó que hem d’integrar-les.
La regulació europea, i en això confio, el que busca és establir regles perquè aquesta innovació sigui responsable. I per a mi, no pot haver-hi innovació si no és responsable. Podem anomenar innovació a alguna cosa que vulnera drets fonamentals? És innovació quan es violen drets de propietat intel·lectual? Alguns diuen que sí, que cal canviar tot el marc que coneixem. Jo no. Per a mi, els drets fonamentals són l’últim baluard de la humanitat. Són una de les millors creacions que ha fet l’ésser humà.
«No cal adoptar una posició dicotòmica entre innovació o regulació, sinó que cal integrar-les»
Quan una IA genera alguna cosa nova, no sabem fins a quin punt està copiant o creant. Com es distingeix això?
El primer que veig davant aquesta pregunta és complexitat. És un tema on crec que hem d’arribar a consensos amplis, col·lectius. No podem deixar que les decisions les prenguin només aquells que desenvolupen aquesta tecnologia. Ha d’haver-hi espai perquè també opinin altres parts, com per exemple la indústria creativa.
Pensa en Hollywood, o en casos recents com el que vaig llegir ahir: The Atlantic va publicar que Google hauria utilitzat milions de llibres protegits per drets d’autor, 7.5 milions, si no recordo malament, i més de 81 milions d’articles científics, per entrenar els seus últims models. Això planteja moltes preguntes legals, ètiques i socials. I cal abordar-les de manera conjunta.
On posem la línia entre inspiració i còpia?
És un tema molt complex. I crec que també té un component ètic molt important: la redistribució de la riquesa generada massivament per aquells que desenvolupen la tecnologia… quina part els correspon als autors i autores? Per a mi, això és essencial. I després hi ha el tema de què es protegeix exactament. Hem de diferenciar dues coses: d’una banda, l’input, és a dir, com entrenem aquests models, quines dades usem, quina informació introduïm a través del prompt. I, d’altra banda, l’output, el que es genera. Té protecció? Hauria de tenir-la? I quines implicacions porta?
Aquestes dues dimensions —input i output— estan òbviament connectades, però també poden analitzar-se per separat. Si ens centrem en l’output, que és el que a vosaltres us pot interessar en l’àmbit de creació de contingut, cal preguntar-se:
Qui l’ha creat? Hi ha un humà darrere? Perquè, segons la legislació actual a Espanya i a Europa, només es protegeix el que és creat per una persona natural, un ésser humà.
«No pot haver-hi innovació sinó responsable. I per innovació responsable entenc que en cap cas vulneri cap dret»
Haurem de tenir una màquina que digui: “això és 75% IA i 25% humà”? Com es gestiona una cosa així?
El primer que et diria com a advocat és: depèn. Depèn del cas d’ús, de com s’hagi utilitzat la IA, del context, de les dades implicades, si estaven sota llicència o no, si s’han vulnerat drets existents… Respecte a la protecció d’obres generades per intel·ligència artificial, si han estat generades directament, un dels debats és aquesta desconnexió entre la idea humana i la plasmació de l’obra. Allà entra el factor atzarós: tu pots escriure un prompt molt precís, però el resultat que obtinguis pot ser totalment imprevisible.
I fins on jo sé —perquè això canvia rapidíssim—, en aquests casos, el resultat no seria protegible. Ara bé, com tu deies, si sobre aquest resultat generat per IA tu afegeixes capes humanes, un text propi, el col·loques en un context nou, el combines amb idees pròpies… llavors sí que podríem estar parlant d’una obra protegible. Però és important distingir: no estem parlant només del que ha generat la IA, sinó del que tu has creat a partir d’això.
Prohibiran els xatbots com ChatGPT quan entri en vigor el reglament? O com funcionarà això realment?
El primer és que ja hi ha hagut països que han optat per limitar l’accés a aquestes eines, com va ser el cas d’Itàlia, fa un o dos anys. Però compte, això no va ser per propietat intel·lectual, sinó per protecció de dades. El segon és que el reglament, pel que fa als models d’ús general, estableix que han de proporcionar un resum prou detallat de les obres utilitzades per entrenar aquest model. I clar… és això factible quan estem parlant de milions i milions d’obres?
El que necessitem, o el que hauríem de fomentar, és la unió dels autors i autores. Perquè clar, jo, com a creador d’una obra artística o literària, sol no tinc res a fer davant d’aquests gegants tecnològics. Però si parlem de 7,5 milions de llibres, i ajuntem a totes aquestes persones, llavors la cosa canvia.
I aquí entra un altre tema que vas esmentar: la dimensió geopolítica. En aquest debat entre innovació i regulació, sempre apareix l’argument de: «Si a Europa ens limitem massa, altres països més avançats tecnològicament ens passaran per damunt.»
I sí, és cert que en llocs com els Estats Units o la Xina la tecnologia va per davant, això no ho nego. Però això no pot fer-nos perdre el nord. Crec que Europa té el deure de proposar la seva pròpia visió sobre com s’ha d’usar la IA. I és molt important recordar que l’objectiu de l’AI Act no és regular la intel·ligència artificial en si, com a tecnologia. El reglament busca regular el risc associat a certs usos de la intel·ligència artificial. I això és una diferència clau que de vegades es passa per alt.
«Hem d’arribar a un consens entre tots i totes. No podem esperar que les decisions les prenguin aquells que estan desenvolupant aquesta tecnologia»
Com controlarà la Unió Europea que tots aquests desenvolupadors compleixin amb l’AI Act?
Si pogués resoldre aquesta pregunta, estaria ara mateix treballant a Brussel·les. Però és molt pertinent el que planteges. Per exemple, vas esmentar Deepseek, i sí, és una tecnologia molt poderosa. A més, com bé dius, és de codi obert. L’interessant és que ens estem començant a adonar que, des d’una perspectiva de seguretat nacional i també des de la protecció de les nostres dades i informació, hi ha tecnologies que, encara que siguin molt potents, no compensen si no estan subjectes a estàndards europeus o a un marc legal clar.
Hi ha autors que ja estan analitzant com, en diversos països, s’està començant a limitar l’accés a certes eines d’IA. I sí, és cert que sempre hi haurà maneres de saltar-se aquestes restriccions, com amb l’ús de VPNs, però existeixen mecanismes jurídics —no només l’AI Act— que permeten intervenir. Per a mi, i això ho dic sempre, la millor eina jurídica que tenim ara mateix per combatre els efectes negatius de la IA —especialment en qüestions de discriminació— és la regulació de protecció de dades. Perquè pràcticament qualsevol activitat tecnològica avui dia comporta tractament de dades personals. I des d’allà també es pot actuar.
Contractar una assegurança, és un dels casos considerats d’alt risc. És aquí on hem de focalitzar els esforços reguladors. A la meva tesi precisament intento analitzar si el conjunt de normes actuals són suficients per protegir els nostres drets fonamentals en aquests entorns d’alt risc.
I crec que és una pregunta essencial, perquè si no la responem ara, després serà tard. Què farem d’aquí a deu anys si les conseqüències ja són evidents i no hem fet res? Hi ha molta crítica ara cap a la Unió Europea per regular tant, per “sobreregular”. Però, sincerament, jo crec que aquesta regulació és per protegir-nos.
«L’objectiu del reglament no és regular la IA, com a tal, sinó regular el risc associat a determinats usos d’aquesta IA»
Està preparada Europa per a aquest joc constant del gat i el ratolí? Quant ens durarà aquesta regulació?
Crec que la regulació europea ha estat conscient d’això i ha incorporat mecanismes d’adaptació. Té la capacitat d’evolucionar. Si apareix una nova tecnologia o si alguna part de la regulació no està funcionant com s’esperava, es poden fer ajustos. De fet, el mateix reglament permet afegir o eliminar àrees considerades d’alt risc, en funció de l’experiència acumulada. Si en el futur s’identifica que un sector concret representa un risc significatiu per als drets fonamentals, pot incloure’s com a tal. Aquesta flexibilitat és clau perquè la regulació no quedi obsoleta i pugui respondre a la velocitat del canvi tecnològic.
Llavors, no seria necessari canviar tot el paquet regulador, sinó més aviat adaptar-lo en certs punts?
Exactament. Es tractaria d’establir mecanismes jurídics que permetin adaptar la regulació. I crec que això ja està present, per exemple, en el Reglament de Protecció de Dades. És una normativa basada en principis, i aquests principis, en molts casos, estan ancorats en els drets humans. No estem parlant d’elements completament nous o radicals; més aviat, és una evolució sobre bases molt sòlides.
«La millor eina jurídica per combatre els efectes de la IA respecte a la no discriminació és la regulació de protecció de dades»
Podríem dir que els Estats Units, com que no regulen la IA, van en contra dels drets humans?
Des d’un punt de vista de la manca de regulació, i no em refereixo a limitar la innovació, sinó a no promoure una innovació responsable, crec que sí, es podria argumentar això. Especialment per les conseqüències que ja s’estan veient en col·lectius vulnerables, com les persones migrants, o qui estan en situacions de fragilitat. Si no establim criteris mínims i garanties que assegurin que aquests sistemes siguin robustos, transparents, fiables… llavors estem faltant al nostre deure. Com a legisladors, com a societat, com a comunitat global.
És clar, però al mateix temps, sembla que Europa és assenyalada com la que talla la festa per prendre’s això seriosament.
Sí, i això es deu a una narrativa que hem acceptat gairebé sense qüestionar: aquesta famosa frase de Silicon Valley, «Mou-te ràpid i trenca coses». Va ser molt útil durant l’expansió de les xarxes socials, però ara ens estem preguntant —amb raó— si volguéssim tornar enrere 10 o 15 anys, canviaríem alguna cosa?
Ja hi ha evidència dels efectes negatius que han tingut aquestes tecnologies. Per exemple, l’impacte en la salut mental d’adolescents, especialment en nenes, amb trastorns alimentaris vinculats a plataformes com Instagram. O fins i tot impactes geopolítics, com el que va ocórrer a Myanmar, on certs col·lectius van patir violència incitada o amplificada a través de xarxes socials.
I davant d’això, hi ha qui continua pensant que la tecnologia no ha de regular-se. Però quan ho compares amb altres àrees crítiques, l’argument cau pel seu propi pes. Volem que els avions estiguin regulats? Els medicaments? Els cotxes? Per descomptat que sí. I llavors per què no els algorismes?
A mi m’encanta el concepte de “pujar a un algorisme”. Passem hores al dia dins de plataformes digitals, sense saber realment per què hi arribem o quines decisions està prenent el sistema per nosaltres. Crec que allà tenim un problema greu com a societat, i sobretot si pensem en les noves generacions. No podem permetre que creixin sense protecció davant d’eines que han estat dissenyades per les persones més expertes del món en captar la seva atenció.
«Si no establim uns criteris mínims i garanties perquè aquests sistemes siguin robustos estem faltant al nostre deure, com a legisladors, com a societat»
La IA simplement ho està accelerant tot moltíssim més?
Sí, hi ha una frase que em va impactar molt, encara que ara no recordo de qui és. Deia una cosa així com: “La IA pot continuar funcionant tot el que vulguis, però en el moment en què la detens, es deté. En canvi, quan nosaltres ens aturem, ens despertem”. Aquesta idea em sembla molt poderosa. Perquè quan aturem el nostre ritme, quan deixem de córrer, és quan realment ens adonem que estem pensant. Aquesta pausa és un acte de consciència. Per a mi, és una distinció fonamental. I això, en aquesta època d’acceleració constant, és més important que mai.
Podem tancar amb alguna cosa una mica més esperançadora? Per si algú ha arribat fins aquí, que no es quedi amb una sensació tan fosca.
Per descomptat! Podem parlar, per exemple, de les noves generacions i del paper que tenim com a docents. Com més eines tenim, més podem fer, sí… però també més se’ns exigeix. La demanda serà cada vegada major. Però més enllà d’això, des de les aules hem de crear espais de diàleg i conversa. La presencialitat, en certa manera, ens continua donant una cosa fonamental: humanitat.
I per a mi, conservar aquesta humanitat és essencial. Reconstituir els espais que ens fan humans. El més important de l’escola no succeeix dins de l’aula, sinó fora d’ella. En les relacions, en els patis… I això, en qualsevol organització, també es dona. Hi ha un element humà intangible que cal saber manejar.
Des de l’educació també hem de preparar els estudiants no només tècnicament, sinó des de l’humà. Òbviament, un advocat o una advocada ha de saber dret. Però també hem de construir valors, obrir espais de debat i reflexió a classe. En les meves classes intento sempre generar conversa, portar textos, compartir frases. A vegades simplement llegim en veu alta tres minuts. Quanta gent seu a llegir tranquil·lament avui dia? Necessitem recuperar aquest espai. Dir: “Llegiré durant dues hores aquest llibre. Gaudiré. I no miraré el mòbil”. Cada vegada fem això menys. Però potser, enmig de tot aquest canvi, encara som a temps de reivindicar aquest temps humà.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.