Des del passat 2 de febrer de 2025, la Unió Europea ha activat la primera etapa del Reglament d’Intel·ligència Artificial, convertint-se en pionera en establir un marc legal d’aquest tipus.
Un dels punts principals d’aquest reglament és la definició de pràctiques que, pel seu potencial de dany o discriminació, queden totalment prohibides. Segons l’anàlisi realitzada per AGM Abogados, entre aquestes pràctiques destaquen:
- Manipulació subliminar
- Explotació de grups vulnerables
- Reconeixement facial no autoritzat
- Anàlisi d’emocions en entorns laborals i educatius.
- Classificació social discriminatòria
- Avaluació de risc predictiva
- Categorització biomètrica basada en dades delicades
- Identificació biomètrica en temps real en espais públics.
El reglament no només pretén ser prohibitiu, sinó que també és una mesura de prevenció. Ja que es posa fre a pràctiques que ja s’han observat anteriorment en diversos contextos, per exemple, campanyes de publicitat política micro dirigida o sistemes de vigilància massiva.
A més, aquesta nova normativa europea no distingeix entre empreses locals i estrangeres. Qualsevol institució que operi o tingui impacte dins del mercat europeu haurà de seguir les directrius marcades pel Reglament d’IA de la Unió Europea. Fet que complica a algunes empreses estrangeres portar els seus models d’IA a Europa.
Per poder indagar més sobre aquest tema, hem consultat a Vanesa Alarcón, advocada especialitzada en tecnologia i propietat intel·lectual i sòcia de l’àrea de Tecnologia, Mitjans i Telecomunicacions (TMT) en AGM Abogados.
Pregunta: Quin consideres que és l’impacte més gran del Reglament d’Intel·ligència Artificial en les empreses dins i fora de la Unió Europea?
Vanesa Alarcón: Per a mi, el més gran és la necessitat que empreses fora d’Europa, però que presten serveis a la UE i utilitzen o desenvolupen eines d’intel·ligència artificial, s’ajustin als paràmetres europeus. El simple fet d’operar en aquest mercat les obliga a complir amb normatives molt garantistes des del punt de vista dels drets fonamentals i els principis ètics. Això pot percebre’s com una limitació al desenvolupament tecnològic, però, al meu entendre, garantir aquests drets és clau per a un bon desenvolupament tecnològic i per a oferir un millor servei en termes de qualitat i protecció de l’usuari final.
«Les empreses fora d’Europa també han de complir amb el reglament si operen aquí.»
Com es podria comparar aquesta regulació a Europa amb les normatives d’altres regions com els Estats Units?
Als Estats Units, la regulació sobre intel·ligència artificial encara està en desenvolupament; hi estan treballant. Biden va emetre una ordre executiva fa uns anys per promoure normes de seguretat, privacitat i protecció dels drets fonamentals en IA, però no va establir un marc normatiu concret, sinó directrius per investigar el seu impacte. Trump, amb les ‘executive orders’ dictades a principis d’aquest any, busca reduir la regulació en aquest àmbit, cosa que pot limitar l’evolució de normes més estrictes. En general, encara no hi ha un desenvolupament parlamentari sòlid en aquest aspecte. Cal veure com evoluciona tot això.
«Als EUA hi ha directrius, però no una regulació clara sobre IA.»
I en el cas de la Xina?
Encara que pugui semblar el contrari, la Xina sí que compta amb força regulació. Tenen normatives de protecció de dades, ciberseguretat i normativa relacionada amb l’ètica i els algorismes. Caldria analitzar en detall el nivell de quines garanties ofereixen, però sí que existeix regulació que contempla aquests aspectes. A més, el seu objectiu és convertir-se en líder en intel·ligència artificial per a 2030, per la qual cosa és un desenvolupament que mereix seguiment.
Tornant al reglament de la Unió Europea, creus que aconsegueix un equilibri adequat entre la innovació i la protecció dels drets fonamentals?
Des del meu punt de vista, el reglament se centra en el risc que la IA pot representar per als drets fonamentals dels usuaris, per la qual cosa el seu disseny busca garantir aquestes proteccions. Quant a l’equilibri entre drets i desenvolupament tecnològic, per a mi no són conceptes incompatibles. El veritable repte està a entendre com aplicar la legislació al desenvolupament tecnològic. Les empreses haurien d’integrar la legalitat en el disseny dels seus desenvolupaments des de l’inici.
Què poden fer les empreses per complir amb aquesta regulació sense frenar el seu creixement en intel·ligència artificial?
Sempre és clau articular una bona estratègia. Les empreses han de definir la seva estratègia de desenvolupament d’IA amb una sòlida base legal. Així com inclouen models de negoci, màrqueting i planificació financera en els seus projectes, haurien d’integrar la part legal des de l’inici. En protecció de dades es parla del ‘privacy by design’, i jo sempre defenso el ‘legal by design’. És a dir, des del principi del projecte s’ha de considerar quin impacte legal tindrà, quins són els riscos i quins aspectes poden assumir-se o no des del punt de vista estratègic. Si una empresa ignora aquesta anàlisi, deixa una part essencial sense cobrir.
«Les empreses han de pensar en ‘legal by design’ des de l’inici.»
Per finalitzar, quins canvis addicionals podem esperar en aquesta regulació després d’agost de 2025?
A partir d’agost de 2025, s’exigirà el compliment del reglament en el relacionat amb la intel·ligència artificial generativa. Es demanarà més transparència en el seu desenvolupament i els proveïdors que comercialitzin aquests serveis hauran d’informar que els seus productes estan desenvolupats amb IA i complir amb certs requisits. També es pretén garantir drets addicionals, com la protecció dels drets d’autor en relació amb la intel·ligència artificial. Més endavant, cap a 2027, es consolidaran les normes aplicables a la intel·ligència artificial considerada d’alt risc.
«El 2025 s’exigirà més transparència en l’ús d’IA»
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.