Skip to main content

La nova metodologia es va presentar a la jornada ‘Intel·ligència artificial i drets fonamentals: una mirada més enllà de la privacitat’

El Parlament de Catalunya ha estat l’escenari on l’Autoritat Catalana de Protecció de Dades (APDCAT) ha presentat un model inèdit a Europa per garantir que els projectes d’intel·ligència artificial respectin els drets fonamentals de les persones. Aquesta iniciativa es va donar a conèixer coincidint amb el Dia Internacional de la Protecció de Dades i suposa un pas endavant en la regulació i supervisió de la tecnologia avançada.

Un pas més en la protecció de dades. Les autoritats europees estan treballant en un nou marc normatiu –el Reglament d’Intel·ligència Artificial (RIA)– que fixa obligacions específiques per als projectes que facin ús d’IA i puguin comportar un “risc elevat” per a la ciutadania. En aquest context, l’APDCAT ha desenvolupat la primera metodologia del continent per avaluar l’impacte en els drets fonamentals (AIDF) en l’àmbit de la IA. L’objectiu és anticipar i reduir possibles riscos com la discriminació o els biaixos algorítmics.

Una eina pràctica i aplicada El model s’ha creat amb la col·laboració de delegats i delegades de protecció de dades de diverses entitats públiques i privades. Liderat pel professor Alessandro Mantelero (Universitat Politècnica de Torí), el grup de treball ha analitzat quatre casos reals:

  1. Educació: sistemes per avaluar resultats d’aprenentatge i predir l’abandonament escolar.
  2. Gestió de personal: eines de suport en la presa de decisions de recursos humans.
  3. Salut: tractament de dades per diagnosticar el càncer a partir d’imatges mèdiques.
  4. Benestar social: assistents de veu per acompanyar persones grans.

En cadascun d’aquests exemples, s’ha aplicat la metodologia pas a pas per detectar riscos concrets i implantar mesures de prevenció.

Tres fases clau. La nova proposta de l’APDCAT defineix tres fases d’actuació:

  • Planificació: delimitar l’abast del projecte i identificar els riscos potencials de la tecnologia.
  • Anàlisi de riscos: avaluar fins a quin punt aquests riscos poden perjudicar els drets i les llibertats de les persones, i quantificar l’abast de l’impacte.
  • Mitigació i gestió: proposar mesures que redueixin o evitin els danys detectats, tot demostrant que el risc minva de manera efectiva.

Aquest esquema ajuda les organitzacions a actuar de forma responsable i transparent en l’ús d’algorismes d’IA.

Una fita europea i internacional. Des de l’APDCAT s’assenyala que la iniciativa vol servir de model de referència tant per a altres institucions europees com per a països de fora de la Unió Europea. En paraules de la directora de l’APDCAT, Meritxell Borràs, la voluntat és “impulsar una recerca i investigació centrada en les persones i respectuosa amb els drets de tothom”, alhora que es promou la competitivitat en l’àmbit tecnològic.

Nous rols davant el Reglament d’IA. Durant la jornada al Parlament, experts en protecció de dades van debatre el paper clau que assumiran les empreses i les administracions amb l’entrada en vigor del nou Reglament d’Intel·ligència Artificial. Segons va exposar Xavier Urios, cap de l’Assessoria Jurídica de l’APDCAT, el RIA obligarà a designar responsables específics per minimitzar els impactes de l’ús de la IA, i exigirà més rigor en l’avaluació de riscos tecnològics.

Propera publicació de nous casos. El grup de treball “DPD en xarxa”, coordinat per l’APDCAT, preveu analitzar més projectes reals i actualitzar els resultats periòdicament. Així, la metodologia es mantindrà viva i adaptada a les noves tecnologies i necessitats socials.

Amb aquesta iniciativa, Catalunya es posiciona com un territori capdavanter en la regulació i supervisió de la intel·ligència artificial, apuntant cap a un futur on la innovació tecnològica avanci de la mà dels drets fonamentals.