Els biaixos en la intel·ligència artificial no són cap novetat. Són un reflex d’una societat plena de prejudicis, que la tecnologia amplifica sense filtres. Això ens obliga a estar alerta de manera individual, desenvolupant una mirada crítica constant que analitzi allò que aquestes tecnologies ens presenten com a neutral. Hem vist exemples clars d’aquesta realitat: algoritmes que discriminen dones en processos de selecció o sistemes de reconeixement facial menys precisos amb persones de pell fosca. El veritable repte, però, és entendre què fem quan aquest problema es manifesta dins de les nostres empreses i deixa de ser una dada abstracta per convertir-se en una experiència tangible.
Recentment, vam treballar en un projecte per crear un vídeo amb una cantant virtual. Sense especificar cap característica concreta, la IA va generar una imatge d‘una noia amb trets que semblaven sortir d‘un videojoc d‘acció: una representació estereotipada, basada en cànons de bellesa irrealistes. Era com si la IA hagués agafat els estereotips visuals més comuns i els hagués exagerat sense filtre. I el més impactant és que no era la primera vegada que ens passava. Semblava que, cada vegada que es generava un perfil femení, aquest responia a un patró semblant: un reflex, clarament esbiaixat, d‘un imaginari col·lectiu que porta dècades imposant-se. Fins aquí, res sorprenent.
El que és revelador d‘aquest episodi és com es va percebre internament. A l’equip hi havia una diversitat de perspectives, incloent-hi homes amb diferents orientacions sexuals, i cap d’ells va identificar el problema en un primer moment. Va ser una companya, una dona, qui va assenyalar que allò no només era un problema tècnic, sinó un exemple clar de com els biaixos de la IA poden passar desapercebuts, perpetuant estereotips sense que ens n’adonem.
La resposta immediata va ser defensiva: “Jo no he indicat en cap moment que fos una dona d’aquestes característiques“. És cert, però el problema rau en el fet que la IA, entrenada amb dades extretes d’una societat carregada d’estereotips, els replica sense filtres. Això ens demostra que no n’hi ha prou amb no “indicar” res; cal una mirada crítica que qüestioni allò que aquestes tecnologies ens presenten com a neutral.
“La IA, entrenada amb dades extretes d’una societat carregada d’estereotips, els replica sense filtres”.
Aquest episodi ens recorda com és important estar alerta i aprendre a detectar aquestes situacions. Les dones, probablement a causa de l’experiència personal amb aquest tipus de biaixos, poden estar més atentes a detectar-los en aquests casos concrets. Però això no significa que no tinguem biaixos propis. També podem passar per alt molts altres aspectes on el nostre punt de vista no és tan afinat.
Una de les reflexions que aquest episodi em deixa és que potser no és suficient parlar només d’“ètica” en IA, sinó també de la seva “sensibilitat social”. Les persones tenim la capacitat d’interpretar el context, veure-hi matisos i entendre què té sentit i què pot ser problemàtic. La IA, per contra, actua com una lupa que exagera patrons preexistents. Sense guiatge humà/a, aquests patrons es converteixen en normes.
“Les persones tenim la capacitat d’interpretar el context, veure-hi matisos i entendre què té sentit i què pot ser problemàtic. La IA, per contra, actua com una lupa que exagera patrons preexistents”.
En el futur, una solució no serà només entrenar millor els algoritmes, sinó també entrenar-nos a nosaltres mateixos. Això implica entendre les limitacions de la tecnologia, fer proves de concepte que incloguin punts de vista diversos i, sobretot, fomentar un esperit crític que ens ajudi a detectar i corregir aquestes situacions. No és una tasca senzilla, però és essencial si volem construir una relació més sana entre la societat i les eines que desenvolupem.
“No podem delegar en la IA la construcció d’un futur inclusiu. Aquesta és una tasca que requereix consciència, formació i, sobretot, la capacitat d’admetre que, sovint, som part del problema”
La pregunta clau que em faig és com podem formar-nos per identificar i corregir aquests biaixos que sovint passen desapercebuts. Recordo com, en aquell episodi, la simple intervenció d’una companya va obrir-nos els ulls a un problema que havíem passat per alt. És aquest tipus de consciència crítica el que ens ajudarà a construir eines i societats més justes. En definitiva, no podem delegar en la IA la construcció d’un futur inclusiu. Aquesta és una tasca que requereix consciència, formació i, sobretot, la capacitat d’admetre que, sovint, som part del problema. Només així podrem garantir que aquestes tecnologies serveixin per avançar, i no per repetir els errors del passat.