El president dels Estats Units ha canviat les regles del desenvolupament de la IA: desapareix qualsevol referència a la seguretat i l’equitat
L’Institut Nacional d’Estàndards i Tecnologia (NIST) ha emès noves directrius que marquen un gir en l’estratègia de recerca en intel·ligència artificial als Estats Units. Les instruccions eliminen les referències a “seguretat de la IA”, “IA responsable” i “equitat en la IA”, i centren l’atenció a reduir el “biaix ideològic” i promoure la competitivitat econòmica del país.
Anteriorment, les directrius promovien el desenvolupament d’eines per identificar i corregir comportaments discriminatoris en models d’IA, especialment en aspectes relacionats amb gènere, raça, edat o desigualtats econòmiques. Aquests elements eren importants per evitar que els sistemes d’IA perpetuessin injustícies socials. Però, amb l’eliminació d’aquests, la preocupació ha crescut.
La influència d’Elon Musk i l’agenda de “America First”
El canvi en les directrius també reflecteix una orientació política més àmplia sota l’administració Trump. Elon Musk, qui lidera elDepartament d’Eficiència Governamental (DOGE), ha influït en aquesta nova narrativa. Musk ha estat crític amb els models d’IA desenvolupats per empreses com OpenAI i Google, a les quals acusa d’estar “esbiaixades ideològicament” i de ser “políticament correctes”.
DOGE ha implementat mesures com acomiadaments massius i retallades pressupostàries en agències com el NIST. Això ha creat un ambient hostil per a qui pugui oposar-se als objectius del govern actual. La nova mesura prioritza el “floriment humà” i la competitivitat global, conceptes que han estat qualificats de vagues i indefinits per alguns investigadors.
Preocupacions sobre la imparcialitat i la seguretat en la IA
Les noves directrius han aixecat crítiques en àmbits com l’acadèmic i el científic. Investigadors que han volgut mantenir l’anonimat han advertit que ignorar la seguretat i l’equitat en la IA podria tenir conseqüències per als usuaris finals, ja que permet que algoritmes discriminatoris passin desapercebuts. “Això podria conduir a un futur en què la IA sigui injusta, insegura i es desplegui sense responsabilitat”, va assenyalar un dels experts.
A més, l’eliminació de mètodes per autenticar contingut i rastrejar-ne la procedència indica una menor preocupació per combatre la desinformació i els ‘deepfakes’, i podria facilitar la propagació d’informacions falses.
El futur de la IA als Estats Units
L’eliminació de l’èmfasi en seguretat i equitat planteja preguntes sobre la responsabilitat social en el desenvolupament tecnològic. Els Estats Units busquen mantenir el seu lideratge en el camp de la IA, però queda per veure com aquestes noves directrius influiran en la recerca i el desenvolupament a llarg termini.
Foto de History in HD a Unsplash
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.