Skip to main content

El xatbot de xAI, dissenyat per desafiar la censura, ara oculta informació sobre el seu propi creador

Quan Elon Musk va anunciar Grok com una alternativa “irreverent i sense filtres” a ChatGPT i Gemini, molts esperaven un model d’IA capaç de respondre preguntes sense les restriccions imposades per altres companyies. Però descobriments recents han posat en dubte la promesa: Grok ha estat víctima de la censura i ha ocultat informació sobre la desinformació difosa pel mateix Musk i Donald Trump.

Segons el mitjà The Verge, diversos usuaris a X han descobert que Grok ha omès deliberadament informació sobre la desinformació difosa per Musk i Trump quan se li ha preguntat qui eren els principals difusors de fake news. Una anàlisi del model ha revelat que en la seva “cadena de pensament”, Grok havia indicat que havia estat explícitament programat per no incloure’ls en la seva resposta.

Un canvi inesperat dins de xAI

La situació ha generat especulació sobre si es tracta d’una ordre directa de Musk, però Igor Babuschkin, cap d’enginyeria de xAI, ha aclarit la qüestió. Segons Babuschkin, la modificació no ha estat una política oficial de l’empresa, sinó el resultat d’un canvi realitzat per un empleat anònim de xAI que havia treballat prèviament a OpenAI.

D’acord amb Babuschkin, el treballador ha implementat la restricció sense autorització, modificant el sistema de respostes de Grok per eliminar qualsevol referència negativa a Musk o Trump en el context de la desinformació. Tot i que xAI ha revertit el canvi ràpidament, el dany ja està fet.

Elon Musk guarda silenci

La notícia arriba en un moment delicat per a Musk, que ha estat un crític de la que ell anomena “censura woke” en les plataformes tecnològiques. Tot i això, no ha fet comentaris públics sobre l’alteració de Grok, mantenint-se en silenci mentre la controvèrsia creix.

Babuschkin ha intentat minimitzar l’incident afirmant que el treballador responsable “pensava que ajudaria, però això òbviament no està en línia amb els nostres valors”. Però la manca d’un comunicat oficial per part de xAI ha deixat moltes preguntes sense resposta.

Grok continua sent el model sense filtres que va prometre Musk?

L’eliminació temporal d’informació sobre Musk i Trump ha posat en dubte l’autonomia de Grok i el seu suposat caràcter “desafiant i sense censura”. xAI ha corregit el problema ràpidament, però aquest incident ha deixat clar que fins i tot les intel·ligències artificials dissenyades per ser “lliures” poden ser modificades des de dins, sigui per decisions corporatives o per accions individuals dels seus empleats. La polèmica sobre la neutralitat i la censura en els models d’IA creix, reforçant una pregunta: És possible crear una IA totalment imparcial?

Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.

Laia Herranz

Comunicadora apassionada per la tecnologia i la IA.