Un empresari va utilitzar un avatar virtual per superar els seus problemes d’expressió i la jutgessa el va acusar de convertir el judici en un anunci publicitari.
El passat 26 de març de 2025, Jerome Dewald, un empresari de 74 anys, va sorprendre la sala del Tribunal d’Apel·lacions de l’Estat de Nova York en presentar els seus arguments mitjançant un avatar generat per intel·ligència artificial (IA). Dewald, fundador d’una startup que busca «revolucionar l’auto-representació legal amb IA», va fer servir aquest mètode sense informar prèviament el tribunal, cosa que va provocar una reacció immediata de la jutgessa Sallie Manzanet-Daniels, segons ha informat The Verge.
Durant l’audiència, en reproduir-se el vídeo de l’avatar, la jutgessa va interrompre ràpidament per qüestionar la identitat del presentador. Dewald va admetre que havia generat l’avatar utilitzant la plataforma Tavus, explicant que ho va fer a causa de dificultats personals per parlar durant un llarg període de temps. No obstant això, la jutgessa Manzanet-Daniels va expressar el seu descontentament per no haver estat informada prèviament, assenyalant que no apreciava ser enganyada i que el tribunal no seria usat com a plataforma per promocionar negocis.
Dewald posteriorment es va disculpar amb el tribunal, indicant que no tenia intenció de causar dany i que creia que l’avatar comunicaria el seu argument de manera més efectiva. Aquest cas reflecteix la necessitat d’establir límits clars i regulacions en la integració d’eines d’IA en l’àmbit legal, especialment quan el seu ús pot afectar la integritat i transparència dels procediments judicials.
Usos qüestionables de la IA en els judicis
De vegades, la justícia simplement es topa amb un mal ús de la IA. A Espanya, al setembre el Tribunal Constitucional va sancionar un advocat que havia citat fins a 19 sentències inventades per «faltar al respecte» al tribunal. Encara que l’advocat va al·legar que les cites falses van ser producte d’una “desconfiguració” de la seva base de dades de jurisprudència, els magistrats van desestimar aquesta explicació perquè no va aportar proves que la recolzessin. El seu origen podria estar perfectament en el mal ús de la IA, ja que de vegades pot ‘al·lucinar’ quan se li sol·licita cites textuals. Els magistrats van insistir que els advocats tenen la responsabilitat de verificar els seus escrits abans de presentar-los.
El 2023, precisament, dos advocats i un bufet van ser sancionats per presentar investigacions legals fictícies generades per ChatGPT. Així mateix, el febrer de 2025, l’empresa DoNotPay, que es promocionava com el «primer advocat robot del món», va ser multada amb 193.000 dòlars per la Comissió Federal de Comerç (FTC) per fer afirmacions enganyoses sobre les capacitats de la seva IA legal.
A mesura que la IA continua avançant i trobant aplicacions en diversos sectors, és essencial que el sistema judicial avaluï curosament com aquestes tecnologies poden ser incorporades sense comprometre els principis fonamentals de la justícia i la representació legal adequada.
Obre un parèntesi en les teves rutines. Subscriu-te al nostre butlletí i posa’t al dia en tecnologia, IA i mitjans de comunicació.