Del producte al sistema cognitiu
El Product Management ha estat, durant anys, la disciplina encarregada de liderar el desenvolupament de productes digitals. El mantra era clar: entendre l’usuari, definir el problema, prioritzar bé, col·laborar amb equips tècnics i lliurar valor de forma iterativa. Però aquest model ha caducat.
La IA està transformant no només el que podem construir, sinó el com, el per a què i sota quins principis ho fem. El canvi és més estructural que incremental. El que abans era producte, ara és un sistema cognitiu. El que abans era backlog, ara és arquitectura algorítmica. L’AI Product Management és una evolució de la disciplina tradicional a alguna cosa més complexa i menys controlable.
Què és (i què no és) l’AI Product Management
L’AI Product Management no es limita a traduir necessitats de negoci en requisits ni a gestionar funcionalitats. Es converteix en una pràctica que comprèn arquitectures algorítmiques, integració de models de llenguatge, límits morals, sistemes d’inferència i governança d’agents.
El pensament clàssic basat en backlogs, roadmaps i MVPs és insuficient. Treballem amb sistemes adaptatius, estocàstics, que actuen per si mateixos. El producte ja no és el que el sistema “fa”, sinó com decideix fer-ho, en quin context, amb quines dades i sota quins principis d’autonomia, traçabilitat i alineació.
Això ens obliga a fer-nos preguntes noves: Quin tipus d’agència li atorguem a aquest sistema? En quines condicions pot o no actuar? Com sabrem si el que fa és «bo» o «correcte»? Quins graus de reversibilitat i control té l’usuari final?
El delivery ja no és una feature. És un comportament autònom. Una acció futura. Una resposta probabilística. Una decisió contextual.
Dissenyar capacitats: del flux al comportament
El nou AI Product Management ha d’operar amb un marc que articuli almenys tres nivells interconnectats:
Disseny de capacitats cognitives: Què sap el sistema? Què infereix? Què memoritza? Què oblida? Què decideix?
Orquestració de sistemes: Amb què es connecta el sistema? Quines dades necessita? Com interactua amb altres models o agents? Quines funcions automatitza?
Governança i conseqüències: Qui respon quan el sistema s’equivoca? On són els límits de l’autonomia? Com es corregeixen errors sense deteriorar la confiança?
Exemple 1: Gestió de sinistres amb RAG
Una asseguradora desplega un sistema IA de resolució semiautònoma de sinistres. L’agent, basat en un model LLM amb accés RAG, indexa documents interns, informes mèdics, tiquets i normatives. Quan arriba un nou cas, el sistema consulta context, proposa una resolució i genera un informe justificatiu. Fins i tot calcula l’impacte econòmic i proposa alternatives.
L’AI Product Management ha definit quins casos es resolen sense intervenció humana, quins casos es resolen amb interacció humana (human-in-the-loop), els límits d’import i riscos, els patrons de frau i els mecanismes d’explicabilitat per a auditories.
Exemple 2: Suport tècnic SaaS amb agents autònoms
Un entorn SaaS incorpora un sistema IA de suport. Ja no hi ha només respostes: hi ha decisions. Si detecta una configuració errònia, la repara, informa el client i documenta l’acció. L’AI Product Management defineix els llindars d’intervenció, els logs, el to de l’agent i el seu comportament en escenaris ambigus.
Exemple 3: Plataforma intel·ligent d’aprenentatge personalitzada
Un sistema IA d’e-learning adapta els continguts a cada estudiant: ritme, estil cognitiu, errors, preferències. Detecta frustració, repeteix conceptes creativament i suggereix reptes. L’AI Product Management defineix els límits de personalització, protegeix la diversitat cognitiva i evita biaixos o bucles de confirmació.
Noves competències de l’AI Product Manager
Comprensió arquitectònica
L’AI Product Manager no necessita programar, però sí entendre com funciona un LLM, com es connecta amb un vector store, com es recupera context en un sistema RAG, què implica el top-k de documents, com afecten els prompts mal dissenyats al comportament emergent.
De gestionar entregables a dissenyar agents
Ja no dissenyem pantalles: dissenyem sistemes que actuen. Cada component ha de pensar-se com una capacitat cognitiva. L’AI Product Manager dissenya intencions delegades, comportaments autònoms, accions situades en contexts dinàmics.
Governança algorítmica i experiència interactiva
No hi ha agència sense frens. L’AI Product Manager defineix mecanismes de rendició de comptes, punts d’intervenció humana, explicabilitat, reversibilitat. I dissenya com se sent interactuar amb un sistema que decideix, que anticipa, que demana disculpes. Defineix personalitat, to i estil de l’agent.
Redissenyar les organitzacions per pensar amb IA
La transformació no s’acaba en el producte: s’estén als processos i la cultura. El veritable canvi ocorre quan els equips d’atenció al client, legal, màrqueting o operacions comencen a pensar amb IA.
Empoderar no és només capacitar, sinó dissenyar entorns on qualsevol membre pugui prototipar amb agents, automatitzar decisions i reconfigurar fluxos. Quines tasques repetitives podria fer un agent avui? Quines decisions centralitzades podrien distribuir-se amb IA? Quins casos exigeixen deliberació humana?
L’AI Product Management, més que un rol, es dissol entre aquells que han entès l’impacte de la IA, i ja no pensen en outputs, sinó en ecologies de decisió. La integració d’IA no és una capa funcional. És una transformació de com es prioritza, com es comunica, com es governa.
Infraestructura, poder i política del disseny
Fins aquí he parlat de capacitats, sistemes i organitzacions. Però hi ha un nivell més profund —i incòmode—: qui dissenya, qui decideix, qui se’n beneficia?
Les grans LLMs (GPT, Claude, Gemini…) no són béns públics ni eines neutres. Són infraestructures cognitives en mans de poques empreses privades, amb incentius opacs, sovint incompatibles amb la transparència, l’autonomia d’usuaris o la redistribució de poder.
Els exemples anteriors, encara que aparentment senzills, no han de ser simplificats.
En l’exemple de la gestió de sinistres, caldrà garantir no només la traçabilitat tècnica de les decisions, sinó també la comprensió i la capacitat de reclamació per part dels assegurats. L’explicabilitat haurà d’orientar-se a l’usuari final, no només als auditors, i incloure mecanismes accessibles per qüestionar decisions automatitzades. A més, caldrà contemplar com es distribueix la responsabilitat quan el sistema actua sense intervenció humana.
En l’exemple del suport tècnic en SaaS, serà clau definir amb precisió els llindars d’autonomia de l’agent, incloent-hi criteris explícits per a la intervenció humana. També caldrà dissenyar mecanismes de validació d’accions correctives invisibles per a l’usuari, i assegurar la coherència entre el to de l’agent, el seu comportament i les expectatives del client. El disseny haurà de contemplar la gestió d’errors silenciosos i la documentació transparent de les decisions automatitzades.
En l’exemple de l’e-learning, la personalització haurà d’anar acompanyada de salvaguardes que protegeixin la diversitat cognitiva i evitin l’homogeneïtzació. Caldrà auditar regularment els models per detectar biaixos culturals o pedagògics, i establir límits a l’adaptació excessiva que pugui tancar l’estudiant en el seu perfil actual. També haurà de contemplar-se la intervenció pedagògica humana com a contrapès a les decisions del sistema.
Dissenyar amb IA significa treballar sobre sistemes que no controlem del tot, construïts per altres, amb regles que sovint no podem veure ni modificar. L’AI Product Management no hauria de limitar-se a fer que les coses funcionin o que els sistemes siguin eficients. La seva funció és garantir que, quan una màquina pren decisions, aquestes decisions puguin entendre’s, revisar-se i corregir-se. No n’hi ha prou amb complir el mínim ni amb afegir una capa ètica superficial. És necessari integrar des del principi la possibilitat d’intervenir, d’explicar el que ha ocorregut i d’ajustar el sistema si és necessari. Cal formular totes les preguntes, des de totes les perspectives. Dissenyar bé no és fer que tot sembli fàcil o automàtic, sinó explicitar els límits, els impactes i les dependències. El disseny ha de deixar a la vista les condicions tècniques, polítiques i materials que configuren el comportament del sistema.
Per cert, té sentit continuar parlant de «producte»?
El concepte de producte implica un objecte definit, amb funcionalitats delimitades i un cicle de vida gestionable. Però els sistemes d’IA generativa no es comporten així: són fluids, adaptatius, mutables. No lliuren un resultat fix, sinó comportaments en temps real. Operen en múltiples capes: tècnica, semàntica, ètica, legal, emocional i política.
Anomenar-los productes és una forma de mantenir la il·lusió de control. Una nostàlgia de marcs gestionables. Però el que està en joc és més que una entrega: és una delegació d’agència.
No necessitem més Product Managers en el sentit clàssic del terme. Necessitem dissenyadors d’agència algorítmica, curadors de context i arquitectes de conseqüències. Perquè el que abans es gestionava com «producte», ara actua i decideix.
Conclusió
La transició del Product Management a l’AI Product Management no és simplement una millora tècnica. És un desplaçament cultural, polític i de visió del coneixement i cultural. L’AI Product Manager no ha de limitar-se a orquestrar decisions algorítmiques. Ha de preguntar-se a qui serveixen, qui queda fora, qui decideix com pensem i amb quins límits.
Dissenyar sistemes intel·ligents no és neutre. Cada decisió tècnica és una aposta política. Tota delegació algorítmica redistribueix agència, poder i responsabilitat.
Pensar producte quan el producte pensa ja és complex. El repte és major: és pensar societat quan les màquines decideixen.
Glossari i conceptes clau del text
- Models de llenguatge (LLM): Large Language Models. Són models entrenats amb grans volums de text que poden generar, resumir, traduir o respondre preguntes en llenguatge natural. No «entenen» com un humà, però infereixen patrons complexos amb precisió estadística. Exemples: GPT-4o, Claude, Gemini.
- Agents d’IA: Instàncies autònomes basades en models de llenguatge que prenen decisions, executen accions i aprenen del seu entorn. No es limiten a respondre: poden interactuar amb APIs, consultar bases de dades, programar tasques i modificar fluxos de treball.
- Workflow vs agent: Mentre un workflow descriu una seqüència lineal o condicional de passos predeterminats, un agent es mou de forma més adaptativa, pren decisions en temps real, explora rutes i modifica les seves accions en funció de l’entorn. Els workflows són prescriptius; els agents són inferencials. Un AI PM ha de saber quan convé usar un o altre, i com articular ambdós si coexisteixen. La diferència implica preguntar-se si estem programant accions o delegant decisions.
- Orquestració d’agents: Disseny i coordinació de múltiples agents que col·laboren o es reparteixen tasques dins d’un sistema. Inclou com es comuniquen, com es supervisen entre si i com es resolen conflictes o redundàncies.
- RAG (Retrieval-Augmented Generation): Arquitectura que combina generació de llenguatge amb recuperació d’informació. El model accedeix a un repositori de dades vectoritzat, recupera documents rellevants i genera respostes basades en aquest context. Permet respostes més precises, actualitzades i auditables.
- Retrieval vs grounding: Retrieval és el procés de recuperar informació externa (p. ex., documents) per alimentar un model. Grounding és assegurar que la resposta del model es basi en aquesta informació i no en invencions del model. És possible recuperar dades correctes i encara així tenir al·lucinacions si no s’assegura el grounding.
- Store vectorial: Base de dades especialitzada en emmagatzemar representacions vectoritzades de text (embeddings). Permet cerques semàntiques: es recupera el contingut més «semblant» (similitud de significat) a l’input, encara que no coincideixi literalment. És essencial per implementar sistemes RAG.
- Embeddings: Representacions numèriques (vectors) que capturen el significat semàntic de paraules, frases o documents. Permeten que els models de llenguatge comparin similituds de contingut de forma matemàtica. Són la base de les cerques semàntiques en stores vectorials.
- Base de dades vectorial vs base de dades relacional: Una base vectorial emmagatzema representacions numèriques de textos, imatges o altres dades. Permet cerques semàntiques: per «similitud de significat».Una base relacional emmagatzema dades estructurades (taules, files, columnes) i permet cerques exactes o condicionals. Ambdues poden coexistir.
- Top-k de documents recuperats: Paràmetre que defineix quants documents es tornen des del store vectorial per ser processats pel model. Determina la profunditat i qualitat del context. Un valor massa baix pot generar respostes pobres; un de massa alt introdueix soroll i ambigüitat. Forma part dels anomenats hiperparàmetres de recuperació i és crític per al rendiment de sistemes RAG.
- Prompt: Instrucció o entrada que se li dona al model per generar una resposta. El disseny de prompts s’ha convertit en una disciplina clau, ja que determina el comportament, to i precisió de la IA.
- Context window (finestra de context): Quantitat màxima d’informació (tokens) que un model pot processar en una única interacció. Limita quanta informació històrica o externa pot considerar-se en una resposta. Si se supera, part del context es perd o és truncat, afectant la qualitat de la inferència.
- Al·lucinació: Fenomen en el qual un model de llenguatge genera una resposta que és gramaticalment coherent però fefaentment falsa. Ocorre quan el model infereix patrons sense suficient informació real o contextual. És un dels principals reptes en l’adopció d’IA generativa en entorns crítics.
- Governança algorítmica: Conjunt de principis, mecanismes i regles que regulen el comportament d’un sistema algorítmic. Inclou límits d’actuació, supervisió humana, drets de l’usuari, control de biaixos i mecanismes de correcció.
- Feedback loop: Cicle de retroalimentació que permet a un sistema d’IA aprendre dels seus propis errors, encerts o del comportament de l’usuari. Pot ser automàtic (reinforcement learning) o mediat (revisió humana).
- Capacitat cognitiva delegada: Funció o decisió que abans prenia un humà i que ara es transfereix a un sistema intel·ligent. Pot anar des de respondre preguntes fins a proposar solucions, analitzar riscos o prendre decisions de negoci.
- Human-in-the-Loop (HITL): En sistemes d’IA, Human-in-the-Loop es refereix a un enfocament en el qual les persones participen activament en el cicle de decisió del sistema automatitzat. Aquesta intervenció humana pot donar-se per supervisar, validar, corregir o enriquir les sortides de la IA, especialment en tasques crítiques, ambigües o èticament sensibles. El model HITL permet combinar l’eficiència dels algoritmes amb el judici i la responsabilitat humanes, assegurant major precisió, control i alineació amb valors socials o normatius.
Obre un parèntesi en les teves rutines. Subscriu-te a la nostra newsletter i posa’t al dia en tecnologia, IA i mitjans de comunicació.
