Com s’ha d’emprar la intel·ligència artificial amb seguretat?
La intel·ligència artificial (IA) ha arribat a l’àmbit sanitari per quedar-hi. Cada vegada hi ha més sistemes que ajuden a interpretar proves, detectar patrons clínics o fins i tot anticipar riscs en pacients. Però, com passa amb qualsevol tecnologia emergent, l’ús ha d’anar acompanyat d’una reflexió profunda sobre la seguretat, l’ètica i la protecció de les dades que es manegen.
El Servei de Salut de les Illes Balears, en el marc del nou Codi de bones pràctiques aprovat per la Instrucció 8/2025, ha establert criteris clars per garantir que la IA s’empri de manera responsable, especialment en processos tan delicats com el diagnòstic mèdic.
Per què s’ha d’anar alerta?
Encara que la IA pot ser una gran aliada, també pot generar problemes si no es gestiona adequadament. Per exemple, un algorisme mal entrenat o manipulat pot oferir resultats erronis. Si aquests resultats s’utilitzen per prendre decisions clíniques, l’impacte sobre la salut del pacient pot ser greu.
A més, molts de models d’IA requereixen grans volums de dades per funcionar. Si aquestes dades no estan ben protegides o si s’empren sense autorització, es posa en risc la privacitat dels pacients. Per això, el punt 15 de la Instrucció 8/2025 insisteix que cap sistema d’IA pot emprar dades clíniques sense la validació expressa del Servei de Salut.
Què s’espera dels professionals del Servei de Salut?
La instrucció en l’àmbit del Servei de Salut de les Illes Balears és clara: tot tractament d’IA requereix autorització prèvia. Això inclou tant eines comercials com plataformes gratuïtes que puguin semblar útils però que no han estat auditades ni aprovades pels comitès corresponents. Abans d’implantar qualsevol sistema cal fer una avaluació d’impacte en la privacitat i garantir que el sistema permet traçar i explicar les decisions que es prenguin.
Així mateix, el Codi de bones pràctiques recorda que els pacients tenen dret a saber si s’està emprant IA per atendre’ls. La transparència no és només una bona pràctica: és una obligació ètica.
Què es pot fer en el dia a dia?
- Si teniu dubtes sobre una eina d’IA, consultau l’Oficina de Seguretat de la Informació.
- No empreu plataformes externes al Servei de Salut per fer diagnòstics clínics, per molt sofisticades que semblin.
- Participau en les accions de formació que s’ofereixen sobre tecnologies emergents, ètica digital i protecció de dades.
- Informau els pacients quan la IA formi part del procés assistencial i assegurau-vos que entenen quin paper juga.
Un compromís col·lectiu
La seguretat en l’ús de la IA artificial no depèn únicament de normes escrites, sinó que depèn sobretot del compromís de cadascú. Com a professional del Servei de Salut, teniu l’oportunitat de contribuir activament a fer que aquestes tecnologies s’integrin de manera ètica, segura i útil en el nostre sistema de salut.
Si detectau una possible millora, una necessitat formativa o una situació que pugui posar en risc la seguretat de les dades o la qualitat assistencial, comunicau-ho. La col·laboració entre professionals, tècnics i responsables de seguretat és fonamental perquè la IA sigui una eina que realment beneficiï els pacients i enforteixi la nostra tasca.
A tall de resum
La IA pot ser una gran aliada en la tasca assistencial, però només si s’empra amb responsabilitat, ètica i dins el marc normatiu. La Instrucció 8/2025 n’ofereix una guia clara.
A més, el 2 d’agost de 2025 va entrar en vigor el règim sancionador del Reglament europeu d’intel·ligència artificial, que marca un punt d’inflexió en la supervisió d’aquestes tecnologies. Aquest règim es basa en el capítol XII del Reglament (UE) 2024/1689 i permet a les autoritats estatals i europees imposar sancions per infraccions greus, com ara l’ús de sistemes d’IA prohibits —per exemple, els que manipulen el comportament humà de manera subliminar, apliquen puntuació social o empren el reconeixement biomètric en temps real en espais públics.
Les sancions poden assolir la xifra de 35 milions d’euros o el 7 % de la facturació anual global de l’entitat infractora. A més, s’estableixen aquestes exigències per als proveïdors i per als responsables del desplegament de sistemes d’IA:
- Classificar correctament els sistemes segons el nivell de risc.
- Elaborar documentació tècnica detallada.
- Implementar mesures de supervisió humana i protecció contres els usos indeguts.
- Garantir la transparència sobre les capacitats i les limitacions dels models.
A Espanya, l’Agència Espanyola de Supervisió de la Intel·ligència Artificial és l’encarregada d’aplicar aquestes sancions, en coordinació amb l’Agència Espanyola de Protecció de Dades quan es tracti de protecció de dades personals.
Aquest nou marc legal no només reforça la seguretat jurídica, sinó que també recorda que l’ús de la IA en l’àmbit de la salut ha d’estar sempre alineat amb els valors fonamentals de la Unió Europea: dignitat humana, privacitat, equitat i no-discriminació.
