¿Cómo usar la inteligencia artificial con seguridad?
La inteligencia artificial (IA) ha llegado al ámbito sanitario para quedarse. Cada vez hay más sistemas que ayudan a interpretar pruebas, detectar patrones clínicos o incluso anticipar riesgos en pacientes. Pero, como ocurre con cualquier tecnología emergente, su uso debe ir acompañado de una reflexión profunda sobre la seguridad, la ética y la protección de los datos que se manejan.
El Servicio de Salud de las Islas Baleares, en el marco del nuevo Código de buenas prácticas aprobado por la Instrucción 8/2025, ha establecido criterios claros para garantizar que la IA se use de forma responsable, especialmente en procesos tan delicados como el diagnóstico médico.
¿Por qué hay que tener cuidado?
Aunque la IA puede ser una gran aliada, también puede generar problemas si no se gestiona adecuadamente. Por ejemplo, un algoritmo mal entrenado o manipulado puede ofrecer resultados erróneos. Si esos resultados se utilizan para tomar decisiones clínicas, el impacto sobre la salud del paciente puede ser grave.
Además, muchos modelos de IA requieren grandes volúmenes de datos para funcionar. Si esos datos no están bien protegidos o si se usan sin autorización, se pone en riesgo la privacidad de los pacientes. Por eso, el punto 15 de la Instrucción 8/2025 insiste en que ningún sistema de IA puede usar datos clínicos sin la validación expresa del Servicio de Salud.
¿Qué se espera de los profesionales del Servicio de Salud?
La instrucción en el ámbito del Servicio de Salud de las Islas Baleares es clara: todo tratamiento de IA requiere autorización previa. Esto incluye tanto herramientas comerciales como plataformas gratuitas que puedan parecer útiles pero que no han sido auditadas ni aprobadas por los comités correspondientes. Antes de implantar cualquier sistema hay que hacer una evaluación de impacto en la privacidad y garantizar que el sistema permite trazar y explicar las decisiones que se tomen.
Asimismo, el Código de buenas prácticas recuerda que los pacientes tienen derecho a saber si se está usando IA para atenderlos. La transparencia no es solo una buena práctica: es una obligación ética.
¿Qué se puede hacer en el día a día?
- Si tiene dudas sobre una herramienta de IA, consulte a la Oficina de Seguridad de la Información.
- No use plataformas externas al Servicio de Salud para hacer diagnósticos clínicos, por muy sofisticadas que parezcan.
- Participe en las acciones de formación que se ofrecen sobre tecnologías emergentes, ética digital y protección de datos.
- Informe a los pacientescuando la IA forme parte del proceso asistencial y asegúrese de que comprenden qué papel juega.
Un compromiso colectivo
La seguridad en el uso de la IA no depende únicamente de normas escritas, sino que eepende sobre todo del compromiso de cada cual. Como profesional del Servicio de Salud, tiene la oportunidad de contribuir activamente a hacer que estas tecnologías se integren de forma ética, segura y útil en nuestro sistema de salud.
Si detecta una posible mejora, una necesidad formativa o una situación que pueda poner en riesgo la seguridad de los datos o la calidad asistencial, comuníquelo. La colaboración entre profesionales, técnicos y responsables de seguridad es fundamental para que la IA sea una herramienta que realmente beneficie a los pacientes y fortalezca nuestra labor.
En resumen
La IA puede ser una gran aliada en la labor asistencial, pero solo si se usa con responsabilidad, ética y dentro del marco normativo. La Instrucción 8/2025 ofrece una guía clara.
Además, el 2 de agosto de 2025 entró en vigor el régimen sancionador del Reglamento europeo de inteligencia artificial, que marca un punto de inflexión en la supervisión de estas tecnologías. Este régimen se basa en el capítulo XII del Reglamento (UE) 2024/1689 y permite a las autoridades estatales y europeas imponer sanciones por infracciones graves, como el uso de sistemas de IA prohibidos —por ejemplo, los que manipulan el comportamiento humano de forma subliminal, aplican puntuación social o usan el reconocimiento biométrico en tiempo real en espacios públicos.
Las sanciones pueden alcanzar la cifra de 35 millones de euros o el 7 % de la facturación anual global de la entidad infractora. Además, se establecen estas exigencias para los proveedores y los responsables del despliegue de sistemas de IA:
- Clasificar correctamente los sistemas según el nivel de riesgo.
- Elaborar documentación técnica detallada.
- Implementar medidas de supervisión humana y protección contras los usos indebidos.
- Garantizar la transparencia sobre las capacidades y las limitaciones de los modelos.
En España, la Agencia Española de Supervisión de la Inteligencia Artificial es la encargada de aplicar estas sanciones, en coordinación con la Agencia Española de Protección de Datos cuando se trate de protección de datos personales.
Este nuevo marco legal no solo refuerza la seguridad jurídica, sino que también recuerda que el uso de la IA en el ámbito de la salud debe estar siempre alineado con los valores fundamentales de la Unión Europea: dignidad humana, privacidad, equidad y no discriminación.
