🔒
Hay nuevos artículos disponibles. Pincha para refrescar la página.
AnteayerSalida Principal

El aterrizaje de la IA en la sanidad pública: opaco, desigual y con escasa supervisión

17 Noviembre 2025 at 00:01
Por: CIVIO

Este artículo ha sido publicado originalmente en Civio y forma parte de su serie sobre transparencia algorítmica.

Ángela Bernardo, María Álvarez del VayoAdrián MaquedaCarmen Torrecillas y Ter García // “La Estrategia de Salud Digital del Sistema Nacional de Salud, que se lanzó en el 2021, está dotada con más de 1.000 millones de euros en planes colaborativos entre el Ministerio de Sanidad y las comunidades autónomas y ha sentado las bases para introducir tecnologías avanzadas de manera coordinada y de manera cohesionada, que creo que es muy importante”. Con estas palabras inauguraba Mónica García, ministra de Sanidad, el I Foro de Inteligencia Artificial para el Sistema de Salud, celebrado a mediados de septiembre. Sin embargo, sus buenos deseos chocan con la realidad que viven a diario los profesionales del Sistema Nacional de Salud consultados por Civio.

Aunque cada vez es mayor el número de algoritmos y sistemas de inteligencia artificial que se incorporan en la sanidad pública, su implementación está marcada por una enorme disparidad. “Hay diversidad por todo tipo, por comunidad autónoma, por hospitales, por campos, por todo. Básicamente, esto es una guerra: cada uno compra el software que quiere, el que puede o el que necesita”, dice Antonio López Rueda, portavoz de la Sociedad Española de Radiología Médica (SERAM) y radiólogo del Hospital Universitario de Bellvitge. Para Nuria Ribelles Entrena, portavoz de la Sociedad Española de Oncología Médica (SEOM) y oncóloga del Hospital Universitario Virgen de la Victoria de Málaga, existe “cero” coordinación para compartir o reutilizar tecnología: “Cada comunidad va por libre”.

Una integración poco transparente y desigual

En líneas generales, la incorporación de la IA en el Sistema Nacional de Salud se está haciendo de forma bastante opaca. “Los ciudadanos deberíamos tener el derecho de poder saber qué sistemas se están integrando, cómo fueron entrenados, qué datos de entrenamiento utilizaron, cómo se han comprado o si fue algo que está desarrollando la propia administración pública”, dice la jurista Anabel K. Arias, portavoz de la Federación de Consumidores y Usuarios (CECU). Sin embargo, solo dos comunidades autónomas, País Vasco y Generalitat Valenciana, cuentan con un registro público de algoritmos, incluyendo los que se aplican en salud. En opinión de Arias, la transparencia algorítmica “es relevante para poder hacer un control sobre lo que se está implementando en general en España y en la sanidad pública”.

Entre 2024 y 2025, Civio ha realizado, a través de la Ley de Transparencia, una veintena de solicitudes de acceso a la información pública a las consejerías autonómicas con competencias en sanidad o digitalización y al Ministerio de Sanidad. Dada la situación cambiante de la IA, intentamos además actualizar la información directamente con los gabinetes de prensa de cada departamento. Nuestra investigación arroja una situación tremendamente desigual: mientras la Comunidad de Madrid se acerca al centenar de proyectos basados en IA, con cada hospital actuando por cuenta propia; otras regiones, como Asturias, Galicia o la Comunidad Valenciana, han integrado un menor número de aplicaciones, en su mayoría centradas en el diagnóstico. Cataluña, por su parte, solo ha dado información parcial, amparándose en el secreto empresarial y en la protección de la propiedad intelectual e industrial.

“Si al final hay determinados hospitales o comunidades autónomas que están acelerando la incorporación de sistemas de IA en sus hospitales o servicios públicos y otros no, puede llegar a verse desde un punto de vista de la brecha digital: que algunas personas puedan tener un servicio de salud y otras, otro tipo completamente diferente”, apunta la jurista Anabel K. Arias. Aunque la IA se está integrando a velocidades distintas, parece evidente que su implementación se está acelerando a marchas forzadas. Por ejemplo, a mediados de 2024, Asturias o Castilla y León negaron contar con algoritmos, pero, unos meses más tarde, la situación era diferente pues introdujeron varios sistemas. “Es el problema del FOMO (fear of missing out), el miedo a quedarnos fuera: si no usas nada de IA, estás fuera de este mundo. Si usas algo, probablemente aparezcas en las noticias”, dice López Rueda.

En el Ministerio de Sanidad, la realidad también es bastante diferente. Dentro de este departamento, la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) ha desarrollado varios sistemas basados en procesamiento de lenguaje natural, incluido el fallido MeqA, que daba respuestas erróneas sobre medicamentos, mientras que el trabajo en la Dirección General de Salud Digital y Sistemas de Información para el SNS se ha centrado en dos aplicaciones, una para predecir “la expansión de enfermedades transmisibles” y otra para resolver dudas a quienes se presentan a las pruebas como el MIR.

También dentro del Ministerio, el Instituto de Gestión Sanitaria (INGESA) ha incorporado, por ejemplo, tecnología de reconocimiento facial con IA para fichar a pacientes de Ceuta y Melilla. En cambio, la Organización Nacional de Transplantes no ha contratado ni desarrollado por el momento sistemas basados en inteligencia artificial, a diferencia de lo ocurrido en Reino Unido. Allí, la implementación de un algoritmo conllevó discriminación hacia pacientes jóvenes en las listas de espera para recibir un órgano.

IA sanitaria: un auge sin suficientes garantías

El mapeo de Civio no permite saber en qué especialidades está más avanzada la inteligencia artificial, porque no todas las comunidades dan el mismo nivel ni detalle en la información. Pero donde sí hay datos se observa un patrón claro: muchas aplicaciones se incorporan para analizar imágenes médicas (por ejemplo, en radiología, dermatología, anatomía patológica), como también sucede en países como Estados Unidos. “El análisis de un píxel, que es la unidad básica de la imagen, es muchísimo más sencillo que el análisis del dato, de palabras, de texto. El análisis de texto escrito es muchísimo más complejo, por eso va mucho más retrasado”, explica la oncóloga Ribelles Entrena.

Otros sistemas que se están integrando con rapidez son los que permiten gestionar de forma automatizada la información clínica, por ejemplo, para transcribir automáticamente la conversación entre profesionales y pacientes o para asignar códigos a los diagnósticos en urgencias. “Uno de los principales avances que esperamos es toda la tecnología de IA que tiene que ver con el lenguaje natural, ya que disminuir la ingente burocracia que asumimos en las consultas y que consume la mayor parte del tiempo de que disponemos permitiría poder centrarnos de manera más directa en lo que espera de nosotros el paciente: que le miremos a los ojos en vez de estar tecleando y mirando a la pantalla”, dice Rosa Taberner Ferrer, dermatóloga en el Hospital Son Llàtzer de Mallorca. Y añade: “Es lo que de verdad dará un giro de 180º a nuestras consultas”.

“Estamos en unas etapas muy iniciales de lo que puede ser la IA en oncología o en cualquier otra especialidad, quitando anatomía patológica, radiología o dermatología, donde está más desarrollada”, asegura Ribelles Entrena. No obstante, incluso donde hay más avances, la limitada digitalización del sistema sanitario dificulta la implementación del software y su integración en los flujos habituales de trabajo. Por ejemplo, en radiología se utiliza el llamado sistema de almacenamiento de imágenes médicas (PACS, por sus siglas en inglés) y cualquier desarrollo de IA debe adaptarse a la plataforma concreta que se aplique. “La única comunidad que tiene un PACS es Andalucía; aquí en Cataluña no tenemos un PACS único. Por tanto, si quiero implementar un software de imagen médica, necesito implementarlo y adaptarlo a seis, siete u ocho PACS diferentes. Y cada PACS tiene su intríngulis”, explica López Rueda.

Los especialistas consultados por Civio también advierten de la necesidad de mantener una postura crítica. Los sistemas de IA sanitaria suelen clasificarse en función de su finalidad y riesgo dentro de la clase IIa del reglamento europeo sobre productos sanitarios —salvo excepciones que puedan suponer mayores riesgos para los pacientes—. Por ello, deben contar con el marcado CE para poder ser comercializados, lo que a su vez exige realizar investigaciones clínicas al respecto. No obstante, muchos de estos software no se han probado en las condiciones necesarias, es decir, no han llegado a demostrar que brinden resultados superiores y mejores a lo que se utiliza en la actualidad.

“Tenemos que ser reticentes a la hora de implementar esto en la práctica asistencial. Deberíamos exigir: uno, estudios aleatorizados que demuestren que la lectura de la máquina es superior a la del especialista y dos, que este tipo de implementaciones son costo-eficaces”, señala López Rueda. Sin embargo, la situación actual dista de ser idónea. En palabras de Josep Malvehy Guilera, director de la Unidad de Cáncer cutáneo del Hospital Clínic de Barcelona: “Hay desconocimiento por parte de los profesionales, los usuarios que van a utilizar esto. Tengo la impresión que también por parte de los responsables de la compra de estos productos, porque si no exigirían algo más”. De hecho, tanto fuera como dentro de España, la mayoría de algoritmos no se han evaluado en estudios rigurosos (de carácter prospectivo o en ensayos clínicos aleatorizados), lo que implica que faltan validaciones externas e independientes. “Hay que exigir un poco más de seriedad. Si hiciéramos lo mismo con un antibiótico, nos meterían en la cárcel”, zanja Malvehy Guilera.

La entrada El aterrizaje de la IA en la sanidad pública: opaco, desigual y con escasa supervisión se publicó primero en lamarea.com.

Cuando tu médica es una IA

9 Octubre 2025 at 14:28
Por: CIVIO

Este artículo ha sido publicado originalmente en CIVIO.

ÁNGELA BERNARDO y MARÍA ÁLVAREZ DEL VAYO // Imagina que entras en la consulta de oftalmología y te topas con algo diferente: una cabina blanca, en cuyo centro hay un agujero que recuerda al ojo humano. Los dos profesionales que te atienden, tras realizarte una prueba para evaluar la agudeza visual, te invitan a situarte pegada al aparato. En menos de diez minutos, un sistema robotizado te realiza más de cien mediciones oculares, mientras una voz automática repite que abras y cierres los ojos, pestañees o mantengas fija la mirada, entre otras instrucciones. Al terminar, por sorpresa, te entregan un papel donde dice que la exploración se ha hecho “con un sistema de screening basado en inteligencia artificial”, algo de lo que nadie te ha advertido.

Esta no es una historia imaginaria: es exactamente lo que le ocurrió a una de las autoras de este reportaje. La cabina en realidad se llama Eyelib, un robot que incorpora un agente virtual llamado Ariane para el diagnóstico oftalmológico mediante algoritmos de IA con los que detectar problemas de visión como la miopía, las cataratas o el glaucoma. En el Hospital Universitario La Paz de Madrid, lleva funcionando, al menos, desde principios de 2024 en tres centros de especialidades. En total, el hospital ha desembolsado algo más de 1,2 millones de euros, repartidos en varios contratos públicos adjudicados a Health Market Consulting, la consultora valenciana que distribuye el robot en España bajo la marca comercial “DORIA (Diagnóstico Oftalmológico Robotizado mediante Inteligencia Artificial)”, la misma que aparece en las consultas de los centros sanitarios públicos que lo han implantado.

El jefe del servicio de oftalmología del Hospital La Paz, Félix Armadá-Maresca, explicó en una conferencia con el distópico título “Bye bye Primaria Oftalmología” que estaban “saturados” y “con los recursos totalmente bloqueados” ante unas listas de espera que, tras la pandemia, estaban “subiendo a toda velocidad”. Según dijo Armadá-Maresca, como Eyelib puede explorar “grandes volúmenes de pacientes en poco tiempo”, podría ser una posible solución contra las elevadas listas de espera. Sin embargo, los datos oficiales del Servicio Madrileño de Salud contradicen estas expectativas: tanto el número de pacientes como la demora media en las consultas externas de oftalmología de La Paz han empeorado ligeramente en el último año y medio.

Cuando tu médica es una IA
Foto: Hospital Universitario La Paz

Menos optimista sobre el uso del robot con IA es Francisco José Muñoz Negrete, jefe del servicio de oftalmología del Hospital Universitario Ramón y Cajal de Madrid y catedrático de la Universidad de Alcalá de Henares. En una jornada organizada por la Federación de Asociaciones Científico-Médicas Españolas (FACME), reconoció que la cabina de diagnóstico inteligente hacía una “exploración oftalmológica exhaustiva y completa”, pero que “globalmente es menos eficiente” que un oftalmólogo pues veía a un menor número de pacientes. Además, de acuerdo con Muñoz Negrete, Eyelib “ahora mismo no resulta costo-eficiente”: cada informe, cuyo precio situó en torno a 80 euros por persona, debe ser supervisado por un especialista en oftalmología, lo que incrementa sustancialmente el coste final.

Eyelib no es el único sistema que utiliza algoritmos de IA para el diagnóstico de problemas de la vista. En Navarra, por ejemplo, el Servicio Navarro de Salud-Osasunbidea y el Servicio de Oftalmología del Hospital Universitario de Navarra han desarrollado, desde lo público, dos aplicaciones para tratar la pérdida de visión asociada a la edad (NaIA-DMAE) y para detectar alteraciones en la retina (NaIA-Retinopatía diabética). En otras especialidades, según una investigación realizada por Civio, los sistemas basados en IA se están integrando para analizar imágenes médicas en radiología y dermatología, para el reconocimiento facial de pacientes, para ayudar en los tratamientos de radioterapia o para gestionar la planificación quirúrgica.

Algunas comunidades también trabajan en aplicaciones específicas: Castilla y León, en un sistema para priorizar pacientes de forma automatizada en urgencias hospitalarias; mientras que Galicia hace lo propio por integrar las ecografías con IA en decenas de centros de salud de Atención Primaria. Además, otras regiones, como Extremadura —en el área de salud de Plasencia—, y la Comunidad de Madrid —en los hospitales universitarios de La Paz y Getafe—, disponen de un asistente conversacional que llama a pacientes con cáncer de próstata para que, en el caso de registrar alguna anomalía, se avise al centro sanitario. Este chatbot, desarrollado por la empresa Tucuvi con la colaboración de la farmacéutica Astrazeneca, se llama Lola, como ocurre con otros asistentes virtuales con roles de cuidado, lo que puede perpetuar estereotipos de género.

Luces y sombras de los algoritmos en medicina

“La inteligencia artificial ha venido para solucionar no solo lo gordo que es el diagnóstico, sino para ayudarnos en el día a día una barbaridad”, dice Julián Conejo-Mir, catedrático y jefe de servicio de dermatología en el Hospital Universitario Virgen del Rocío de Sevilla. Sin embargo, el especialista también añade: “No viene a suplantar a nadie ni ahorra puestos de trabajo, eso es mentira”, algo en lo que también coinciden otros especialistas. Incluso la propia ministra de Sanidad, Mónica García, señaló recientemente que “la inteligencia artificial viene a complementar” a los profesionales, “en ningún caso a reemplazar o sustituir”.

Ignasi Barber Martínez de la Torre, portavoz de la Sociedad Española de Radiología Pediátrica (SERPE) y jefe de servicio de radiología pediátrica del Hospital Sant Joan de Déu, destaca su utilidad, por ejemplo, en la realización de resonancias magnéticas, donde los pacientes deben estar totalmente quietos: “Si el software de inteligencia artificial permite acelerar la adquisición de imágenes y reducir el tiempo de la prueba, el beneficio puede ser tan importante como no anestesiar a un niño”.

Para la jurista Anabel K. Arias, portavoz de la Federación de Consumidores y Usuarios (CECU), el uso de la IA “puede ser beneficioso en el sentido de que ayude a detectar, por ejemplo, enfermedades de forma temprana o hacer diagnóstico”, aunque “se tiene que tener una perspectiva crítica a la hora de incorporar esta tecnología en un sector tan delicado como la sanidad pública”. Según José Juan Pereyra Rodríguez, jefe de sección de dermatología en el Hospital Universitario Virgen del Rocío de Sevilla, “la máquina no se cansa nunca”, pero advierte sobre la necesidad de ser especialmente cautos en su adopción porque “hay mucho vendehúmos”.

Una precaución que reflejan las investigadoras del CSIC Miriam Cobo Cano y Lara Lloret en su libro Inteligencia artificial en medicina: cuando desarrollaron un algoritmo para detectar casos de neumonía por COVID-19 a partir de radiografías, el sistema parecía tener una “eficiencia cercana al 100%”, por lo que quisieron verificar su robustez. Ahí descubrieron que el sistema “había aprendido que un paciente que se hacía la radiografía encogido de hombros (seguramente porque le costaba respirar) era un paciente enfermo de neumonía”. Es decir, que hacía una falsa correlación antes de dar el diagnóstico, un fallo que por suerte identificaron antes de llevarlo a la práctica clínica real.

No todos los errores se detectan a tiempo. MeqA, un asistente online que la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) abrió al público en mayo para que la ciudadanía pudiera consultar sobre fármacos, ilustra los riesgos de implementar sistemas sin suficiente supervisión. Este consultorio, que generaba respuestas como si fuera una persona de carne y hueso, no estaba bien entrenado y cometía grandes fallos: por ejemplo, cuando Civio preguntó “Ibuprofeno. ¿Cuál es el factorial de 5?”, se ponía a hacer cálculos matemáticos. Otros usuarios denunciaron en redes sociales que MeqA también recomendaba dosis excesivas de Apiretal para niños o mezclas de paracetamol con alcohol, al confundir la expresión “agua de Valencia” con “agua”. Ante los errores detectados, Sanidad deshabilitó temporalmente la herramienta.

Sermas GPT es otro ejemplo: este sistema de IA generativa, que se desplegó para ayudar al diagnóstico de enfermedades raras en Atención Primaria de la Comunidad de Madrid, también comete fallos. Alberto, un médico de familia de la región, probó la herramienta introduciendo los síntomas y rasgos clínicos de su hija, que padece una enfermedad rara desde hace años, pero “no acertó ni una”, según recogió la periodista Marilín Gonzalo en Newtral.

Las preocupaciones que suscita la IA

El caso de Eyelib en La Paz ilustra además un problema más profundo relacionado con la externalización de la atención sanitaria. Según explicó Armadá-Maresca en su conferencia “Bye bye Primaria Oftalmología”, son “dos ópticos” de la propia empresa fabricante, no empleados públicos del hospital, los que gestionan el funcionamiento del robot en consulta, con el fin de filtrar qué pacientes son vistos finalmente por el especialista. Es decir, el primer contacto diagnóstico se deja en manos de una tecnología privada, lo que puede conllevar una deshumanización de la asistencia o a incumplir exigencias básicas como informar previamente a los pacientes sobre el uso de sistemas que toman decisiones automatizadas, como pasa con Eyelib.

Estos no son los únicos riesgos. “Las personas tienden a fiarse bastante de la decisión que recomienda la IA. Lo que vemos es que muchas veces si la IA se equivoca, las personas se equivocan también”, dice Helena Matute Greño, catedrática de psicología experimental de la Universidad de Deusto. Los estudios que ha realizado su equipo muestran que los algoritmos, tanto en sanidad como en otros ámbitos, ejercen una suerte de efecto de autoridad del que pocos desconfían. Se trata “a la IA casi como un maestro que lo sabe todo, para lo bueno y para lo malo. No ponemos en duda lo que nos está comentando la máquina”, explica.

A medio o largo plazo, la dependencia de los algoritmos puede conllevar además una pérdida de habilidades profesionales conocida como deskilling. Nuria Ribelles Entrena, portavoz de la Sociedad Española de Oncología Médica (SEOM) y oncóloga del Hospital Universitario Virgen de la Victoria de Málaga, muestra así su preocupación: “Lo que más miedo me da, lo que más respeto me da, es que lleguemos a depender en cierta medida de la IA. Y que eso pueda disminuir nuestra capacidad de razonamiento clínico, la capacidad para hacer todo el proceso diagnóstico de un paciente, que eso es lo que nosotros tenemos que aprender a hacer y lo que mejor sabemos hacer con la experiencia”.

¿Y si fallan los algoritmos?

Antonio López Rueda, portavoz de la Sociedad Española de Radiología Médica (SERAM) y radiólogo del Hospital Universitario de Bellvitge, también se muestra crítico: “Nos gustaría que estos algoritmos suplieran o complementaran la inexperiencia en algunas cosas. Pero estamos viendo que también pueden confundir”, haciendo que se incurra “en más errores”. En sus experimentos, precisamente, el grupo de Matute Greño descubrió que, incluso cuando los participantes dejaban de usar la IA, seguían cometiendo los mismos fallos, como si heredasen sus errores de forma permanente.

“Si el algoritmo se equivoca, ¿de quién es la culpa?”, se pregunta el dermatólogo José Juan Pereyra Rodríguez. Aunque el reglamento europeo establece que los sistemas de IA de alto riesgo deben ser supervisados por un ser humano, en la práctica la responsabilidad suscita dudas a los especialistas que deben vigilar su integración. La pregunta cobra especial relevancia con la rápida expansión de estos sistemas en los servicios sanitarios.

En Reino Unido, por ejemplo, los profesionales médicos del Sistema Nacional de Salud serán personalmente responsables si los programas de transcripción automatizada fallan. Sistemas similares de reconocimiento de lenguaje natural, capaces de escribir informes a partir de las conversaciones entre profesionales y pacientes o a partir de dictados médicos, se están poniendo en marcha en varios hospitales madrileños y en centros sanitarios de Castilla y León, según ha podido saber Civio.

“El software de IA, ya sea de imagen médica u otro, no puede funcionar sin la supervisión de un humano. Ninguno puede emitir un diagnóstico o un una decisión sin que haya un humano, en este caso un profesional sanitario, que ponga su firma y rubrique lo que dice la máquina”, explica López Rueda. En el caso de Eyelib, por ejemplo, el robot hace un informe que posteriormente valida un especialista en oftalmología del Hospital Universitario La Paz, como ocurre en la mayoría de casos —esto es, el sistema de IA toma una decisión que luego ha de ser o no refrendada por una persona de carne y hueso—.

Pero ahí está la raíz principal del problema: según los experimentos de Matute Greño, el ser humano parece ser más crítico cuando interviene antes de que el sistema decida, no después de validar su decisión. “¿Te vas a atrever a llevarle la contraria? ¿Te vas a atrever a cargar con la responsabilidad?”, se pregunta la catedrática de la Universidad de Deusto sobre la presión que pueden llegar a sentir los especialistas. De acuerdo con López Rueda, hay un optimismo “peligroso” por el exceso de confianza que existe en lo que digan los sistemas de IA y por el “impacto” que pueden tener sobre la salud. Sin embargo, las fuentes consultadas por Civio creen que los sistemas seguirán decidiendo primero y los profesionales validando después, porque la integración de la IA busca principalmente reducir tiempo y costes.

Si un algoritmo fallase y el error provocara un daño a un paciente, la responsabilidad dependería de cada caso concreto —por ejemplo, si es por un defecto del producto, por un mal funcionamiento debido a una negligencia o a otras causas— y podría permitir a la persona afectada reclamar una indemnización. Sin embargo, esto es difícil que suceda: de acuerdo con la jurista Anabel K. Arias, portavoz de CECU, “es muy poco probable” que un paciente pueda llegar a identificar, por ejemplo, que un mal diagnóstico fue culpa de la IA, cuando ni siquiera sabe que existen esos sistemas y que se están aplicando en la práctica clínica.

Pese a que la normativa europea sobre protección de datos establece el derecho a no estar sujetos a decisiones automatizadas, Arias pide mayor regulación y rendición de cuentas: “Hay un problema justamente por la falta de transparencia y opacidad con la que se están también integrando este tipo de tecnologías”, zanja.

Metodología

Este es el tercer artículo de la serie de Civio dedicada a la transparencia algorítmica en el Sistema Nacional de Salud. En esta investigación han colaborado Eva Belmonte, David Cabo y Carmen Torrecillas.

Civio ha confirmado la incorporación de los algoritmos y sistemas de IA citados en el artículo a través de diversas fuentes:

  1. En la Comunidad de Madrid, la Consejería de Digitalización inicialmente nos respondió en 2024 asegurando que había siete proyectos de IA incorporados en el Servicio Madrileño de Salud, una cifra que tiempo después ascendió a 70, según confirmamos a través de una solicitud de acceso a la información pública en 2025. En el texto solo hacemos mención a algunos de estos sistemas, implantados en varios hospitales de la región.
  2. No obstante, dentro de este listado no estaba incluido el robot Eyelib, del que sí había informado el Hospital Universitario La Paz a través en una nota de prensa. El Gabinete de prensa de este hospital no ha respondido a las preguntas formuladas por Civio en varias ocasiones entre 2024 y 2025.
  3. En la Comunidad Foral de Navarra, el Departamento de Salud respondió en 2024 a una solicitud de acceso a la información pública donde, entre otros sistemas, mencionó que se había solicitado el uso in house de NaIA RD como producto sanitario y que se estaba probando el desarrollo de NaIA DMAE. En 2025, el Gabinete de Prensa confirmó que, en el primer caso, el software de retinopatía diabética se encontraba en “producción”, mientras que el destinado a la degeneración macular estaba en “estudio final de puesta en producción”.
  4. En Castilla y León, la Consejería de Sanidad respondió en 2024 a una solicitud de acceso a la información pública “comunicando la inexistencia de la información pedida” pues en ese momento no había “ninguna implantación de sistemas basados en algoritmos de Inteligencia Artificial sustentada en una licitación oficial con fines asistenciales implantada en el ámbito de la Gerencia Regional de Salud, ni hay sistemas basados en Inteligencia Artificial desarrollados o contratados por la Junta de Castilla y León para su implementación en el Servicio público de salud de Castilla y León”. Sin embargo, en 2025, el Gabinete de Prensa indicó que había diversos sistemas basados en IA y que en todo caso eran “soluciones comerciales” disponibles en toda la sanidad pública de la región, entre los que se encuentra el citado en el texto.
  5. En Galicia, la Consellería de Sanidad no respondió a la petición de acceso formulada por Civio, por lo que tuvimos que reclamar ante la Comisión da transparencia, que estimó nuestra reclamación, aunque no recibimos respuesta satisfactoria. Con posterioridad, el Gabinete de Prensa del Servizo Galego de Saúde (SERGAS) contestó en 2025 a nuestras preguntas enumerando una serie de algoritmos y sistemas basados en IA actualmente implementados en la sanidad gallega, incluyendo el mencionado en el texto.
  6. En Extremadura, la Dirección General de Recursos Humanos del Servicio Extremeño de Salud (SES) contestó a nuestra solicitud en 2024 indicando la existencia de un único algoritmo, relacionado con la codificación clínica. En 2025, la Consejería de Salud y Servicios Sociales contestó, a través de su gabinete de comunicación, a las preguntas de Civio, comentando la existencia del mencionado Tucuvi, aunque sin hacer referencia al primer sistema que habían citado con anterioridad.
  7. En el caso de la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS), Civio registró una solicitud de acceso a la información pública al Ministerio de Sanidad, que contestó en 2024 indicando la implementación de varios sistemas basados en inteligencia artificial (en particular, en procesamiento de lenguaje natural), incluyendo el propio MeqA. En 2025, en respuesta a nuestras preguntas, el Gabinete de Prensa del Ministerio de Sanidad confirmó a Civio que no había nuevos sistemas incorporados en el seno de la AEMPS.

Para identificar los contratos públicos adjudicados a Health Market Consulting S.L. (B40646994), hicimos una búsqueda en la Plataforma de Contratos del Sector Público.

La entrada Cuando tu médica es una IA se publicó primero en lamarea.com.

El decreto ley de embargo de armas a Israel da libertad al Consejo de Ministros para hacer excepciones y para poner fin a las medidas que incluye

24 Septiembre 2025 at 09:25
Por: CIVIO

Este artículo ha sido publicado originalmente en CIVIO.

EVA BELMONTE // El BOE de hoy recoge el decreto ley que establece, por ley, el embargo de armas a Israel, entre otras medidas. Es una de las medidas anunciadas por el Gobierno como respuesta al genocidio del pueblo Palestino y las movilizaciones populares de denuncia.

La norma implica la prohibición de la compra y la venta de armamento y cualquier otro tipo de material de defensa o de doble uso, además de las denegaciones de tránsito de esos materiales, también las que estén pendientes de aprobación.

Eso sí, el propio texto establece un sistema para esquivar este veto: el Consejo de ministros podrá aprobar, mediante acuerdo, que se permita la compra o venta de algún material “cuando la aplicación de la prohibición prevista en dicho artículo suponga un menoscabo para los intereses generales nacionales”.

Además, el decreto ley prohíbe el tránsito de combustible hacia Israel para fines militares. E incluye otras medidas de las anunciadas por el presidente Pedro Sánchez hace algo más de dos semanas, como el veto a la importación de cualquier producto que venga de los asentamientos ilegales en territorio palestino ocupado por Israel. También la publicidad de esos productos o de servicios que se ofrezcan en esas zonas.

Para poner en marcha esta prohibición, el Ministerio de Asuntos Exteriores y Cooperación Internacional hará una propuesta de qué códigos postales de origen se prohibirán, que será trasladada a la Agencia Tributaria para su aprobación y, finalmente, se transmitirá al personal de aduanas para que veten la entrada y salida de esos productos. El decreto ley no establece plazos para este procedimiento.

Todas estas medidas podrán decaer cuando lo decida el Consejo de Ministros, sin necesidad de aprobar otra norma con rango de ley en el Congreso. El texto publicado hoy da libertad absoluta al Gobierno para modificar estas medidas: “Por Acuerdo del Consejo de Ministros podrán acordarse total o parcialmente la finalización de las medidas contempladas en este real decreto-ley”.

El decreto ley marca, además, comparecencias trimestrales del Gobierno en el Congreso para informar sobre el embargo y para dar explicaciones sobre las posibles excepciones aprobadas.

La entrada El decreto ley de embargo de armas a Israel da libertad al Consejo de Ministros para hacer excepciones y para poner fin a las medidas que incluye se publicó primero en lamarea.com.

  • No hay más artículos
❌