Cómo investigué a SERMAS GPT, la IA que se coló en los hospitales de Madrid

sermas gpt madrid enfermedades raras

Cada vez me preocupa más cómo contamos la IA. La tarea de los periodistas es crucial para que la sociedad tenga información real y completa sobre la IA: lo que significan sus avances pero también quiénes están detrás de sus hilos, qué piensan y cómo está siendo configurada. 

Mi investigación sobre SERMAS GPT ha revelado cómo la inteligencia artificial puede infiltrarse en servicios públicos sin controles adecuados. Examinar su creación, sus sesgos y sus contratos se convierte en un ejercicio urgente para el periodismo de investigación: una hoja de ruta para exigir transparencia y responsabilidad en la era de la IA. Aquí cuento un poco mejor cómo fue ese proceso.

Cuando el servicio público de Salud de Madrid instaló una herramienta de inteligencia artificial llamada SERMAS GPT en los ordenadores de todos los médicos de atención primaria de la región, hubo comunicado de prensa, pero no aprobación de un comité médico, ni formación a los profesionales que tenían que usarla, ni mucho menos el código abierto que se decía tener. Y ahí estaba, operativa en un botón de la interfaz que utilizan todos los médicos de primaria de Madrid, lista para recoger los datos de la historia clínica de los pacientes, procesar información sensible y ofrecer consejo médico. 

En 2023 me propuse investigar cómo podía haberse desplegado un sistema así con tan poco escrutinio público. Durante semanas hablé con médicos, eticistas, investigadores en IA y expertos en contratación pública; revisé expedientes oficiales y presenté solicitudes de información al gobierno regional.

Lo que emergió fue la historia de una IA introducida sin supervisión, y uno de los casos en los que el sector privado cuela su AI en administraciones públicas. SERMAS GPT se había desarrollado sin la participación de un solo profesional de la salud y nunca había sido validada por un comité médico. 

Los expertos que entrevisté identificaron sesgos racistas y sexistas en sus resultados y explicaron los riesgos que estos sesgos planteaban en un entorno clínico. Aunque las autoridades afirmaban que el sistema era de código abierto, nunca facilitaron acceso a su repositorio. La investigación confirmó que SERMAS GPT no era una aplicación como se hacía entender, sino un conjunto de llamadas a la API del modelo GPT-4 de OpenAI, alojado en los servidores Azure de Microsoft. No era distinto que hablar con ChatGPT. 

Cuando me puse a buscar la documentación, encontré que tampoco había contrato como tal. El sistema había sido implementado por Fundación29, una organización poco conocida que, junto con Microsoft, firmó un simple acuerdo con el gobierno regional —un acuerdo que no describía tareas, ni imponía obligaciones formales ni mecanismos de rendición de cuentas a las empresas implicadas. Juristas consultados lo describieron como “un experimento tipo sandbox”, aunque ninguno pudo justificar que se implementara en un servicio público de salud sin un expediente administrativo. La junta directiva de Fundación29 incluía ejecutivos de Microsoft y empleados a tiempo completo de empresas biotecnológicas y farmacéuticas, lo que planteaba dudas adicionales sobre posibles conflictos de interés.

El aspecto de la protección de datos en SERMAS GPT tampoco estaba en orden. Nuestra investigación reveló importantes fallos en las medidas destinadas a salvaguardar la información médica y personal —fallos que podrían exponer los datos más sensibles de los pacientes.

Los hallazgos se publicaron en tres reportajes de investigación en Newtral [1, 2 y 3] y llegaron finalmente a la Asamblea de Madrid, donde diputados de la oposición pidieron explicaciones al gobierno. 

El caso de SERMAS GPT demuestra que la fiscalización de la IA no es opcional: es una condición para proteger los derechos de los ciudadanos y garantizar que la innovación no erosione la confianza en lo público. La metodología de esta investigación —analizar el origen técnico, legal y ético de estas herramientas— demostró el valor de un escrutinio sistemático y puede convertirse en un estándar de accountability periodístico para auditar la inteligencia artificial allí donde se aplique.

Archivo:
Sermas GPT, la IA de la Comunidad de Madrid para enfermedades raras, aún no ha pasado la validación de un comité médico
Cómo es el acuerdo de Madrid con Microsoft y Fundación 29 para que sus médicos usen su IA
Qué pasa con la protección de datos en Sermas GPT, la IA generativa de Madrid para enfermedades raras

El reportaje finalista del premio ESET 2024

premio eset 2024

Este año estuve indagando en la integración con IA que hizo la Comunidad de Madrid en la app que utilizan todos los médicos de atención primaria en esta comunidad, y uno de esos reportajes me ha hecho quedar finalista en los VIII Premios ESET 2024, en la categoría de Prensa Digital.

Aunque siempre se suele publicitar mucho el uso de IA en los anuncios del gobierno, cuesta encontrar más información sobre cómo se hacen esas implementaciones, qué pasa con los datos, quién está detrás y cuáles son sus intereses.

Todo lo que averigüé sobre la app Sermas GPT fue publicado en tres reportajes justo antes de mi baja maternal: uno en el que contaba cómo funciona, y que fue el premiado; otro en el que analizábamos el tipo de acuerdo entre gobierno y las empresas que lo implementaron y uno en el que constamos la falta de garantías sobre los datos personales de los pacientes. Aunque no creas mucho en ellos, siempre es un gusto recibir un premio, y más aún cuando sirve para visibilizar contratos y algoritmos usados en la esfera pública y pagados con nuestros impuestos que no se explican con transparencia.

Cómo puede impactar la IA en la desinformación

Cuadernos de periodistas 48

Ya está en abierto el artículo que escribí para Cuadernos de Periodistas #48 [PDF]: Cómo puede impactar la IA en la desinformación: el periodismo en la era de los deepfakes.

Inteligencia artificial y desinformación son los temas del momento, desde que Donald Trump ha asumido la presidencia acompañado de Elon Musk, ni les cuento. Unos meses antes de esto, la Asociación de la Prensa de Madrid me invitó a escribir en el último número de sus Cuadernos de Periodismo sobre cómo puede impactar la IA en la desinformación. El artículo sobre el periodismo en la era de los deepfakes ya está disponible en PDF [Archivo].

Cuadernos de periodistas 48

ActivityPub para integrar a Threads al Fediverso

ActivityPub Threads fediverso

Desde que Musk se hizo cargo de Twitter varias plataformas nuevas quieren reinventar la internet social, y trabajan en protocolos descentralizados, que dan más poder al usuario. ¿Cómo será una internet en la que no necesites tener cuenta en un servicio para comunicarte con los usuarios que están en él? Threads ya está en ello también.

El juguete nuevo de Meta tiene intenciones de integrarse al Fediverso. Threads está implementando ActivityPub, el mismo protocolo de Mastodon, y eso significa que ya hay cuentas que se pueden seguir desde la otra red. Una de ellas es la del jefe de Threads, @mosseri@threads.net, que lo ha contado en un anuncio que ha pasado un poco desapercibido, por lo menos en la prensa en español. El impulso que puede dar Meta a las redes descentralizadas puede ser interesante, con muchas otras plataformas están trabajando con protocolos abiertos, como Bluesky, Nostr, Farcaster. Lo cuento en «Hacia redes sociales: qué es el protocolo ActivityPub y por qué es la gran promesa de Threads» para Newtral.

[Archivo]

Foto de Alina Grubnyak

Primera ley de IA en el mundo: la Unión Europea hace historia

ley ia ue

Esta semana ha salido del horno una ley que lleva cocinándose dos años, y que tuvo que ser modificada ante el boom de la IA que provocó el lanzamiento de ChatGPT hace un año: la ley de Inteligencia Artificial de la Unión Europea. Es la primera que tiene garantías para proteger los derechos humanos y de las democracias, a la vez que intenta dar seguridad para promover la innovación.

El desafío también estaba en «legislar para adelante», escribir una ley que no se quede obsoleta ante el avance de la tecnología. Lo hicieron mediante una clasificación de riesgos, por la que no se prohíben determinadas tecnologías sino que se regulan sus usos. Las negociaciones entre gobiernos y Parlamento han sido especialmente duras, y se llevan otro récord, el de las 38 horas que duraron. He seguido de cerca durante este año los avances del proceso legislativo, y he escrito sobre las claves de la ley, la hemos analizado con expertos, hemos escuchado las inquietudes de las organizaciones de los consumidores europeos, y hemos contado las presiones en torno a la presidencia española de la UE, bajo la que se ha aprobado finalmente la ley de IA de la UE.

Sin que aún tengamos el texto definitivo, que se espera para fines de enero, escribí sobre los puntos más calientes de esta ley de la IA que se ha aprobado en la UE.

El gran equipo de redes de Newtral me hizo contarlo en un reel de Instagram.

[Archivo]

El primer contrato de Palantir en España

Peter Thiel speaks on the fourth day of the 2016 RNC

Palantir ha logrado su primer contrato público en España por 16,5 millones: su software Gotham será usado por las Fuerzas Armadas.

No hablamos de cualquier empresa: Palantir es una gran tecnológica muy opaca y trabaja con las agencias de seguridad nacional de EEUU desde sus inicios. Ha sido acusada de violaciones a los derechos humanos

Esta semana hemos publicado varias piezas sobre un tema que ha llevado meses de pedir información utilizando el derecho al acceso a la información y la ley de Transparencia. Contamos cómo ha sido la entrada de Palantir en España, en un momento en el que su estrategia es conseguir entrar en las infraestructuras de los estados europeos, como la NHS en Reino Unido o los servicios policiales en Alemania.

Más:

El Ministerio de Defensa adjudica a Palantir un contrato por 16,5 millones de inteligencia militar [Archivo]
Qué es Palantir y quiénes son Peter Thiel y Alex Karp [Archivo]
Cómo es la excepción en la adjudicación que usó Defensa en España para dar el contrato a Palantir: el procedimiento negociado sin publicidad [Archivo]
Varias leyes y mucho secreto, los argumentos de Defensa sobre el contrato con Palantir y la ley de secretos oficiales [Archivo]

El deepfake como arma masiva contra las mujeres

Vista aérea de Almendralejo | Kallerna

Esta semana una serie de deepfakes, desnudos arficiales de menores no consentidos, han sido noticia desde Almendralejo, una localidad de 30.000 habitantes entre los que se conocen todos. Pero para mí quienes han sido la noticia han sido las madres, que reaccionaron rápidamente de la mano de una de ellas, ginecóloga, que no dudó en usar sus redes sociales para contar esto cuando su hija se lo contó. Esto hizo que un grupo de madres se organizase por Whatsapp para denunciar, y luego surgieran otras denuncias similares también en Alcalá de Henares (Madrid). Muchas de ellas, como me dijo Miriam Al Adib, la ginecóloga, oían la palabra deepfakes y se encontraban con la IA así de la peor forma.

La mayoría de medios en un primer momento enfocaron la noticia desde lo tecnológico, algún tuitero wanna-OSINT decía cuál era la herramienta, y otros daban detalles que para mí no son lo fundamental del caso. Muchos se preguntaban por el Código Penal, y pedían leyes específicas «para la IA», confundiendo varias cosas. Hablé con Borja Adsuara, un abogado que sostiene que esto no es necesario, así como no hace falta una ley que tipifique la ciberestafa para castigar una estafa.

Y recordé el estudio más amplio y más citado sobre los deepfakes, que fue llevado a cabo en 2019 por Deeptrace, a pedido de Sensity AI. Desveló que el 96% de los vídeos deepfakes eran pornográficos y no consentidos. “La pornografía con IA daña exclusivamente a mujeres” dice ese informe. Lo que es necesario es que nos demos cuenta de que la IA es una arma masiva de última generación al servicio de la violencia machista. Después de avisar a las chicas que no tienen que avergonzarse, y a los padres que deben denunciar, el mensaje más importante según Al Adib, debe ir hacia los chicos: «No me vale que estés en un Whatsapp grupal y te quedes callado. Todo eso también daña a las víctimas». Lo mismo piensa Adsuara, que me explicó los tipos legales que corresponden. Todo, enlaces, estudios y lo que me contaron, en este reportaje para Newtral.

Foto: Kallerna | Wikimedia CC BY-SA 4.0

[Archivo]