Cómo investigué a SERMAS GPT, la IA que se coló en los hospitales de Madrid

sermas gpt madrid enfermedades raras

Cada vez me preocupa más cómo contamos la IA. La tarea de los periodistas es crucial para que la sociedad tenga información real y completa sobre la IA: lo que significan sus avances pero también quiénes están detrás de sus hilos, qué piensan y cómo está siendo configurada. 

Mi investigación sobre SERMAS GPT ha revelado cómo la inteligencia artificial puede infiltrarse en servicios públicos sin controles adecuados. Examinar su creación, sus sesgos y sus contratos se convierte en un ejercicio urgente para el periodismo de investigación: una hoja de ruta para exigir transparencia y responsabilidad en la era de la IA. Aquí cuento un poco mejor cómo fue ese proceso.

Cuando el servicio público de Salud de Madrid instaló una herramienta de inteligencia artificial llamada SERMAS GPT en los ordenadores de todos los médicos de atención primaria de la región, hubo comunicado de prensa, pero no aprobación de un comité médico, ni formación a los profesionales que tenían que usarla, ni mucho menos el código abierto que se decía tener. Y ahí estaba, operativa en un botón de la interfaz que utilizan todos los médicos de primaria de Madrid, lista para recoger los datos de la historia clínica de los pacientes, procesar información sensible y ofrecer consejo médico. 

En 2023 me propuse investigar cómo podía haberse desplegado un sistema así con tan poco escrutinio público. Durante semanas hablé con médicos, eticistas, investigadores en IA y expertos en contratación pública; revisé expedientes oficiales y presenté solicitudes de información al gobierno regional.

Lo que emergió fue la historia de una IA introducida sin supervisión, y uno de los casos en los que el sector privado cuela su AI en administraciones públicas. SERMAS GPT se había desarrollado sin la participación de un solo profesional de la salud y nunca había sido validada por un comité médico. 

Los expertos que entrevisté identificaron sesgos racistas y sexistas en sus resultados y explicaron los riesgos que estos sesgos planteaban en un entorno clínico. Aunque las autoridades afirmaban que el sistema era de código abierto, nunca facilitaron acceso a su repositorio. La investigación confirmó que SERMAS GPT no era una aplicación como se hacía entender, sino un conjunto de llamadas a la API del modelo GPT-4 de OpenAI, alojado en los servidores Azure de Microsoft. No era distinto que hablar con ChatGPT. 

Cuando me puse a buscar la documentación, encontré que tampoco había contrato como tal. El sistema había sido implementado por Fundación29, una organización poco conocida que, junto con Microsoft, firmó un simple acuerdo con el gobierno regional —un acuerdo que no describía tareas, ni imponía obligaciones formales ni mecanismos de rendición de cuentas a las empresas implicadas. Juristas consultados lo describieron como “un experimento tipo sandbox”, aunque ninguno pudo justificar que se implementara en un servicio público de salud sin un expediente administrativo. La junta directiva de Fundación29 incluía ejecutivos de Microsoft y empleados a tiempo completo de empresas biotecnológicas y farmacéuticas, lo que planteaba dudas adicionales sobre posibles conflictos de interés.

El aspecto de la protección de datos en SERMAS GPT tampoco estaba en orden. Nuestra investigación reveló importantes fallos en las medidas destinadas a salvaguardar la información médica y personal —fallos que podrían exponer los datos más sensibles de los pacientes.

Los hallazgos se publicaron en tres reportajes de investigación en Newtral [1, 2 y 3] y llegaron finalmente a la Asamblea de Madrid, donde diputados de la oposición pidieron explicaciones al gobierno. 

El caso de SERMAS GPT demuestra que la fiscalización de la IA no es opcional: es una condición para proteger los derechos de los ciudadanos y garantizar que la innovación no erosione la confianza en lo público. La metodología de esta investigación —analizar el origen técnico, legal y ético de estas herramientas— demostró el valor de un escrutinio sistemático y puede convertirse en un estándar de accountability periodístico para auditar la inteligencia artificial allí donde se aplique.

Archivo:
Sermas GPT, la IA de la Comunidad de Madrid para enfermedades raras, aún no ha pasado la validación de un comité médico
Cómo es el acuerdo de Madrid con Microsoft y Fundación 29 para que sus médicos usen su IA
Qué pasa con la protección de datos en Sermas GPT, la IA generativa de Madrid para enfermedades raras

Jornada FUNDAE: Nuevos perfiles en el periodismo

Jornada FUNDAE Periodismo IA

«Los ingenieros nos dicen que los medios hemos cuidado muy poco los datos de nuestras audiencias», uno de los apuntes que se escuchó en nuestra mesa redonda ayer en Fundae, de boca de Pilar Sánchez-García, investigadora de la IA de la Universidad de Valladolid.

Como periodistas tenemos que escuchar más a los ingenieros y sobre todo, preguntarles más, entender lo que está pasando con la IA para tomarla como una herramienta útil al periodismo, sobre todo para tenerla de nuestro lado en estos tiempos de desinformación, y que sirva a los intereses del público y no a los de unas pocas plataformas. La jornada organizada por Fundae fue un espacio excelente para tratar este y otros temas. Nuestra mesa «Nuevas oportunidades en el periodismo: IA, perfiles y formación» nos reunió a esta investigadora, a Marcelo Ortega y a mí para conversar sobre los perfiles periodísticos del futuro que ya podemos intuir. O eso intentamos.

El reportaje finalista del premio ESET 2024

premio eset 2024

Este año estuve indagando en la integración con IA que hizo la Comunidad de Madrid en la app que utilizan todos los médicos de atención primaria en esta comunidad, y uno de esos reportajes me ha hecho quedar finalista en los VIII Premios ESET 2024, en la categoría de Prensa Digital.

Aunque siempre se suele publicitar mucho el uso de IA en los anuncios del gobierno, cuesta encontrar más información sobre cómo se hacen esas implementaciones, qué pasa con los datos, quién está detrás y cuáles son sus intereses.

Todo lo que averigüé sobre la app Sermas GPT fue publicado en tres reportajes justo antes de mi baja maternal: uno en el que contaba cómo funciona, y que fue el premiado; otro en el que analizábamos el tipo de acuerdo entre gobierno y las empresas que lo implementaron y uno en el que constamos la falta de garantías sobre los datos personales de los pacientes. Aunque no creas mucho en ellos, siempre es un gusto recibir un premio, y más aún cuando sirve para visibilizar contratos y algoritmos usados en la esfera pública y pagados con nuestros impuestos que no se explican con transparencia.

Periodismo 2024

¿Qué será lo siguiente este año en periodismo y qué quisiera yo que fuera? Esta pregunta nos hizo Mar Manrique a varios periodistas en la industria de los medios para el primer número de Fleet Street su newsletter.

Yo pensé en lo que me gustaría primero: que desde los medios la tecnología se cubra como otros temas, pensando en las personas y haciendo las preguntas incómodas y sin tragarnos las narrativas exultantes que vienen de Silicon Valley. Lo que creo que sucederá tanto en formatos como en contenido es que creo que habrá una búsqueda de espacios y temas más centrados en las comunidades de cada medio.

La AI apareció en muchas de las opiniones y deseos. Me gustó el de Delia Rodríguez: «Que los trabajadores del sector se unieran para revisar sus términos laborales de forma colectiva, como los guionistas de Hollywood, y defender sus empleos, sus condiciones de trabajo y su propiedad intelectual». También dijo que es un año en el que periodistas y abogados vamos a pasar mucho tiempo juntos.

Fabebk, CC BY-SA 4.0, via Wikimedia Commons

Narrativas falsas en la prensa económica

Laffer napkin: narrativas falsas en la prensa económica

Las narrativas falsas también existen en la prensa económica, y alguna, como aquella que explicó Arthur Laffer dibujando en una servilleta en una cena con Dick Cheney, que ilustra este artículo, ha ejercido su influencia durante casi 50 años, y llegó a configurar políticas fiscales de Reagan y Tatcher. Actualmente, la hegemonía del liberalismo no necesita tanto de bulos como de narrativas que ayudan a reforzar argumentos en favor de ciertos grupos de interés.

Capitan Swing ha publicado «Pescar el salmón», un libro de Yago Álvarez Barba en la que analiza las narrativas falsas en la actual prensa salmón (como se le llama a la prensa económica en España por el color con el que antes iban tintadas sus páginas en papel), explicando varias técnicas de manipulación y desinformación tremendamente vigentes. He hablado con el autor y he publicado «Narrativas falsas en la prensa económica: bulos, mentiras y estadísticas».

[Archivo]

La sonrisa de Maria Ressa

Maria Ressa rappler sonrisa absuelta

“Nunca hemos hecho otra cosa que nuestro trabajo, y seguimos haciéndolo», ha dicho la Nobel de la Paz, periodista y responsable del medio de noticias Rappler, al salir del tribunal que la ha absuelto del último delito de evasión fiscal. La noticia significa una victoria para la libertad de prensa en el país, tras 10 años y 4 meses de juicio en un caso presentado bajo el gobierno del expresidente Rodrigo Duterte.

Durante estos años, el equipo de periodistas de Rappler ha investigado las ejecuciones extrajudiciales contra sospechosos de traficar o consumir drogas, y ha documentado la difusión de desinformación gubernamental en Facebook, informando sobre la corrupción y las malas prácticas de los principales asesores del gobierno de Duterte. La historia de una premio Nobel de la Paz que dirige Rappler, un medio que hace fact-checking, es la de una persecución judicial (en Newtral he contado en qué se basan y por qué piden el cierre de Rappler) que intenta cerrar un medio crítico con el gobierno con una serie de demandas, que poco a poco la Justicia filipina va desestimando.

Ressa es una persona que ha sostenido siempre la esperanza en el trabajo periodístico bien hecho. Cada vez que tenemos noticias de una victoria suya o de su equipo, da gusto buscar la foto de su sonrisa para la pieza. Esta ha sido la de esta semana.

Foto: Lev Radin

[Archivo]

Polarización y democracia

Esta semana he estado conversando con María Ramírez, Pablo Simón y Daniel Gascón en «Polarización contra la democracia«, la última de las conversaciones del ciclo Atrévete a pensar, organizado por Penguin Random House y Fundación Telefónica. Una charla a cuatro voces, en la que cabía el Twitter de Musk, mi preocupación por la pérdida de los espacios públicos para debatir, las burbujas de ayer y de hoy y la recomendación de cuidar con quién nos juntamos en los grupos de WhatsApp. Las fotos son de Ricardo Domingo.