¿Quiere Europa poner software espía en cada dispositivo? Dicho así, no. Pero sí quiere vigilar todas nuestras comunicaciones privadas, y eso sólo es posible obligando a los proveedores a poner software que escanee todas nuestros mensajes. Todo es todo: audios, textos, imágenes, fotos. Es otra forma de explicar una ley que puede tener graves consecuencias en nuestros derechos, y que hasta se puede volver en contra de aquello que pretende, prevenir y luchar contra el abuso sexual infantil.
Esto es lo que han advertido cientos de investigadores que han firmado una carta contra la propuesta de la UE para luchar contra el abuso infantil. La tecnología existente es extremadamente deficiente, e imponerla a escala global puede tener efectos colaterales dañinos que pueden incluso afectar la democracia.
“No esperamos que en 10-20 años haya una solución escalable que pueda ejecutarse localmente en el dispositivo del usuario sin filtración de información ilegal, ni que pueda detectarse CSAM de una manera confiable, es decir con un número aceptable de falsos positivos y negativos”. Lo hemos contado esta semana en Newtral.
No ha sido fácil. En estos días hemos publicado un artículo para el que llevo tres semanas trabajando. He hablado con muchas personas para entender cómo y quiénes están diseñando el futuro de la IA. ¿Qué experiencias se toman en cuenta? ¿Quiénes pagan los sueldos de personas que dedican mucho tiempo y esfuerzo a esto? ¿Cómo participa la sociedad civil en delimitar las líneas de algo que ya está impactando en los más vulnerables? En España la administración del Estado ha licitado el diseño y las futuras líneas que definirán la IA. Desde el Ministerio de Economía se está recomendando un contrato clave en la supervisión de la ética de las compañías que trabajarán con la IA para ser adjudicado a una de las grandes consultoras mundiales y otra asociación poco conocida, pero que también tiene vínculos con grupos que tienen intereses en la IA.
En momentos en que muchas voces se alzan para pedir regulación de la IA en todo el mundo, España es un actor estratégico clave, ya que en esta segunda mitad del año, la presidencia española de la UE es la encargada de cerrar la propuesta de ley de la IA que se viene preparando desde hace 2 años en el Parlamento Europeo. No es de extrañar que las empresas con interés en la IA estén jugando sus cartas.
Esta semana he estado conversando con María Ramírez, Pablo Simón y Daniel Gascón en «Polarización contra la democracia«, la última de las conversaciones del ciclo Atrévete a pensar, organizado por Penguin Random House y Fundación Telefónica. Una charla a cuatro voces, en la que cabía el Twitter de Musk, mi preocupación por la pérdida de los espacios públicos para debatir, las burbujas de ayer y de hoy y la recomendación de cuidar con quién nos juntamos en los grupos de WhatsApp. Las fotos son de Ricardo Domingo.
Hay algo muy disonante en el discurso de los AI people. Hablan de Artificial General Intelligence (AGI) y de conciencia, pero por ahora todo indica que estamos ante funciones estadísticas y machine learning. Quieren ver el fantasma en la máquina pero sólo hay máquina. (¿Serán ellos los fantasmas?). Aunque varias empresas se han lanzado a una carrera para alcanzarla, en el ámbito de la IA no hay consenso en absoluto de cuándo o incluso que alguna vez lleguemos a crear una inteligencia artificial general.
En una conferencia que di este año en Murcia, alguien de la audiencia preguntó si ChatGPT es Inteligencia Artificial de propósito general, alguien que planteaba inquietud ante que estemos alimentando a un monstruo… Y entiendo perfectamente la confusión, porque la narrativa marketinera de OpenAI se basa mucho en ese miedo que tenemos que tenerle a la IA. Por eso ellos, que saben más, están desarrollándola, para beneficio de la humanidad. No lo digo yo, son palabras textuales de su Carta fundacional.
La llegada de ChatGPT y Midjourney ha encontrado a la Unión Europea con una gran normativa de inteligencia artificial en preparación. Llegan a tiempo a incluir las IA generativas, que no estaban previstas originalmente. Aunque el principio que los guía es legislar sobre «usos» y no sobre «tecnologías», es difícil hacerlo: ¿quién podía prever ChatGPT hace 2 años? ¿Cómo estarán las cosas en 2025, cuando previsiblemente entre en vigor la normativa?
Los parlamentarios están debatiendo estas cuestiones en varias comisiones. Hace unas horas se ha confirmado el 11 de mayo como la fecha en la que presentarán la propuesta al Parlamento. He hablado con Ibán García del Blanco, un eurodiputado que hizo la primera propuesta de AI en la UE, lleva años trabajando en el borrador de esta ley, y está en estas negociaciones; con BEUC, una federación de 46 organizaciones de consumidores europeos; y con algunos expertos en libertad de expresión, medios y derecho, intentado hacer un panorama de la situación en este reportaje para Newtral: Bruselas ultima una propuesta de ley para regular el desarrollo de la Inteligencia Artificial en la UE.
Poner a ChatGPT ante un examen real con el que se esté evaluando ahora a alumnos de un Máster en Administración de Empresas en España: lo hicimos. No aprueba, pero impresiona. Y no a cualquiera sino a un doctor de IA que lleva años investigando y desarrollando patentes.
Más interesante todavía es lo que dice este profesor: que les hablará a sus alumnos de ChatGPT desde el primer día de sus próximas clases. “A mí me da igual si lo has escrito tú o si lo ha escrito una máquina, si lo has escrito con Word o si te lo has copiado de internet. Al final te voy a poner la nota sobre lo que estoy intentando evaluar. Creo que el punto clave es incorporar que es muy fácil generar un texto pero eres tú el que se responsabiliza de lo que has entregado. Es más importante transmitir eso”.
Estamos a pocos días del cierre de la API de Twitter, lo que puede ser una catástrofe. Hay muchos afectados: aplicaciones de interés público, herramientas contra el acoso o que detectan contenidos tóxicos, investigaciones sobre la desinformación, bots de utilidades (como los que ayudan a leer hilos o colorean imágenes). Miles de desarrollos y herramientas hechas por la sociedad civil e investigadores que estudian la desinformación en redes sociales e intentan revertir los contenidos tóxicos de esta plataforma están a punto de quedar inhabilitadas. Y en España sucede en pleno año electoral.
El anuncio llegó hace una semana, con este tuit, sin más detalles, sin dar precios, y sin tiempo para que muchos equipos actualicen herramientas o preparen una adaptación
Starting February 9, we will no longer support free access to the Twitter API, both v2 and v1.1. A paid basic tier will be available instead 🧵— Twitter Dev (@TwitterDev) February 2, 2023
Twitter no revela públicamente el precio de sus planes premium de API, aunque en febrero del año pasado se informó que las tarifas comienzan a partir de 99 USD/mes por 100 consultas a la API.
La página dejó de estar está disponible en abierto un día antes del primer plazo anunciado, que era hoy, aunque luego se aplazó hasta el día 13 de febrero, según anunciaron con otro tuit.
La Ley de Servicios Digitales (DSA) que prevé el acceso de los investigadores a los datos de estas plataformas debería normalizar la situación en Europa en los próximos meses, y si Twitter sigue adelante con la medida podría estar infringiéndola. En Estados Unidos se han presentado proyectos de ley con requerimientos similares.
Twitter actualmente es la principal fuente de datos para investigar cómo funciona la propagación de la desinformación online. Otras grandes plataformas tienen APIs comerciales cerradas o no dan los datos fácilmente aunque sea para investigación. En los últimos años, el esfuerzo de equipos de académicos, periodistas, desarrolladores y otros participantes de la sociedad civil han creado cientos de herramientas para luchar contra la toxicidad y la desinformación en Twitter. La mayoría de ellas no funcionarán más.