Primera ley de IA en el mundo: la Unión Europea hace historia

ley ia ue

Esta semana ha salido del horno una ley que lleva cocinándose dos años, y que tuvo que ser modificada ante el boom de la IA que provocó el lanzamiento de ChatGPT hace un año: la ley de Inteligencia Artificial de la Unión Europea. Es la primera que tiene garantías para proteger los derechos humanos y de las democracias, a la vez que intenta dar seguridad para promover la innovación.

El desafío también estaba en «legislar para adelante», escribir una ley que no se quede obsoleta ante el avance de la tecnología. Lo hicieron mediante una clasificación de riesgos, por la que no se prohíben determinadas tecnologías sino que se regulan sus usos. Las negociaciones entre gobiernos y Parlamento han sido especialmente duras, y se llevan otro récord, el de las 38 horas que duraron. He seguido de cerca durante este año los avances del proceso legislativo, y he escrito sobre las claves de la ley, la hemos analizado con expertos, hemos escuchado las inquietudes de las organizaciones de los consumidores europeos, y hemos contado las presiones en torno a la presidencia española de la UE, bajo la que se ha aprobado finalmente la ley de IA de la UE.

Sin que aún tengamos el texto definitivo, que se espera para fines de enero, escribí sobre los puntos más calientes de esta ley de la IA que se ha aprobado en la UE.

El gran equipo de redes de Newtral me hizo contarlo en un reel de Instagram.

[Archivo]

Por qué le llaman AGI cuando quieren decir Machine Learning

close up shot of white toy robot on blue and pink background

Hay algo muy disonante en el discurso de los AI people. Hablan de Artificial General Intelligence (AGI) y de conciencia, pero por ahora todo indica que estamos ante funciones estadísticas y machine learning. Quieren ver el fantasma en la máquina pero sólo hay máquina. (¿Serán ellos los fantasmas?). Aunque varias empresas se han lanzado a una carrera para alcanzarla, en el ámbito de la IA no hay consenso en absoluto de cuándo o incluso que alguna vez lleguemos a crear una inteligencia artificial general.

En una conferencia que di este año en Murcia, alguien de la audiencia preguntó si ChatGPT es Inteligencia Artificial de propósito general, alguien que planteaba inquietud ante que estemos alimentando a un monstruo… Y entiendo perfectamente la confusión, porque la narrativa marketinera de OpenAI se basa mucho en ese miedo que tenemos que tenerle a la IA. Por eso ellos, que saben más, están desarrollándola, para beneficio de la humanidad. No lo digo yo, son palabras textuales de su Carta fundacional.

Escribí sobre AGI, IA y ChatGPT y qué tienen y qué no tienen que ver en este artículo para Newtral.

[Archivo]

La ley de Inteligencia Artificial europea se enfrenta a las IA generativas

La UE quiere regular la inteligencia artificial | Dusan Cvetanovix Por Marilín Gonzalo Algoritma 27 abril 2023 | 6 min lectura ChatGPT Inteligencia Artificial Unión Europea “Inminente”. Este es el adjetivo con el que describen desde Bruselas la presentación de la propuesta de la Ley de inteligencia artificial (IA) que se encuentra ahora en plena negociación en la Unión Europea. El 11 de mayo se votará en los comités técnicos que llevan meses debatiendo este texto para cerrar los acuerdos parlamentarios. De este acuerdo saldrá la propuesta para el Parlamento Europeo, donde se votará en pleno de la UE. La rápida evolución de las tecnologías de IA generativas, como ChatGPT o Midjourney, ha encontrado a la Unión Europea con esta gran normativa de inteligencia artificial en ciernes. La percepción de los riesgos de la IA ha levantado voces a favor de regular este tipo de tecnologías en todo el mundo, y el Reglamento Europeo de la IA (IA Act) que prepara Europa traerá definiciones para una nueva realidad con robots conversacionales y herramientas generadoras de imágenes usadas a nivel masivo. Al ser un Reglamento se aplicará inmediatamente en los 27 países de la UE sin necesidad de transponerlo a la normativa nacional. La propuesta que se presentará en la UE en las próximas semanas no será definitiva, y aún podrá cambiar hasta su puesta en vigor como normativa general en Europa. Ha comenzado con un documento que se viene negociando desde 2019 y su texto definitivo deberá ser aprobado en los trílogos, que es el momento en que las instituciones europeas (Comisión, Parlamento y Presidencia del Consejo) consensúan las propuestas legislativas. Este proceso ocurrirá durante la presidencia española de la UE. En marzo, una reunión en Estrasburgo de 5 horas que esperaba llegar a consensos sobre la propuesta de 108 páginas terminó sin resolución, según informó Reuters. Se espera que a finales de este 2023 se apruebe aunque no se cuenta con que entre en vigor antes de finales de 2024, o incluso de 2025. Cómo hacer leyes de cara al futuro cuando todo cambia “ChatGPT es la punta del iceberg”, ha dicho BEUC, la federación de 46 organizaciones de consumidores europeos que ha emitido un requerimiento a la UE y a las autoridades nacionales para investigar a OpenAI y organizaciones similares. BEUC declara estar alarmada por la velocidad con la que ChatGPT y sistemas similares se están desarrollando e implantando con la correspondiente desprotección de los usuarios, a los que la Ley de IA aún dejará desprotegidos un par de años hasta entrar en vigor. «Estamos ante una realidad completamente nueva» (García del Blanco, eurodiputado) Desde la organización de consumidores explican que la propuesta original para la Ley de IA no cumplía sus expectativas ni el objetivo de la UE de hacer posible una IA en la que la gente pueda confiar. “Las normas propuestas se centran en una gama muy limitada de usos y problemas de la IA”, explica desde Bruselas Frederico Oliveira Da Silva, jurista principal de BEUC. Pero creen que en la propuesta que salga adelante el Parlamento dará un paso en la dirección correcta e incluirá salvaguardas para proteger a los consumidores que usen o sean objeto de sistemas de AI. Un ejemplo: la lista de prácticas prohibidas propuesta por la Comisión será ampliada con ciertos usos de reconocimiento de emociones. También es probable que se incluyan nuevos derechos como el derecho de los consumidores a recibir una explicación de parte de un operador de IA o el derecho a reclamar ante una autoridad. Joan Barata, abogado y experto internacional en materia de libertad de expresión, cree que en materia de IA hay que ser “extremadamente prudente” porque es mucho lo que todavía no entendemos desde el punto de vista de consecuencias de su uso. Aún así, cree que es necesario contar con una regulación a nivel europeo. “Un marco de principios básicos y fundamentales que otorguen un grado mínimo de seguridad jurídica y garantías procedimentales con relación a las decisiones concretas que las autoridades vayan a tomar en terrenos diversos”, define. La popularización de sistemas de IA avanzados como ChatGPT ha disparado un debate sobre la evolución y el alcance de la IA en nuestra sociedad. Desde OpenAI, la empresa dueña de ChatGPT y resto de compañías que han entrado en la carrera de la IA fijan explícitamente su objetivo en llegar a la AGI (Inteligencia Artificial de Propósito General), un tipo de inteligencia artificial similar o superior a la humana que tendrá consecuencias de largo alcance para la humanidad. No hay consenso sobre el punto en el que estamos en esa proyección, ni sobre las definiciones en torno a estos conceptos, que se multiplican en discursos que van desde la fascinación al miedo por estos sistemas. Y entre los parlamentarios europeos también hay desacuerdo en la definición de estos modelos de IA o en la definición de autonomía. La tecnología vuelve a plantear un gran desafío a los legisladores. Cuando se presentó la propuesta de reglamento en abril de 2021, las herramientas basadas en IA generativa no estaban tan desarrolladas y no eran conocidas por el público. La UE está a tiempo de incluirlas en la normativa antes de presentar la propuesta al Pleno, pero ¿qué riesgos hay de que cuando entre en vigor, en 2025, la tecnología no haya avanzado representando algo nuevo? Ley de IA: Regular usos y no tecnologías “Este es el principal problema de la ley europea, debería tener más flexibilidad”, dice Oreste Pollicino, catedrático de Derecho Constitucional y profesor en Derecho de la Tecnología de Internet de la Universidad Bocconi. “La ley de AI europea está tratando de definir la tecnología como en una fotografía, se describe el statu quo, mientras la IA es dinámica, y el riesgo es tener una ley que cuando entre en vigor esté ya obsoleta”, afirma. Se ha dicho que ​​el ánimo de esta ley es regular los usos, no las tecnologías en sí, pero aún así esto parece bastante optimista, incluso para los parlamentarios europeos. ☷ Privacidad y ChatGPT Las lagunas legales o la pesadilla de protección de datos Ibán García del Blanco, eurodiputado por el PSOE, está debatiendo lo que será la propuesta como ponente socialista para esta ley en dos comisiones (Cultura y Educación, y Asuntos Jurídicos) que participan en la tramitación de esta ley. Fue ponente de la primera propuesta que hizo el Parlamento Europeo en octubre de 2020 sobre ética aplicada a IA y tecnologías conexas, luego coordinador del comité especial sobre IA y ha estado como ponente en la sombra en varios comités de la nueva ley. Dice que el objetivo final es tener una regulación sólida y resiliente, “pero me parece un poco optimista pensar que no vamos a necesitar resolver o corregir algunas cosas en cuanto a explosiones tecnológicas. Tenemos que ser conscientes de que estamos ante una realidad completamente nueva”, admite. Qué se debate en la propuesta de Ley de IA de la UE Para garantizar la toma de decisión a nivel europeo, una “superoficina” será la encargada de marcar las líneas generales y la interpretación de algunas realidades tecnológicas, según García del Blanco, que admite que hay algo de alergia a la palabra agencia, por parte de quienes preferían relegar estas cuestiones al ámbito nacional. La piedra angular de la Ley de IA es un sistema de clasificación que determina el nivel de riesgo que una tecnología de IA podría suponer para la salud y la seguridad o los derechos fundamentales de una persona, como la privacidad. El marco incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Dentro del inaceptable, que cuyos usos estarían prohibidos, está el social scoring, el sistema de puntuación chino que determina la reputación de una persona de acuerdo a varios factores, entre los que está su actividad en internet. Los sistemas de “alto riesgo” de IA son los que le siguen, y están permitidos, pero empresas y usuarios deben cumplir una normativa que exige pruebas rigurosas, documentación adecuada de la calidad de los datos y un marco de rendición de cuentas que detalle la supervisión humana. La IA considerada de alto riesgo incluye vehículos autónomos, dispositivos médicos y maquinaria de infraestructuras críticas, por ejemplo. Cuál es el riesgo de las IA generativas para la UE ¿Dónde entrarían las IA generativas, como ChatGPT o los deepfakes hechos con Midjourney? Durante la presidencia rotatoria francesa de la UE se hizo la recomendación de que se incluyesen en el alto riesgo de la ley de IA. Los legisladores han propuesto la definición de IA de propósito general (GPAIS, General Purpose AI System) para modelos de IA generativa como ChatGPT, ya que los consideran herramientas con más de un tipo de uso. Pollicino está de acuerdo con la calificación de alto riesgo: “No sabemos cómo serán desarrolladas, así que yo las incluiría a todas ellas en ese nivel. Pero no las prohibiría. Les pondría la protección más alta”, dice. García del Blanco duda. “Tiendo a ser tuitivo, tiendo a ser proteccionista, pero en todo caso creo que todo tiene muchos matices. A mí me gustaría como mínimo que hubiera unas obligaciones especiales sobre transparencia en este tipo de tecnología, al menos eso”, reflexiona. “Más importante que clasificar la IA generativa como de alto riesgo es que las instituciones de la UE se aseguren de que estos sistemas cumplen determinados requisitos relacionados con la protección de los consumidores, la transparencia, la responsabilidad, la seguridad y la protección de datos antes de ser utilizados por los consumidores”, explica desde BEUC Oliveira da Silva. Thierry Breton, comisario europeo de Mercado Interior, ha dicho que los contenidos creados por IA deberían llevar una advertencia específica, pero esta es una cuestión que se sigue discutiendo. “No tengo ninguna duda en el ámbito del periodismo, la televisión o los informativos, pero los deepfakes pueden utilizarse para muchas cosas, por ejemplo, sátiras, o en el ámbito artístico”, dice García del Blanco. Fuentes Ibán García del Blanco, eurodiputado, ponente socialista en las comisiones CULT (Cultura y Educación) y JURI (Asuntos Jurídicos) y miembro de la Comisión AIDA, Comisión Especial sobre Inteligencia Artificial Oreste Pollicino, catedrático de Derecho Constitucional y profesor en Derecho de la Tecnología de Internet de la italiana Universidad Bocconi Joan Barata, abogado, investigador del Future of Free Speech project del think tank danés Justitia Frederico Oliveira Da Silva, jurista principal de BEUC, The European Consumer Organisation Propuesta de Reglamento del Parlamento Europeo y del Consejo para una Ley de Inteligencia Artificial Enfoque general de la propuesta de Ley de AI As AI booms, EU lawmakers wrangle over new rules, Reuters 21-03-2022, The Artificial Intelligence Act, Parlamento Europeo Bruselas quiere que los contenidos generados por inteligencia artificial lleven una advertencia específica, El País Qué es la Inteligencia Artificial General (AGI) y qué tiene que ver con GPT4 y OpenAI La UE quiere regular la inteligencia artificial

La llegada de ChatGPT y Midjourney ha encontrado a la Unión Europea con una gran normativa de inteligencia artificial en preparación. Llegan a tiempo a incluir las IA generativas, que no estaban previstas originalmente. Aunque el principio que los guía es legislar sobre «usos» y no sobre «tecnologías», es difícil hacerlo: ¿quién podía prever ChatGPT hace 2 años? ¿Cómo estarán las cosas en 2025, cuando previsiblemente entre en vigor la normativa?

Los parlamentarios están debatiendo estas cuestiones en varias comisiones. Hace unas horas se ha confirmado el 11 de mayo como la fecha en la que presentarán la propuesta al Parlamento. He hablado con Ibán García del Blanco, un eurodiputado que hizo la primera propuesta de AI en la UE, lleva años trabajando en el borrador de esta ley, y está en estas negociaciones; con BEUC, una federación de 46 organizaciones de consumidores europeos; y con algunos expertos en libertad de expresión, medios y derecho, intentado hacer un panorama de la situación en este reportaje para Newtral: Bruselas ultima una propuesta de ley para regular el desarrollo de la Inteligencia Artificial en la UE.

[Archivo]

Un ChatGPT con moraleja

Una app con inteligencia artificial busca meter moralejas en cuentos infantiles

Que miles de niños se vayan a dormir cada noche escuchando un cuento infantil que ha generado una AI puede parecer una gran idea o un buen comienzo de un capítulo de Black Mirror. He hablado con quienes piensan una cosa y la otra, porque sí, ya hay un ChatGPT para esto. La app se llama Tiny Storie y genera un texto corto, con posibilidad de que una voz lo lea en audio. Cada cuento infantil le cuesta 0,50 euros en llamadas a la API a la empresa. Piensan que puede ser una buena herramienta de «concienciación y recaudación de fondos para asociaciones».

Lo más controvertido es que pide una moraleja, algo que los especialistas dicen que está «archisuperado». «Buscar un cierre moral para una historia infantil nos retrotrae a una idea de la infancia antigua y un literatura caduca. Uno de los principios del arte es el goce y la gratuidad», dice Raquel López Royo, una especialista en literatura infantil y juvenil con más de 30 años de experiencia.

Tiny Storie utiliza la API de OpenAI para texto y para la imagen, creada con Dall-E. También está conectada con los servicios de Google para autenticación de usuarios y creación de las voces. Son tres llamadas a la API por cuento, que cuesta 0,05€ a su creador. Todo es parte de un reportaje que he escrito para Newtral: ‘Una app con inteligencia artificial busca meter moralejas en cuentos infantiles‘, y que he ilustrado usando Midjourney, con la imagen que acompaña este post.

[Archivo]

El año de la inteligencia artificial

2022, el año de la inteligencia artificial

2022 ha sido un año terrible para criptocosas con brillos excesivos, pero excepcional para la inteligencia artificial, que se dio un baño de masas no sólo con ChatGPT sino con los miles de usos cotidianos que ya tiene. En 2022 vimos cosas increíbles e históricas:

De todo esto escribí para un resumen tecnológico del año en Newtral. Hay muchos enlaces hacia temas claves del año, y creo que es una buena guía para afrontar 2023, aunque sigamos con los ojos bien abiertos a nuevas historias que escribir.

[Archivo]
Imagen: Ilustraciones hechas con Midjourney

ChatGPT, demasiado humana

ChatGPT

Como otros millones de usuarios, he estado charlando con ChatGPT. Como otros periodistas, le pedí que escribiera el primer párrafo de un artículo sobre sí misma. Pero a diferencia de varios, no empecé el artículo pegando ese párrafo. Lo hizo bien. Muy bien. Pero no puedo confiar en ella. Miente. Seduce y cuando la pillan, pide perdón. Así de humana es.

El hito de ChatGPT es que ha logrado brillantemente el primer objetivo de sus creadores, que era mejorar aún más GPT-3 en cuanto a su conversación, y que resultara más humana en los diálogos. Lo han hecho tan bien que fabula, se inventa cosas, y cuando le haces observaciones cambia otra vez su discurso para ser creíble. Un peligro para la desinformación.

Lo que averigüé de ella hablando con otros que la han usado, y con un filósofo que se dedica a Ética de la IA lo escribí para Newtral en «Por qué no puedes fiarte de ChatGPT, la inteligencia artificial conversacional más avanzada«.

[Archivo]

Foto: Tara Winstead