La ley de Inteligencia Artificial europea se enfrenta a las IA generativas

La UE quiere regular la inteligencia artificial | Dusan Cvetanovix Por Marilín Gonzalo Algoritma 27 abril 2023 | 6 min lectura ChatGPT Inteligencia Artificial Unión Europea “Inminente”. Este es el adjetivo con el que describen desde Bruselas la presentación de la propuesta de la Ley de inteligencia artificial (IA) que se encuentra ahora en plena negociación en la Unión Europea. El 11 de mayo se votará en los comités técnicos que llevan meses debatiendo este texto para cerrar los acuerdos parlamentarios. De este acuerdo saldrá la propuesta para el Parlamento Europeo, donde se votará en pleno de la UE. La rápida evolución de las tecnologías de IA generativas, como ChatGPT o Midjourney, ha encontrado a la Unión Europea con esta gran normativa de inteligencia artificial en ciernes. La percepción de los riesgos de la IA ha levantado voces a favor de regular este tipo de tecnologías en todo el mundo, y el Reglamento Europeo de la IA (IA Act) que prepara Europa traerá definiciones para una nueva realidad con robots conversacionales y herramientas generadoras de imágenes usadas a nivel masivo. Al ser un Reglamento se aplicará inmediatamente en los 27 países de la UE sin necesidad de transponerlo a la normativa nacional. La propuesta que se presentará en la UE en las próximas semanas no será definitiva, y aún podrá cambiar hasta su puesta en vigor como normativa general en Europa. Ha comenzado con un documento que se viene negociando desde 2019 y su texto definitivo deberá ser aprobado en los trílogos, que es el momento en que las instituciones europeas (Comisión, Parlamento y Presidencia del Consejo) consensúan las propuestas legislativas. Este proceso ocurrirá durante la presidencia española de la UE. En marzo, una reunión en Estrasburgo de 5 horas que esperaba llegar a consensos sobre la propuesta de 108 páginas terminó sin resolución, según informó Reuters. Se espera que a finales de este 2023 se apruebe aunque no se cuenta con que entre en vigor antes de finales de 2024, o incluso de 2025. Cómo hacer leyes de cara al futuro cuando todo cambia “ChatGPT es la punta del iceberg”, ha dicho BEUC, la federación de 46 organizaciones de consumidores europeos que ha emitido un requerimiento a la UE y a las autoridades nacionales para investigar a OpenAI y organizaciones similares. BEUC declara estar alarmada por la velocidad con la que ChatGPT y sistemas similares se están desarrollando e implantando con la correspondiente desprotección de los usuarios, a los que la Ley de IA aún dejará desprotegidos un par de años hasta entrar en vigor. «Estamos ante una realidad completamente nueva» (García del Blanco, eurodiputado) Desde la organización de consumidores explican que la propuesta original para la Ley de IA no cumplía sus expectativas ni el objetivo de la UE de hacer posible una IA en la que la gente pueda confiar. “Las normas propuestas se centran en una gama muy limitada de usos y problemas de la IA”, explica desde Bruselas Frederico Oliveira Da Silva, jurista principal de BEUC. Pero creen que en la propuesta que salga adelante el Parlamento dará un paso en la dirección correcta e incluirá salvaguardas para proteger a los consumidores que usen o sean objeto de sistemas de AI. Un ejemplo: la lista de prácticas prohibidas propuesta por la Comisión será ampliada con ciertos usos de reconocimiento de emociones. También es probable que se incluyan nuevos derechos como el derecho de los consumidores a recibir una explicación de parte de un operador de IA o el derecho a reclamar ante una autoridad. Joan Barata, abogado y experto internacional en materia de libertad de expresión, cree que en materia de IA hay que ser “extremadamente prudente” porque es mucho lo que todavía no entendemos desde el punto de vista de consecuencias de su uso. Aún así, cree que es necesario contar con una regulación a nivel europeo. “Un marco de principios básicos y fundamentales que otorguen un grado mínimo de seguridad jurídica y garantías procedimentales con relación a las decisiones concretas que las autoridades vayan a tomar en terrenos diversos”, define. La popularización de sistemas de IA avanzados como ChatGPT ha disparado un debate sobre la evolución y el alcance de la IA en nuestra sociedad. Desde OpenAI, la empresa dueña de ChatGPT y resto de compañías que han entrado en la carrera de la IA fijan explícitamente su objetivo en llegar a la AGI (Inteligencia Artificial de Propósito General), un tipo de inteligencia artificial similar o superior a la humana que tendrá consecuencias de largo alcance para la humanidad. No hay consenso sobre el punto en el que estamos en esa proyección, ni sobre las definiciones en torno a estos conceptos, que se multiplican en discursos que van desde la fascinación al miedo por estos sistemas. Y entre los parlamentarios europeos también hay desacuerdo en la definición de estos modelos de IA o en la definición de autonomía. La tecnología vuelve a plantear un gran desafío a los legisladores. Cuando se presentó la propuesta de reglamento en abril de 2021, las herramientas basadas en IA generativa no estaban tan desarrolladas y no eran conocidas por el público. La UE está a tiempo de incluirlas en la normativa antes de presentar la propuesta al Pleno, pero ¿qué riesgos hay de que cuando entre en vigor, en 2025, la tecnología no haya avanzado representando algo nuevo? Ley de IA: Regular usos y no tecnologías “Este es el principal problema de la ley europea, debería tener más flexibilidad”, dice Oreste Pollicino, catedrático de Derecho Constitucional y profesor en Derecho de la Tecnología de Internet de la Universidad Bocconi. “La ley de AI europea está tratando de definir la tecnología como en una fotografía, se describe el statu quo, mientras la IA es dinámica, y el riesgo es tener una ley que cuando entre en vigor esté ya obsoleta”, afirma. Se ha dicho que ​​el ánimo de esta ley es regular los usos, no las tecnologías en sí, pero aún así esto parece bastante optimista, incluso para los parlamentarios europeos. ☷ Privacidad y ChatGPT Las lagunas legales o la pesadilla de protección de datos Ibán García del Blanco, eurodiputado por el PSOE, está debatiendo lo que será la propuesta como ponente socialista para esta ley en dos comisiones (Cultura y Educación, y Asuntos Jurídicos) que participan en la tramitación de esta ley. Fue ponente de la primera propuesta que hizo el Parlamento Europeo en octubre de 2020 sobre ética aplicada a IA y tecnologías conexas, luego coordinador del comité especial sobre IA y ha estado como ponente en la sombra en varios comités de la nueva ley. Dice que el objetivo final es tener una regulación sólida y resiliente, “pero me parece un poco optimista pensar que no vamos a necesitar resolver o corregir algunas cosas en cuanto a explosiones tecnológicas. Tenemos que ser conscientes de que estamos ante una realidad completamente nueva”, admite. Qué se debate en la propuesta de Ley de IA de la UE Para garantizar la toma de decisión a nivel europeo, una “superoficina” será la encargada de marcar las líneas generales y la interpretación de algunas realidades tecnológicas, según García del Blanco, que admite que hay algo de alergia a la palabra agencia, por parte de quienes preferían relegar estas cuestiones al ámbito nacional. La piedra angular de la Ley de IA es un sistema de clasificación que determina el nivel de riesgo que una tecnología de IA podría suponer para la salud y la seguridad o los derechos fundamentales de una persona, como la privacidad. El marco incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Dentro del inaceptable, que cuyos usos estarían prohibidos, está el social scoring, el sistema de puntuación chino que determina la reputación de una persona de acuerdo a varios factores, entre los que está su actividad en internet. Los sistemas de “alto riesgo” de IA son los que le siguen, y están permitidos, pero empresas y usuarios deben cumplir una normativa que exige pruebas rigurosas, documentación adecuada de la calidad de los datos y un marco de rendición de cuentas que detalle la supervisión humana. La IA considerada de alto riesgo incluye vehículos autónomos, dispositivos médicos y maquinaria de infraestructuras críticas, por ejemplo. Cuál es el riesgo de las IA generativas para la UE ¿Dónde entrarían las IA generativas, como ChatGPT o los deepfakes hechos con Midjourney? Durante la presidencia rotatoria francesa de la UE se hizo la recomendación de que se incluyesen en el alto riesgo de la ley de IA. Los legisladores han propuesto la definición de IA de propósito general (GPAIS, General Purpose AI System) para modelos de IA generativa como ChatGPT, ya que los consideran herramientas con más de un tipo de uso. Pollicino está de acuerdo con la calificación de alto riesgo: “No sabemos cómo serán desarrolladas, así que yo las incluiría a todas ellas en ese nivel. Pero no las prohibiría. Les pondría la protección más alta”, dice. García del Blanco duda. “Tiendo a ser tuitivo, tiendo a ser proteccionista, pero en todo caso creo que todo tiene muchos matices. A mí me gustaría como mínimo que hubiera unas obligaciones especiales sobre transparencia en este tipo de tecnología, al menos eso”, reflexiona. “Más importante que clasificar la IA generativa como de alto riesgo es que las instituciones de la UE se aseguren de que estos sistemas cumplen determinados requisitos relacionados con la protección de los consumidores, la transparencia, la responsabilidad, la seguridad y la protección de datos antes de ser utilizados por los consumidores”, explica desde BEUC Oliveira da Silva. Thierry Breton, comisario europeo de Mercado Interior, ha dicho que los contenidos creados por IA deberían llevar una advertencia específica, pero esta es una cuestión que se sigue discutiendo. “No tengo ninguna duda en el ámbito del periodismo, la televisión o los informativos, pero los deepfakes pueden utilizarse para muchas cosas, por ejemplo, sátiras, o en el ámbito artístico”, dice García del Blanco. Fuentes Ibán García del Blanco, eurodiputado, ponente socialista en las comisiones CULT (Cultura y Educación) y JURI (Asuntos Jurídicos) y miembro de la Comisión AIDA, Comisión Especial sobre Inteligencia Artificial Oreste Pollicino, catedrático de Derecho Constitucional y profesor en Derecho de la Tecnología de Internet de la italiana Universidad Bocconi Joan Barata, abogado, investigador del Future of Free Speech project del think tank danés Justitia Frederico Oliveira Da Silva, jurista principal de BEUC, The European Consumer Organisation Propuesta de Reglamento del Parlamento Europeo y del Consejo para una Ley de Inteligencia Artificial Enfoque general de la propuesta de Ley de AI As AI booms, EU lawmakers wrangle over new rules, Reuters 21-03-2022, The Artificial Intelligence Act, Parlamento Europeo Bruselas quiere que los contenidos generados por inteligencia artificial lleven una advertencia específica, El País Qué es la Inteligencia Artificial General (AGI) y qué tiene que ver con GPT4 y OpenAI La UE quiere regular la inteligencia artificial

La llegada de ChatGPT y Midjourney ha encontrado a la Unión Europea con una gran normativa de inteligencia artificial en preparación. Llegan a tiempo a incluir las IA generativas, que no estaban previstas originalmente. Aunque el principio que los guía es legislar sobre «usos» y no sobre «tecnologías», es difícil hacerlo: ¿quién podía prever ChatGPT hace 2 años? ¿Cómo estarán las cosas en 2025, cuando previsiblemente entre en vigor la normativa?

Los parlamentarios están debatiendo estas cuestiones en varias comisiones. Hace unas horas se ha confirmado el 11 de mayo como la fecha en la que presentarán la propuesta al Parlamento. He hablado con Ibán García del Blanco, un eurodiputado que hizo la primera propuesta de AI en la UE, lleva años trabajando en el borrador de esta ley, y está en estas negociaciones; con BEUC, una federación de 46 organizaciones de consumidores europeos; y con algunos expertos en libertad de expresión, medios y derecho, intentado hacer un panorama de la situación en este reportaje para Newtral: Bruselas ultima una propuesta de ley para regular el desarrollo de la Inteligencia Artificial en la UE.

[Archivo]

ChatGPT no aprueba pero seduce al profesor

Poner a ChatGPT ante un examen real con el que se esté evaluando ahora a alumnos de un Máster en Administración de Empresas en España: lo hicimos. No aprueba, pero impresiona. Y no a cualquiera sino a un doctor de IA que lleva años investigando y desarrollando patentes.

Más interesante todavía es lo que dice este profesor: que les hablará a sus alumnos de ChatGPT desde el primer día de sus próximas clases. “A mí me da igual si lo has escrito tú o si lo ha escrito una máquina, si lo has escrito con Word o si te lo has copiado de internet. Al final te voy a poner la nota sobre lo que estoy intentando evaluar. Creo que el punto clave es incorporar que es muy fácil generar un texto pero eres tú el que se responsabiliza de lo que has entregado. Es más importante transmitir eso”.

El examen y los resultados, en Newtral: Ponemos un examen de MBA a ChatGPT y no aprueba (pero por poco)

[Archivo]

Un ChatGPT con moraleja

Una app con inteligencia artificial busca meter moralejas en cuentos infantiles

Que miles de niños se vayan a dormir cada noche escuchando un cuento infantil que ha generado una AI puede parecer una gran idea o un buen comienzo de un capítulo de Black Mirror. He hablado con quienes piensan una cosa y la otra, porque sí, ya hay un ChatGPT para esto. La app se llama Tiny Storie y genera un texto corto, con posibilidad de que una voz lo lea en audio. Cada cuento infantil le cuesta 0,50 euros en llamadas a la API a la empresa. Piensan que puede ser una buena herramienta de «concienciación y recaudación de fondos para asociaciones».

Lo más controvertido es que pide una moraleja, algo que los especialistas dicen que está «archisuperado». «Buscar un cierre moral para una historia infantil nos retrotrae a una idea de la infancia antigua y un literatura caduca. Uno de los principios del arte es el goce y la gratuidad», dice Raquel López Royo, una especialista en literatura infantil y juvenil con más de 30 años de experiencia.

Tiny Storie utiliza la API de OpenAI para texto y para la imagen, creada con Dall-E. También está conectada con los servicios de Google para autenticación de usuarios y creación de las voces. Son tres llamadas a la API por cuento, que cuesta 0,05€ a su creador. Todo es parte de un reportaje que he escrito para Newtral: ‘Una app con inteligencia artificial busca meter moralejas en cuentos infantiles‘, y que he ilustrado usando Midjourney, con la imagen que acompaña este post.

[Archivo]

La Oficina del Dato y el responsable de los Datos de España

Alberto Palomo, Chief Data Officer

Esta semana hemos publicado un tema que he perseguido durante año y medio: conseguimos entrevistar al nuevo Chief Data Officer de España para saber en qué ha estado trabajando. Antes había hablado con personas que trabajan con datos públicos: un estadístico, una periodista que cubrió la pandemia, y había escrito cuánto podía ayudar un Chief Data Officer en la gestión de datos públicos.

Dependiente de la Secretaría de Estado de Digitalización e Inteligencia Artificial, su oficina es “estratégica” por lo que no ejecuta presupuesto. Dice que constantemente le piden datos, pero él no los gestiona: solo ayuda a definir políticas y consensuar estrategias. Una de las principales tareas de la Oficina del Dato es “evangelizar” y difundir la cultura del dato. En año y medio ha dado 3 entrevistas: a 2 medios pequeños y a una revista de la administración pública.

Algo que me llamó la atención fue su visión sobre el tema de los datos abiertos, y creo que esto interesa a todos los que trabajamos con datos públicos, como los periodistas de datos. Le pregunté: ¿El año que viene podríamos ver que los ministerios publiquen datos en formatos más abiertos que un PDF? Me dijo: «Una cosa son los datos abiertos y otra los datos interoperables», y su estrategia está más orientada a ellos. «Creo que el diseño de los fondos de recuperación no puede estar necesariamente ligado a lo que son los datos abiertos, sino a una gestión que tenga más impacto a corto plazo».

En Newtral: Sin presupuesto propio pero con un proyecto “estratégico”: Alberto Palomo, tras un año al frente de la Oficina del Dato

[Archivo]

Google Showcase y los medios en España

Google Showcase en Cuadernos de Periodistas

Una de las noticias del 2022 para los medios en España fue la vuelta de Google News, 8 años después de su lamentado cierre, a causa de la ley Sinde y luego el Canon AEDE. Esta vuelta tiene también otro nombre y otro producto para los publishers: Google Showcase, que es el panel que ha preparado Google para una serie de medios a los que incluirá en la propuesta para lograr periodismo de calidad en su agregador. La premisa es interesante porque premia una selección humana por parte de los propios medios, y paga por ello.

La Asociación de Periodistas de Madrid me pidió un reportaje para saber cómo está siendo la implementación de Showcase en los principales digitales de España, para su Cuadernos de Periodistas. Hablé con gente de Prisa, eldiario.es, El Confidencial y Google para conocer cómo está siendo su implantación en los medios y lo escribí para el número que acaba de salir. Está en papel, en el número 45 que ha salido en diciembre, y se pueden comprar ejemplares sueltos en su web.

Google Showcase: la apuesta de Google por el periodismo de calidad aterriza en España [PDF 1, 2]

Andrew Tate

Andrew Tate

Hay historias que surgen de una respuesta en Twitter y se desenvuelven ante nuestros ojos. Es lógico que sean virales, en principio porque lo tienen todo: esta tiene un hombre malo e idiota, coches de lujo, una niña buena y atrevida, un insulto ingenioso, cambio climático, una caja de pizza, una coincidencia, hasta Elon Musk está metido. Dos tuits que se meten de cabeza en la lista de los más likeados. Y un caso criminal que continúa abierto. Esto es lo que pasó con Andrew Tate y Greta Thunberg horas antes de la detención de Tate.

[Archivo]

El año de la inteligencia artificial

2022, el año de la inteligencia artificial

2022 ha sido un año terrible para criptocosas con brillos excesivos, pero excepcional para la inteligencia artificial, que se dio un baño de masas no sólo con ChatGPT sino con los miles de usos cotidianos que ya tiene. En 2022 vimos cosas increíbles e históricas:

De todo esto escribí para un resumen tecnológico del año en Newtral. Hay muchos enlaces hacia temas claves del año, y creo que es una buena guía para afrontar 2023, aunque sigamos con los ojos bien abiertos a nuevas historias que escribir.

[Archivo]
Imagen: Ilustraciones hechas con Midjourney