La ley de Inteligencia Artificial europea se enfrenta a las IA generativas

La UE quiere regular la inteligencia artificial | Dusan Cvetanovix Por Marilín Gonzalo Algoritma 27 abril 2023 | 6 min lectura ChatGPT Inteligencia Artificial Unión Europea “Inminente”. Este es el adjetivo con el que describen desde Bruselas la presentación de la propuesta de la Ley de inteligencia artificial (IA) que se encuentra ahora en plena negociación en la Unión Europea. El 11 de mayo se votará en los comités técnicos que llevan meses debatiendo este texto para cerrar los acuerdos parlamentarios. De este acuerdo saldrá la propuesta para el Parlamento Europeo, donde se votará en pleno de la UE. La rápida evolución de las tecnologías de IA generativas, como ChatGPT o Midjourney, ha encontrado a la Unión Europea con esta gran normativa de inteligencia artificial en ciernes. La percepción de los riesgos de la IA ha levantado voces a favor de regular este tipo de tecnologías en todo el mundo, y el Reglamento Europeo de la IA (IA Act) que prepara Europa traerá definiciones para una nueva realidad con robots conversacionales y herramientas generadoras de imágenes usadas a nivel masivo. Al ser un Reglamento se aplicará inmediatamente en los 27 países de la UE sin necesidad de transponerlo a la normativa nacional. La propuesta que se presentará en la UE en las próximas semanas no será definitiva, y aún podrá cambiar hasta su puesta en vigor como normativa general en Europa. Ha comenzado con un documento que se viene negociando desde 2019 y su texto definitivo deberá ser aprobado en los trílogos, que es el momento en que las instituciones europeas (Comisión, Parlamento y Presidencia del Consejo) consensúan las propuestas legislativas. Este proceso ocurrirá durante la presidencia española de la UE. En marzo, una reunión en Estrasburgo de 5 horas que esperaba llegar a consensos sobre la propuesta de 108 páginas terminó sin resolución, según informó Reuters. Se espera que a finales de este 2023 se apruebe aunque no se cuenta con que entre en vigor antes de finales de 2024, o incluso de 2025. Cómo hacer leyes de cara al futuro cuando todo cambia “ChatGPT es la punta del iceberg”, ha dicho BEUC, la federación de 46 organizaciones de consumidores europeos que ha emitido un requerimiento a la UE y a las autoridades nacionales para investigar a OpenAI y organizaciones similares. BEUC declara estar alarmada por la velocidad con la que ChatGPT y sistemas similares se están desarrollando e implantando con la correspondiente desprotección de los usuarios, a los que la Ley de IA aún dejará desprotegidos un par de años hasta entrar en vigor. «Estamos ante una realidad completamente nueva» (García del Blanco, eurodiputado) Desde la organización de consumidores explican que la propuesta original para la Ley de IA no cumplía sus expectativas ni el objetivo de la UE de hacer posible una IA en la que la gente pueda confiar. “Las normas propuestas se centran en una gama muy limitada de usos y problemas de la IA”, explica desde Bruselas Frederico Oliveira Da Silva, jurista principal de BEUC. Pero creen que en la propuesta que salga adelante el Parlamento dará un paso en la dirección correcta e incluirá salvaguardas para proteger a los consumidores que usen o sean objeto de sistemas de AI. Un ejemplo: la lista de prácticas prohibidas propuesta por la Comisión será ampliada con ciertos usos de reconocimiento de emociones. También es probable que se incluyan nuevos derechos como el derecho de los consumidores a recibir una explicación de parte de un operador de IA o el derecho a reclamar ante una autoridad. Joan Barata, abogado y experto internacional en materia de libertad de expresión, cree que en materia de IA hay que ser “extremadamente prudente” porque es mucho lo que todavía no entendemos desde el punto de vista de consecuencias de su uso. Aún así, cree que es necesario contar con una regulación a nivel europeo. “Un marco de principios básicos y fundamentales que otorguen un grado mínimo de seguridad jurídica y garantías procedimentales con relación a las decisiones concretas que las autoridades vayan a tomar en terrenos diversos”, define. La popularización de sistemas de IA avanzados como ChatGPT ha disparado un debate sobre la evolución y el alcance de la IA en nuestra sociedad. Desde OpenAI, la empresa dueña de ChatGPT y resto de compañías que han entrado en la carrera de la IA fijan explícitamente su objetivo en llegar a la AGI (Inteligencia Artificial de Propósito General), un tipo de inteligencia artificial similar o superior a la humana que tendrá consecuencias de largo alcance para la humanidad. No hay consenso sobre el punto en el que estamos en esa proyección, ni sobre las definiciones en torno a estos conceptos, que se multiplican en discursos que van desde la fascinación al miedo por estos sistemas. Y entre los parlamentarios europeos también hay desacuerdo en la definición de estos modelos de IA o en la definición de autonomía. La tecnología vuelve a plantear un gran desafío a los legisladores. Cuando se presentó la propuesta de reglamento en abril de 2021, las herramientas basadas en IA generativa no estaban tan desarrolladas y no eran conocidas por el público. La UE está a tiempo de incluirlas en la normativa antes de presentar la propuesta al Pleno, pero ¿qué riesgos hay de que cuando entre en vigor, en 2025, la tecnología no haya avanzado representando algo nuevo? Ley de IA: Regular usos y no tecnologías “Este es el principal problema de la ley europea, debería tener más flexibilidad”, dice Oreste Pollicino, catedrático de Derecho Constitucional y profesor en Derecho de la Tecnología de Internet de la Universidad Bocconi. “La ley de AI europea está tratando de definir la tecnología como en una fotografía, se describe el statu quo, mientras la IA es dinámica, y el riesgo es tener una ley que cuando entre en vigor esté ya obsoleta”, afirma. Se ha dicho que ​​el ánimo de esta ley es regular los usos, no las tecnologías en sí, pero aún así esto parece bastante optimista, incluso para los parlamentarios europeos. ☷ Privacidad y ChatGPT Las lagunas legales o la pesadilla de protección de datos Ibán García del Blanco, eurodiputado por el PSOE, está debatiendo lo que será la propuesta como ponente socialista para esta ley en dos comisiones (Cultura y Educación, y Asuntos Jurídicos) que participan en la tramitación de esta ley. Fue ponente de la primera propuesta que hizo el Parlamento Europeo en octubre de 2020 sobre ética aplicada a IA y tecnologías conexas, luego coordinador del comité especial sobre IA y ha estado como ponente en la sombra en varios comités de la nueva ley. Dice que el objetivo final es tener una regulación sólida y resiliente, “pero me parece un poco optimista pensar que no vamos a necesitar resolver o corregir algunas cosas en cuanto a explosiones tecnológicas. Tenemos que ser conscientes de que estamos ante una realidad completamente nueva”, admite. Qué se debate en la propuesta de Ley de IA de la UE Para garantizar la toma de decisión a nivel europeo, una “superoficina” será la encargada de marcar las líneas generales y la interpretación de algunas realidades tecnológicas, según García del Blanco, que admite que hay algo de alergia a la palabra agencia, por parte de quienes preferían relegar estas cuestiones al ámbito nacional. La piedra angular de la Ley de IA es un sistema de clasificación que determina el nivel de riesgo que una tecnología de IA podría suponer para la salud y la seguridad o los derechos fundamentales de una persona, como la privacidad. El marco incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Dentro del inaceptable, que cuyos usos estarían prohibidos, está el social scoring, el sistema de puntuación chino que determina la reputación de una persona de acuerdo a varios factores, entre los que está su actividad en internet. Los sistemas de “alto riesgo” de IA son los que le siguen, y están permitidos, pero empresas y usuarios deben cumplir una normativa que exige pruebas rigurosas, documentación adecuada de la calidad de los datos y un marco de rendición de cuentas que detalle la supervisión humana. La IA considerada de alto riesgo incluye vehículos autónomos, dispositivos médicos y maquinaria de infraestructuras críticas, por ejemplo. Cuál es el riesgo de las IA generativas para la UE ¿Dónde entrarían las IA generativas, como ChatGPT o los deepfakes hechos con Midjourney? Durante la presidencia rotatoria francesa de la UE se hizo la recomendación de que se incluyesen en el alto riesgo de la ley de IA. Los legisladores han propuesto la definición de IA de propósito general (GPAIS, General Purpose AI System) para modelos de IA generativa como ChatGPT, ya que los consideran herramientas con más de un tipo de uso. Pollicino está de acuerdo con la calificación de alto riesgo: “No sabemos cómo serán desarrolladas, así que yo las incluiría a todas ellas en ese nivel. Pero no las prohibiría. Les pondría la protección más alta”, dice. García del Blanco duda. “Tiendo a ser tuitivo, tiendo a ser proteccionista, pero en todo caso creo que todo tiene muchos matices. A mí me gustaría como mínimo que hubiera unas obligaciones especiales sobre transparencia en este tipo de tecnología, al menos eso”, reflexiona. “Más importante que clasificar la IA generativa como de alto riesgo es que las instituciones de la UE se aseguren de que estos sistemas cumplen determinados requisitos relacionados con la protección de los consumidores, la transparencia, la responsabilidad, la seguridad y la protección de datos antes de ser utilizados por los consumidores”, explica desde BEUC Oliveira da Silva. Thierry Breton, comisario europeo de Mercado Interior, ha dicho que los contenidos creados por IA deberían llevar una advertencia específica, pero esta es una cuestión que se sigue discutiendo. “No tengo ninguna duda en el ámbito del periodismo, la televisión o los informativos, pero los deepfakes pueden utilizarse para muchas cosas, por ejemplo, sátiras, o en el ámbito artístico”, dice García del Blanco. Fuentes Ibán García del Blanco, eurodiputado, ponente socialista en las comisiones CULT (Cultura y Educación) y JURI (Asuntos Jurídicos) y miembro de la Comisión AIDA, Comisión Especial sobre Inteligencia Artificial Oreste Pollicino, catedrático de Derecho Constitucional y profesor en Derecho de la Tecnología de Internet de la italiana Universidad Bocconi Joan Barata, abogado, investigador del Future of Free Speech project del think tank danés Justitia Frederico Oliveira Da Silva, jurista principal de BEUC, The European Consumer Organisation Propuesta de Reglamento del Parlamento Europeo y del Consejo para una Ley de Inteligencia Artificial Enfoque general de la propuesta de Ley de AI As AI booms, EU lawmakers wrangle over new rules, Reuters 21-03-2022, The Artificial Intelligence Act, Parlamento Europeo Bruselas quiere que los contenidos generados por inteligencia artificial lleven una advertencia específica, El País Qué es la Inteligencia Artificial General (AGI) y qué tiene que ver con GPT4 y OpenAI La UE quiere regular la inteligencia artificial

La llegada de ChatGPT y Midjourney ha encontrado a la Unión Europea con una gran normativa de inteligencia artificial en preparación. Llegan a tiempo a incluir las IA generativas, que no estaban previstas originalmente. Aunque el principio que los guía es legislar sobre «usos» y no sobre «tecnologías», es difícil hacerlo: ¿quién podía prever ChatGPT hace 2 años? ¿Cómo estarán las cosas en 2025, cuando previsiblemente entre en vigor la normativa?

Los parlamentarios están debatiendo estas cuestiones en varias comisiones. Hace unas horas se ha confirmado el 11 de mayo como la fecha en la que presentarán la propuesta al Parlamento. He hablado con Ibán García del Blanco, un eurodiputado que hizo la primera propuesta de AI en la UE, lleva años trabajando en el borrador de esta ley, y está en estas negociaciones; con BEUC, una federación de 46 organizaciones de consumidores europeos; y con algunos expertos en libertad de expresión, medios y derecho, intentado hacer un panorama de la situación en este reportaje para Newtral: Bruselas ultima una propuesta de ley para regular el desarrollo de la Inteligencia Artificial en la UE.

[Archivo]

El año de la inteligencia artificial

2022, el año de la inteligencia artificial

2022 ha sido un año terrible para criptocosas con brillos excesivos, pero excepcional para la inteligencia artificial, que se dio un baño de masas no sólo con ChatGPT sino con los miles de usos cotidianos que ya tiene. En 2022 vimos cosas increíbles e históricas:

De todo esto escribí para un resumen tecnológico del año en Newtral. Hay muchos enlaces hacia temas claves del año, y creo que es una buena guía para afrontar 2023, aunque sigamos con los ojos bien abiertos a nuevas historias que escribir.

[Archivo]
Imagen: Ilustraciones hechas con Midjourney

Crear criptomonedas

A día de hoy hay casi 20.000 criptomonedas. Cuando te preguntas por qué tantas, la siguiente duda es cómo se crean. Y las dos preguntas están relacionadas: hay muchas porque es fácil crearlas. Pero parece que lo complicado es lo siguiente, listarlas.

Los mejores exchanges cobran por eso, y estas tarifas pueden ir de 100.000 hasta 1 o 2 millones de euros. Estas tarifas no están publicadas y los acuerdos suelen estar bajo acuerdos de confidencialidad. He hablado con dos directores ejecutivos de empresas que han creado criptomonedas que hoy están a la venta en exchanges: Koh Onozawa, de Bit2Me y Fran Villalba Segarra, de Internxt. Lo hemos publicado todo hoy en Newtral.

Cómo se crean las criptomonedas [Archivo]

St. Jude: Judith Milhon

En una época en la que internet estaba dominada por los hombres, Judith Milhon, programadora autodidacta conocida como St. Jude, fue una ardiente defensora de los placeres de la piratería informática, el cibersexo y el derecho de la mujer a la tecnología. Su frase era «¡Las chicas necesitan módems!».

Fue miembro de Computer Professionals for Social Responsibility (Profesionales de la Informática para la Responsabilidad Social), un grupo que ella describía alegremente como una «comuna de programación izquierdista». CPSR creó el Proyecto de Memoria Comunitaria en 1973, que se considera el primer sistema informático público en línea.

Describió el hacking como un «arte marcial: una forma de defenderse de los políticos políticamente correctos, de las leyes demasiado intrusivas, de los fanáticos y de la gente de mente estrecha de todas las tendencias», en una entrevista concedida en 1999 a Michelle Delio, de Wired. El hacking, argumentaba, representaba «la elusión inteligente de los límites impuestos, ya sea por tu gobierno, por tus propias habilidades o por las leyes de la física».

Milhon desconfiaba de las jerarquías y le desagradaban especialmente los estereotipos masculinos asociados a los ingenieros y a los hackers de la zona de la bahía. Una vez comentó, tras visitar una reunión del Home Brew Computer Club en 1975, que había una llamativa falta de mujeres hackers de hardware, y que era frustrante ver la obsesión masculina de los hackers por el juego tecnológico y el poder.

Era periodista y fue editora de Mondo2000, «una publicación sorprendente para su época, que ayudó a dar a luz a una expresión creativa llamada cultura ciberpunk, una estética futurista y de ciencia ficción que interponía la piratería informática, la alta tecnología, el consumo de drogas, el sexo y la sensibilidad gótica».

No sólo bautizó a los cypherpunks sino que fue cofundadora del grupo, pero no se ha escrito mucho sobre ella. Murió en 2003.

Brecha digital: no vemos la misma internet

No todos vemos la misma internet

Hasta hace poco cuando hablábamos de brecha digital se usaban métricas de penetración de internet, cantidad de dispositivos o líneas de datos de ADSL entre la población, cantidad de personas que decían haber utilizado internet en el último mes. Esto hace rato que ha quedado atrás. En el mundo muchas cosas han cambiado y no es raro encontrar números bastante altos de porcentaje de líneas móviles en países africanos, donde un móvil con una conexión es algo básico para la supervivencia.

La brecha digital también se transforma, y ahora el precipicio se abre entre las formas en las que usamos la red unos y otros. Incluso en países donde casi todos tenemos internet, un grupo de la población, el de las personas mayores, se está quedando afuera y reclaman su inclusión.

El primer estudio con análisis masivo de datos de telecomunicaciones de un país entero, europeo, desarrollado, revela que con un acceso igualitario hay dos grandes grupos de comportamiento en la red, que sobre todo, están relacionados fuertemente con la renta media y el nivel educativo de la población. Cuando leí el estudio, enseguida me puse en contacto con dos de sus investigadores, Esteban Moro e Iñaki Úcar, para hacerles muchas preguntas. "Nosotros vimos que no todos veían la misma internet", me dijo Esteban.

Casi todo lo he dejado anotado en este reportaje para Newtral. [Archivo]

Foto de mentatdgt en Pexels

Radar COVID: por qué hay que pedir seguridad y privacidad en una app de rastreos

Radar COVID Localización

Radar COVID, la app de rastreo de contactos española para luchar contra la pandemia, ha pasado el período de pruebas. Llevo semanas siguiendo este tema y hablando con fuentes para saber por qué aún tiene tantas sombras (y despejarlas), y esta semana he publicado este reportaje sobre las dudas que persisten, meses después.

Se dice que es de código abierto, como el resto de apps europeas, pero todavía no hemos podido verlo. Esto despejaría el 100% de esas dudas (esperamos al 15 de septiembre, que es cuando dicen que la abrirán). Dicen que se basa en DP-3T, una app abierta europea, que en principio podría ser adaptada con ligeras modificaciones, pero el proceso parece estar llevando demasiado tiempo, y Carmela Troncoso, la líder del equipo de DP-3T, nos ha dicho que no llamaría colaboración a lo que hubo con España. Sólo en Europa, contamos ya 10 apps basadas en este código abierto que están funcionando.

La ministra de Economía, Nadia Calviño, dijo a finales de mayo en el Congreso que las pruebas comenzarían en junio. Luego lo retrasaron hasta julio, con el piloto de La Gomera. Hace dos semanas empezamos a buscar el contrato, que no estaba publicado aún. Fuentes de SEDIA me dijeron que igual era por la tramitación de emergencia, pero esto no es así. La tramitación de emergencia permite saltarse la adjudicación para agilizar el trámite, pero una vez adjudicado toda esa documentación debe ser puesta a disposición del público, según la ley de contratos públicos.

Por otro lado, el tema de la localización. Se repite que la app funciona con Bluetooth y no utiliza datos de localización pero en Android no puedes usarla con localización desactivada. Haz la prueba, tu teléfono te mandará un mensaje como el de la imagen de esta entrada. Es decir que tu teléfono sí está cogiendo datos de localización. “Pero la app no los pide”, dicen desde SEDIA. Muy bien, pero a día de hoy, con más de un millón de apps instaladas y activas en los bolsillos de los españoles, no podemos comprobar eso, o si Google está haciendo algo con esos datos. Por eso además de una auditoría externa de esta app sería bueno también auditar la API que Google y Apple crearon para esto y en lo que se basa la app. Esa auditoría ha sido pedida por Troncoso, sin respuesta aún.

Una app de rastreos implica un desafío tecnológico y ético tremendo, más en épocas de pandemia, en las que siempre planea la tentación y la excusa de dejar de lado la privacidad por la seguridad. No es imposible. En pandemia necesitamos tecnologías seguras, abiertas y auditadas para garantizar la confianza de los usuarios. Los ciudadanos deben tener la información clara para que la instalen con decisiones informadas. Seguridad por diseño, no por confianza.

El reportaje completo ha sido publicado en Newtral: Luces y sombras de la app de rastreo en España

Meterse en jardines

Meterse en un jardín es una de esas expresiones de mi adultez, de cuando vine a vivir a España, que me encantan. Porque hay peligro pero también algo de aventura. No te metes a la jungla, te metes a un jardín. Casi como ser periodista.

Este año me invitaron a Naukas a hablar del futuro. Pensé “qué guay”, pero cuando me preguntaron “¿cómo ves el futuro de los medios? ¿Podrías hablarnos de eso?” inmediatamente me dí cuenta de que me había metido en un jardín.

Estaba leyendo por esos días a Jane Jacobs y se me ocurrió que las ciudades se enfrentan a problemas similares a los del entorno digital en el que convivimos tantas horas.

Si los parques y los espacios públicos online tienen arquitecturas, ¿por qué no dejar de invertir tanto tiempo en campañas cortoplacistas de clicks? ¿Por qué no diseñamos para descubrir los beneficios que Jacobs descubrió en aceras, jardines y parques?

El código no es algo sólo de ingenieros. El periodismo debe buscar espacios donde las diferencias enriquezcan, donde el medidor no sea un contador de clics impulsivos, sino un fuelle que anime al conocimiento y al debate.

Está en juego el acceso a la información pública y el uso de los datos que generamos. Ambos pueden ser usados para fortalecer nuestras democracias y resolver nuestros grandes problemas, o para todo lo contrario.

Más en la tribuna que yo quería titular como este post, pero que para El País lleva «El futuro de los medios«.