Disparar al mensajero, o al investigador de discursos de odio en Twitter

El autoproclamado absolutista de la libre expresión, Elon Musk, ha cumplido su amenaza de la semana pasada al Center for Countering Digital Hate (CCDH), y les ha demandado. A este centro de investigadores que publicó estudios sobre el aumento de los discursos de odio en Twitter les echa la culpa de «ahuyentar a sus anunciantes», que han descendido en un 50% desde que llegó él a la dirección.

Pero los cargos son por temas contractuales y por scrapping de datos. Las 23 páginas de la demanda y todo lo que hemos averiguado están publicadas ya en Newtral. Algo curioso, el email de prensa de Twitter, el mismo que decían que estaba automatizado para mandar un emoji de caca [💩], nos ha enviado una respuesta decente.

[Archivo]

Vigilancia de las comunicaciones en la UE

Vigilancia en la UE

¿Quiere Europa poner software espía en cada dispositivo? Dicho así, no. Pero sí quiere vigilar todas nuestras comunicaciones privadas, y eso sólo es posible obligando a los proveedores a poner software que escanee todas nuestros mensajes. Todo es todo: audios, textos, imágenes, fotos. Es otra forma de explicar una ley que puede tener graves consecuencias en nuestros derechos, y que hasta se puede volver en contra de aquello que pretende, prevenir y luchar contra el abuso sexual infantil.

Esto es lo que han advertido cientos de investigadores que han firmado una carta contra la propuesta de la UE para luchar contra el abuso infantil. La tecnología existente es extremadamente deficiente, e imponerla a escala global puede tener efectos colaterales dañinos que pueden incluso afectar la democracia.

“No esperamos que en 10-20 años haya una solución escalable que pueda ejecutarse localmente en el dispositivo del usuario sin filtración de información ilegal, ni que pueda detectarse CSAM de una manera confiable, es decir con un número aceptable de falsos positivos y negativos”. Lo hemos contado esta semana en Newtral.

[Archivo]

Las empresas que quieren supervisar el control de la IA

high rise buildings

No ha sido fácil. En estos días hemos publicado un artículo para el que llevo tres semanas trabajando. He hablado con muchas personas para entender cómo y quiénes están diseñando el futuro de la IA. ¿Qué experiencias se toman en cuenta? ¿Quiénes pagan los sueldos de personas que dedican mucho tiempo y esfuerzo a esto? ¿Cómo participa la sociedad civil en delimitar las líneas de algo que ya está impactando en los más vulnerables? En España la administración del Estado ha licitado el diseño y las futuras líneas que definirán la IA. Desde el Ministerio de Economía se está recomendando un contrato clave en la supervisión de la ética de las compañías que trabajarán con la IA para ser adjudicado a una de las grandes consultoras mundiales y otra asociación poco conocida, pero que también tiene vínculos con grupos que tienen intereses en la IA.

En momentos en que muchas voces se alzan para pedir regulación de la IA en todo el mundo, España es un actor estratégico clave, ya que en esta segunda mitad del año, la presidencia española de la UE es la encargada de cerrar la propuesta de ley de la IA que se viene preparando desde hace 2 años en el Parlamento Europeo. No es de extrañar que las empresas con interés en la IA estén jugando sus cartas.

En Newtral:

Qué empresas están detrás del contrato para supervisar la IA en España [Archivo]
La regulación y la supervisión de la IA, entre los asuntos que marcarán la presidencia española en la UE [Archivo]

Polarización y democracia

Esta semana he estado conversando con María Ramírez, Pablo Simón y Daniel Gascón en «Polarización contra la democracia«, la última de las conversaciones del ciclo Atrévete a pensar, organizado por Penguin Random House y Fundación Telefónica. Una charla a cuatro voces, en la que cabía el Twitter de Musk, mi preocupación por la pérdida de los espacios públicos para debatir, las burbujas de ayer y de hoy y la recomendación de cuidar con quién nos juntamos en los grupos de WhatsApp. Las fotos son de Ricardo Domingo.

Por qué le llaman AGI cuando quieren decir Machine Learning

close up shot of white toy robot on blue and pink background

Hay algo muy disonante en el discurso de los AI people. Hablan de Artificial General Intelligence (AGI) y de conciencia, pero por ahora todo indica que estamos ante funciones estadísticas y machine learning. Quieren ver el fantasma en la máquina pero sólo hay máquina. (¿Serán ellos los fantasmas?). Aunque varias empresas se han lanzado a una carrera para alcanzarla, en el ámbito de la IA no hay consenso en absoluto de cuándo o incluso que alguna vez lleguemos a crear una inteligencia artificial general.

En una conferencia que di este año en Murcia, alguien de la audiencia preguntó si ChatGPT es Inteligencia Artificial de propósito general, alguien que planteaba inquietud ante que estemos alimentando a un monstruo… Y entiendo perfectamente la confusión, porque la narrativa marketinera de OpenAI se basa mucho en ese miedo que tenemos que tenerle a la IA. Por eso ellos, que saben más, están desarrollándola, para beneficio de la humanidad. No lo digo yo, son palabras textuales de su Carta fundacional.

Escribí sobre AGI, IA y ChatGPT y qué tienen y qué no tienen que ver en este artículo para Newtral.

[Archivo]

La ley de Inteligencia Artificial europea se enfrenta a las IA generativas

La UE quiere regular la inteligencia artificial | Dusan Cvetanovix Por Marilín Gonzalo Algoritma 27 abril 2023 | 6 min lectura ChatGPT Inteligencia Artificial Unión Europea “Inminente”. Este es el adjetivo con el que describen desde Bruselas la presentación de la propuesta de la Ley de inteligencia artificial (IA) que se encuentra ahora en plena negociación en la Unión Europea. El 11 de mayo se votará en los comités técnicos que llevan meses debatiendo este texto para cerrar los acuerdos parlamentarios. De este acuerdo saldrá la propuesta para el Parlamento Europeo, donde se votará en pleno de la UE. La rápida evolución de las tecnologías de IA generativas, como ChatGPT o Midjourney, ha encontrado a la Unión Europea con esta gran normativa de inteligencia artificial en ciernes. La percepción de los riesgos de la IA ha levantado voces a favor de regular este tipo de tecnologías en todo el mundo, y el Reglamento Europeo de la IA (IA Act) que prepara Europa traerá definiciones para una nueva realidad con robots conversacionales y herramientas generadoras de imágenes usadas a nivel masivo. Al ser un Reglamento se aplicará inmediatamente en los 27 países de la UE sin necesidad de transponerlo a la normativa nacional. La propuesta que se presentará en la UE en las próximas semanas no será definitiva, y aún podrá cambiar hasta su puesta en vigor como normativa general en Europa. Ha comenzado con un documento que se viene negociando desde 2019 y su texto definitivo deberá ser aprobado en los trílogos, que es el momento en que las instituciones europeas (Comisión, Parlamento y Presidencia del Consejo) consensúan las propuestas legislativas. Este proceso ocurrirá durante la presidencia española de la UE. En marzo, una reunión en Estrasburgo de 5 horas que esperaba llegar a consensos sobre la propuesta de 108 páginas terminó sin resolución, según informó Reuters. Se espera que a finales de este 2023 se apruebe aunque no se cuenta con que entre en vigor antes de finales de 2024, o incluso de 2025. Cómo hacer leyes de cara al futuro cuando todo cambia “ChatGPT es la punta del iceberg”, ha dicho BEUC, la federación de 46 organizaciones de consumidores europeos que ha emitido un requerimiento a la UE y a las autoridades nacionales para investigar a OpenAI y organizaciones similares. BEUC declara estar alarmada por la velocidad con la que ChatGPT y sistemas similares se están desarrollando e implantando con la correspondiente desprotección de los usuarios, a los que la Ley de IA aún dejará desprotegidos un par de años hasta entrar en vigor. «Estamos ante una realidad completamente nueva» (García del Blanco, eurodiputado) Desde la organización de consumidores explican que la propuesta original para la Ley de IA no cumplía sus expectativas ni el objetivo de la UE de hacer posible una IA en la que la gente pueda confiar. “Las normas propuestas se centran en una gama muy limitada de usos y problemas de la IA”, explica desde Bruselas Frederico Oliveira Da Silva, jurista principal de BEUC. Pero creen que en la propuesta que salga adelante el Parlamento dará un paso en la dirección correcta e incluirá salvaguardas para proteger a los consumidores que usen o sean objeto de sistemas de AI. Un ejemplo: la lista de prácticas prohibidas propuesta por la Comisión será ampliada con ciertos usos de reconocimiento de emociones. También es probable que se incluyan nuevos derechos como el derecho de los consumidores a recibir una explicación de parte de un operador de IA o el derecho a reclamar ante una autoridad. Joan Barata, abogado y experto internacional en materia de libertad de expresión, cree que en materia de IA hay que ser “extremadamente prudente” porque es mucho lo que todavía no entendemos desde el punto de vista de consecuencias de su uso. Aún así, cree que es necesario contar con una regulación a nivel europeo. “Un marco de principios básicos y fundamentales que otorguen un grado mínimo de seguridad jurídica y garantías procedimentales con relación a las decisiones concretas que las autoridades vayan a tomar en terrenos diversos”, define. La popularización de sistemas de IA avanzados como ChatGPT ha disparado un debate sobre la evolución y el alcance de la IA en nuestra sociedad. Desde OpenAI, la empresa dueña de ChatGPT y resto de compañías que han entrado en la carrera de la IA fijan explícitamente su objetivo en llegar a la AGI (Inteligencia Artificial de Propósito General), un tipo de inteligencia artificial similar o superior a la humana que tendrá consecuencias de largo alcance para la humanidad. No hay consenso sobre el punto en el que estamos en esa proyección, ni sobre las definiciones en torno a estos conceptos, que se multiplican en discursos que van desde la fascinación al miedo por estos sistemas. Y entre los parlamentarios europeos también hay desacuerdo en la definición de estos modelos de IA o en la definición de autonomía. La tecnología vuelve a plantear un gran desafío a los legisladores. Cuando se presentó la propuesta de reglamento en abril de 2021, las herramientas basadas en IA generativa no estaban tan desarrolladas y no eran conocidas por el público. La UE está a tiempo de incluirlas en la normativa antes de presentar la propuesta al Pleno, pero ¿qué riesgos hay de que cuando entre en vigor, en 2025, la tecnología no haya avanzado representando algo nuevo? Ley de IA: Regular usos y no tecnologías “Este es el principal problema de la ley europea, debería tener más flexibilidad”, dice Oreste Pollicino, catedrático de Derecho Constitucional y profesor en Derecho de la Tecnología de Internet de la Universidad Bocconi. “La ley de AI europea está tratando de definir la tecnología como en una fotografía, se describe el statu quo, mientras la IA es dinámica, y el riesgo es tener una ley que cuando entre en vigor esté ya obsoleta”, afirma. Se ha dicho que ​​el ánimo de esta ley es regular los usos, no las tecnologías en sí, pero aún así esto parece bastante optimista, incluso para los parlamentarios europeos. ☷ Privacidad y ChatGPT Las lagunas legales o la pesadilla de protección de datos Ibán García del Blanco, eurodiputado por el PSOE, está debatiendo lo que será la propuesta como ponente socialista para esta ley en dos comisiones (Cultura y Educación, y Asuntos Jurídicos) que participan en la tramitación de esta ley. Fue ponente de la primera propuesta que hizo el Parlamento Europeo en octubre de 2020 sobre ética aplicada a IA y tecnologías conexas, luego coordinador del comité especial sobre IA y ha estado como ponente en la sombra en varios comités de la nueva ley. Dice que el objetivo final es tener una regulación sólida y resiliente, “pero me parece un poco optimista pensar que no vamos a necesitar resolver o corregir algunas cosas en cuanto a explosiones tecnológicas. Tenemos que ser conscientes de que estamos ante una realidad completamente nueva”, admite. Qué se debate en la propuesta de Ley de IA de la UE Para garantizar la toma de decisión a nivel europeo, una “superoficina” será la encargada de marcar las líneas generales y la interpretación de algunas realidades tecnológicas, según García del Blanco, que admite que hay algo de alergia a la palabra agencia, por parte de quienes preferían relegar estas cuestiones al ámbito nacional. La piedra angular de la Ley de IA es un sistema de clasificación que determina el nivel de riesgo que una tecnología de IA podría suponer para la salud y la seguridad o los derechos fundamentales de una persona, como la privacidad. El marco incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Dentro del inaceptable, que cuyos usos estarían prohibidos, está el social scoring, el sistema de puntuación chino que determina la reputación de una persona de acuerdo a varios factores, entre los que está su actividad en internet. Los sistemas de “alto riesgo” de IA son los que le siguen, y están permitidos, pero empresas y usuarios deben cumplir una normativa que exige pruebas rigurosas, documentación adecuada de la calidad de los datos y un marco de rendición de cuentas que detalle la supervisión humana. La IA considerada de alto riesgo incluye vehículos autónomos, dispositivos médicos y maquinaria de infraestructuras críticas, por ejemplo. Cuál es el riesgo de las IA generativas para la UE ¿Dónde entrarían las IA generativas, como ChatGPT o los deepfakes hechos con Midjourney? Durante la presidencia rotatoria francesa de la UE se hizo la recomendación de que se incluyesen en el alto riesgo de la ley de IA. Los legisladores han propuesto la definición de IA de propósito general (GPAIS, General Purpose AI System) para modelos de IA generativa como ChatGPT, ya que los consideran herramientas con más de un tipo de uso. Pollicino está de acuerdo con la calificación de alto riesgo: “No sabemos cómo serán desarrolladas, así que yo las incluiría a todas ellas en ese nivel. Pero no las prohibiría. Les pondría la protección más alta”, dice. García del Blanco duda. “Tiendo a ser tuitivo, tiendo a ser proteccionista, pero en todo caso creo que todo tiene muchos matices. A mí me gustaría como mínimo que hubiera unas obligaciones especiales sobre transparencia en este tipo de tecnología, al menos eso”, reflexiona. “Más importante que clasificar la IA generativa como de alto riesgo es que las instituciones de la UE se aseguren de que estos sistemas cumplen determinados requisitos relacionados con la protección de los consumidores, la transparencia, la responsabilidad, la seguridad y la protección de datos antes de ser utilizados por los consumidores”, explica desde BEUC Oliveira da Silva. Thierry Breton, comisario europeo de Mercado Interior, ha dicho que los contenidos creados por IA deberían llevar una advertencia específica, pero esta es una cuestión que se sigue discutiendo. “No tengo ninguna duda en el ámbito del periodismo, la televisión o los informativos, pero los deepfakes pueden utilizarse para muchas cosas, por ejemplo, sátiras, o en el ámbito artístico”, dice García del Blanco. Fuentes Ibán García del Blanco, eurodiputado, ponente socialista en las comisiones CULT (Cultura y Educación) y JURI (Asuntos Jurídicos) y miembro de la Comisión AIDA, Comisión Especial sobre Inteligencia Artificial Oreste Pollicino, catedrático de Derecho Constitucional y profesor en Derecho de la Tecnología de Internet de la italiana Universidad Bocconi Joan Barata, abogado, investigador del Future of Free Speech project del think tank danés Justitia Frederico Oliveira Da Silva, jurista principal de BEUC, The European Consumer Organisation Propuesta de Reglamento del Parlamento Europeo y del Consejo para una Ley de Inteligencia Artificial Enfoque general de la propuesta de Ley de AI As AI booms, EU lawmakers wrangle over new rules, Reuters 21-03-2022, The Artificial Intelligence Act, Parlamento Europeo Bruselas quiere que los contenidos generados por inteligencia artificial lleven una advertencia específica, El País Qué es la Inteligencia Artificial General (AGI) y qué tiene que ver con GPT4 y OpenAI La UE quiere regular la inteligencia artificial

La llegada de ChatGPT y Midjourney ha encontrado a la Unión Europea con una gran normativa de inteligencia artificial en preparación. Llegan a tiempo a incluir las IA generativas, que no estaban previstas originalmente. Aunque el principio que los guía es legislar sobre «usos» y no sobre «tecnologías», es difícil hacerlo: ¿quién podía prever ChatGPT hace 2 años? ¿Cómo estarán las cosas en 2025, cuando previsiblemente entre en vigor la normativa?

Los parlamentarios están debatiendo estas cuestiones en varias comisiones. Hace unas horas se ha confirmado el 11 de mayo como la fecha en la que presentarán la propuesta al Parlamento. He hablado con Ibán García del Blanco, un eurodiputado que hizo la primera propuesta de AI en la UE, lleva años trabajando en el borrador de esta ley, y está en estas negociaciones; con BEUC, una federación de 46 organizaciones de consumidores europeos; y con algunos expertos en libertad de expresión, medios y derecho, intentado hacer un panorama de la situación en este reportaje para Newtral: Bruselas ultima una propuesta de ley para regular el desarrollo de la Inteligencia Artificial en la UE.

[Archivo]

ChatGPT no aprueba pero seduce al profesor

Poner a ChatGPT ante un examen real con el que se esté evaluando ahora a alumnos de un Máster en Administración de Empresas en España: lo hicimos. No aprueba, pero impresiona. Y no a cualquiera sino a un doctor de IA que lleva años investigando y desarrollando patentes.

Más interesante todavía es lo que dice este profesor: que les hablará a sus alumnos de ChatGPT desde el primer día de sus próximas clases. “A mí me da igual si lo has escrito tú o si lo ha escrito una máquina, si lo has escrito con Word o si te lo has copiado de internet. Al final te voy a poner la nota sobre lo que estoy intentando evaluar. Creo que el punto clave es incorporar que es muy fácil generar un texto pero eres tú el que se responsabiliza de lo que has entregado. Es más importante transmitir eso”.

El examen y los resultados, en Newtral: Ponemos un examen de MBA a ChatGPT y no aprueba (pero por poco)

[Archivo]