El reglamento de IA será de directa aplicación en los estados miembros
Europa sigue avanzando en el proceso de aprobación del reglamento de IA entre la paranoia social actual y los gritos por su regulación.
Este 11 de mayo los comités clave para la aprobación de esta norma han dado luz verde al texto que busca garantizar que los sistemas de IA estén supervisados por humanos, sean transparentes, seguros, rastreables, no discriminatorios y amigables con el medio ambiente. Se espera que en el mes de junio el parlamento vote por su aprobación comenzando entonces el último paso legislativo, los llamados trílogos entre parlamento, comisión y consejo europeos.
El reglamento de IA que será de directa aplicación en los estados miembros es un hito en materia de legislación de Inteligencia Artificial no solo en la UE, sino también en el mundo. Se trata de una norma que en su alcance, complejidad y abstracción guarda muchas similitudes con el RGPD. Y es que se trata de una regulación que debido a la necesidad de realizar definiciones que no queden obsoletas y que se adapte al futuro de la tecnología entra en un terreno de abstracción que deja en manos de los entes supervisores un gran poder decisorio y definitorio de unos límites borrosos que se irán definiendo a medida que los casos de conflicto vayan surgiendo.
Los modelos generativos base.
Hasta ahora el reglamento había considerado regular usos prohibidos e IAs de alto riesgo. Sin embargo con el foco recibido en los últimos meses en soluciones como Chat GPT finalmente el legislador ha optado por introducir una nueva categoría de IAs en la norma, que son los modelos generativos de base que aunque no incurren en un uso de alto riesgo o prohibido tienen la capacidad de procesar una gran cantidad de datos con un propósito cambiante y modificable. Estas herramientas deberán estar registradas en una base de datos y cumplir ciertos requisitos de seguridad y transparencia en el procesamiento de datos como el hecho de que deben garantizar transparencia sobre el hecho de que el contenido ha sido generado por una IA.
IAs de alto riesgo y prácticas prohibidas
También este aspecto de la norma ha sufrido leves modificaciones. Si bien anteriormente los sistemas de alto riesgo eran aquellos que caían en una lista cerrada de casos de uso y sectores definidos en el Anexo III de la norma. En esta nueva versión se ha introducido una capa extra que requiere de análisis de riesgo para las IAs que ejecuten esos casos de uso para ver si efectivamente son de alto riesgo. Algunos ejemplos de este tipo de IAs son aquellas que manejan gran cantidad de datos de grandes plataformas online (se trata de una ampliación que nace del Digital Services Act) o aquellas IAs que puedan modificar la conducta electoral de los ciudadanos (no está prohibido pero se considera de alto riesgo).
Estos sistemas de alto riesgo están sujetos a numerosos controles y obligaciones y sus usuarios gozarán de derechos para garantizar que las IAs cumplen con los objetivos de transparencia, no discriminación y que respetan los derechos fundamentales de los ciudadanos de la UE.
Además la norma incluye una lista de situaciones en las que el uso de IA es inaceptable. Fundamentalmente nos encontramos en esta lista algunos casos de uso de reconocimiento biométrico masivo, soluciones de scoring social.