mayo 24, 2024

Los países de la UE acordaron hoy los detalles técnicos de la Ley de IA, el primer intento del mundo de regular la tecnología según un enfoque basado en el riesgo, tras un acuerdo político en diciembre. Ahora necesita la aprobación de los legisladores de la UE antes de que las normas entren en vigor.

ANUNCIO

Hasta el final quedó incierto si se llegaría o no a un acuerdo hoy.

Francia, en particular, se ha mostrado escéptica a la hora de regular los llamados modelos fundacionales como ChatGPT; el país se opuso a cualquier obligación vinculante para los proveedores de tales modelos. También tenía reservas sobre los requisitos de transparencia y los secretos comerciales, pero en la reunión de hoy de embajadores de la UE el texto fue aprobado por unanimidad.

Chatbots

El enfoque de la IA basado en el riesgo de la Comisión Europea fue recibido en general de manera positiva en 2021, cuando se presentó por primera vez el libro de reglas, pero se vio presionado a fines de 2022, cuando OpenAI lanzó ChatGPT y desató un debate global sobre los chatbots.

El Parlamento Europeo añadió un nuevo artículo con una extensa lista de obligaciones para garantizar que estos sistemas respeten los derechos fundamentales, ya que el plan del ejecutivo de la UE no incluía disposiciones para los modelos de fundaciones.

En respuesta, Alemania, Francia e Italia presentaron una contrapropuesta que favorecía la «autorregulación obligatoria mediante códigos de conducta» para los modelos de fundaciones.

Tras la aprobación de hoy, lo más probable es que el Parlamento Europeo vote en sus comisiones de Mercado Interior y Libertades Civiles a mediados de febrero, y en el pleno en marzo o abril. Después de eso, se espera que la ley entre en vigor a finales de este año e incluye un período de implementación de hasta 36 meses. Los requisitos para los modelos de IA empezarán a aplicarse al cabo de un año.

La ley divide los sistemas de IA en cuatro categorías principales según el riesgo potencial que representan para la sociedad.

Los sistemas que se consideran de alto riesgo estarán sujetos a reglas estrictas que se aplicarán antes de que ingresen al mercado de la UE. Una vez que estén disponibles, estarán bajo la supervisión de las autoridades nacionales, con el apoyo de la oficina de IA dentro de la Comisión Europea.

Aquellos que entren en la categoría de riesgo mínimo quedarán libres de reglas adicionales, mientras que aquellos etiquetados como de riesgo limitado tendrán que seguir obligaciones básicas de transparencia.

Continuar leyendo este Titular: Los países de la UE aprueban los detalles técnicos de la Ley de IA