Fueron más de 36 horas de negociación para lograr el acuerdo provisional sobre la ley de Inteligencia Artificial o AI Act.,siendo la primera ley en el mundo que ha sido aprobada.
Se inició proponiendola por primera vez en el 2021 y con el paso del tiempo se hicieron cambios debido a lo rápido que hoy en día avanzan estas tecnologías y su impacto en la sociedad.
Este acuerdo político que se llevó a cabo bajo la discusión del Parlamento Europeo, el Consejo de la Unión Europea y la Comisión Europea, ahora tendrá que ser aprobado formalmente en cuanto este sea publicado.
#TRILOGUE | DEAL! DEAL! DEAL! @EUCouncil and @Europarl_EN have reached a provisional agreement on the artificial intelligence act #AIAct
— Presidencia española del Consejo de la UE (@eu2023es) December 8, 2023
The regulation aims to ensure that AI systems placed and used in the EU are safe and respect fundamental rights and european values. pic.twitter.com/F1YoFf5x60
En 2026 se espera que comience a regir formalmente, aunque en algunos puntos pueda haber ciertas excepciones, ya que podrán haber prohibiciones desde los primero 6 meses del 2024, pero el propósito general de esta ley será aplicable hasta después de un año.
La Ley de Inteligencia Artificial de la Unión Europea abarcan desde los temas de desarrollo de las IA´s y sus aplicaciones en diferentes niveles, su rigor es bastante amplio, desde temas de filtros antispam en emails hasta la compleja recaudación de datos biométricos que alguna IA´s pueden llegar a ofrecer.
La Comisión Europea hace hincapié que estas normativas fueron creadas y pensadas en el futuro, es decir que pueden cambiar y adaptarse en cualquier momento dependiendo de la evolución de las IA´s, debido a que el crecimiento de los avances tecnológicos en los últimos años han sido exponenciales.
El punto inicial y básico que regula la Ley Inteligencia Artificial están basadas los niveles de riesgo que estas pueden representar y están divididas en cuatro categorías:
Riesgo mínimo: Este nivel representa a la mayoría de las Inteligencias Artificiales, puesto que un gran número serán categorizadas en dicho nivel. Las IAs aquí no representan riesgos para la seguridad y los derechos de los ciudadanos. Ejemplo: filtros spam, algoritmos de recomendación.
Riesgo Alto: Este nivel de IA´s contiene requisitos estrictos,deberán asegurar los datos de los usuarios y utilizarlos para entrenar a modelos de lenguaje de alta calidad, ofreciendo una detallada documentación en el uso de de la información y contar con supervisión humana.
Riesgo específico: En este nivel se encuentran los chatbots y los sistemas de IA generativa. En esta categoría se obliga a establecer el contenido sintético. Deberán informar a los usuarios que el contacto es con una máquina, y en caso de contar con sistemas de reconocimiento de emociones o datos biométricos deben notificar al público.
Riesgo inaceptable: Las IA´s categorizadas en este nivel estarán prohibidas. Representa la tecnología de reconocimiento de emociones que manipule personas o limite el libre albedrío, como empresas o gobiernos que quieran medir el comportamiento de ciudadanos o datos biométricos en lugares públicos con fines policiales (aunque en este último hay excepciones según sea el caso)
La nueva normativa pide que las empresas brinden transparencias, es decir es aquellos modelos que solicitan aprobación, información y datos de usuarios y “aceptar los términos y condiciones”
"Para modelos muy potentes que podrían plantear riesgos sistémicos, habrá obligaciones vinculantes adicionales relacionadas con la gestión de riesgos y el seguimiento de incidentes graves, la realización de evaluaciones de modelos y pruebas adversas",
indicó el brazo ejecutivo de la Unión Europea. Un mensaje que apunta directamente a firmas como OpenAI, Google y Meta.
El sistema estará basado en Oficinas en cada país de la Unión Europea, se llamará “Oficina Europea de IA”, en donde existe coordinación en trabajo en conjunto para todo el continente.
Las multas tienen un esquema deacuerdo al tipo de violación de las prohibiciones en el uso de la inteligencia artificial que establece esta ley, y van desde los 35 millones de euros hasta los 7,5 millones en caso de informaciones incorrectas, que aun así pueden ser penalizadas