comparte

Ai Act es ley: la UE es la primera en el mundo en aprobar normas para regular la inteligencia artificial

El proceso legislativo finalizó con 523 votos a favor, 46 en contra y 49 abstenciones. La ley entrará en vigor en dos años. Así se regulará la IA

Ai Act es ley: la UE es la primera en el mundo en aprobar normas para regular la inteligencia artificial

laa los actos fue aprobado oficialmente por el Parlamento Europeo, convirtiéndose así en el La primera ley del mundo sobre inteligencia artificial.. El proceso legislativo finalizó con 523 votos a favor, 46 en contra y 49 abstenciones. La ley entrará en vigor en dos años.

La Unión Europea se convierte así en la primero en el mundo adoptar normas para regular la inteligencia artificial.

“Doy la bienvenida al extraordinario apoyo del Parlamento Europeo a nuestra Ley de IA, las primeras normas integrales y vinculantes del mundo para una IA confiable. Europa es ahora un regulador global de estándares en el campo de la inteligencia artificial. ¡Estamos regulando lo menos posible, pero tanto como sea necesario!", comentó el comisario de Mercado Interior de la UE en X Thierry Breton.

¿Qué es la Ley Ai?

laLa Ley Ai representa una regulación pionera que se aplicará de manera uniforme en todos los Estados miembros de la UE y estará compuesto por 85 artículos y anexos. Se trata del primer texto legislativo que pretende regular de forma integral el ámbito de la inteligencia artificial. Propuesto originalmente en 2021, se ha ido enriqueciendo con nuevas modificaciones a lo largo del tiempo. El objetivo principal del reglamento es garantizar que la tecnología cumpla con los derechos y valores de la Unión, incluida la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación y el bienestar social y ambiental.

Una característica clave de la Ley Ai es la clasificación de aplicaciones de inteligencia artificial en función de los niveles de riesgo asociados. La Comisión Europea ha identificado cuatro niveles de riesgo:

  • Riesgo inaceptable: incluye sistemas que violan los valores fundamentales de la UE y no se permitirán dentro de las fronteras de la UE.
  • Alto riesgo: se refiere a sistemas con un impacto controvertido sobre la seguridad y los derechos de las personas. Aunque no está prohibido su uso, se exigen ciertos requisitos para garantizar la seguridad y la protección de los derechos.
  • Riesgo limitado: incluye sistemas que no representan una amenaza significativa y deben cumplir con un conjunto limitado de requisitos, incluida la transparencia en el uso de la IA.
  • Riesgo mínimo: No existen obligaciones legales específicas en esta categoría.

Ai Act: lo que está prohibido

En Europa, diferentes categorías de sistemas basados ​​en IA estarán sujetas a diversas restricciones, hasta llegar a estar completamente prohibidas.

La Ley de IA prohíbe el uso de inteligencia artificial para iidentificación biométrica remota en tiempo real y a posteriori en espacios públicos, así como la categorización en función de características sensibles. También están prohibidos sistemas predictivos utilizado por la policía, yo puntuación social utilizado por los gobiernos para analizar el comportamiento ciudadano e sistemas de reconocimiento emocional en entornos laborales y escolares. Además, se agregaron a la lista de alto riesgo los sistemas de inteligencia artificial utilizados para influir en las elecciones y los sistemas de recomendación de las plataformas de redes sociales. Estas medidas tienen como objetivo proteger los derechos humanos y la privacidad de los ciudadanos.

Aplicaciones de inteligencia artificial generativa, como ChatGPT o Google Gemini, entran en la categoría de alto riesgo. Las empresas que los desarrollen tendrán que proporcionar información detallada sobre cómo se entrenan sus modelos lingüísticos, para cumplir con las leyes de derechos de autor europeas, y deberán indicar claramente cuándo las imágenes, vídeos y audios han sido generados por inteligencia artificial, especialmente cuando representan imágenes reales. gente.

Se ha considerado que otras aplicaciones tienen un riesgo limitado y tendrán que cumplir requisitos limitados, principalmente en materia de transparencia en el uso de la inteligencia artificial. Finalmente, las solicitudes de riesgo mínimo no están sujetas a obligaciones legales específicas.

Ley Ai: fuertes multas

El reglamento prevé severas sanciones para quienes lo violen, que pueden llegar hasta 35 millones o 7% de los ingresos globales de la empresa responsable.

Ley Ai: las últimas novedades

En comparación con la propuesta de la Comisión, el reglamento introduce normas para los sistemas de inteligencia artificial (IA) de uso general, que deben ser transparentes y cumplir con la legislación de la UE sobre derechos de autor durante el entrenamiento del modelo. Los modelos más potentes, con posibles riesgos sistémicos, deben seguir obligaciones adicionales como evaluaciones y mitigaciones de riesgos y notificación de incidentes. EL deepfake debe estar claramente etiquetado. Los Estados miembros de la UE deben establecer espacios de prueba regulatorios y pruebas en el mundo real (sandboxes) para facilitar el desarrollo y la capacitación de sistemas de IA innovadores por parte de pymes y empresas emergentes.

Ley Aic: vigente en dos años

El reglamento entrará en vigor 20 días después de su publicación en el Diario Oficial de la Unión Europea y se aplicará 24 meses después de la fecha de entrada en vigor. Sin embargo, las prohibiciones de prácticas prohibidas se aplicarán seis meses después de su entrada en vigor, los códigos de prácticas nueve meses después, las normas sobre sistemas de inteligencia artificial (IA) para fines generales, incluida la gobernanza, se aplicarán después de 12 meses, mientras que las obligaciones para los de alto riesgo Los sistemas se aplicarán después de 36 meses.

Última actualización a las 15,40 a.m.

Revisión