Support & Downloads

Quisque actraqum nunc no dolor sit ametaugue dolor. Lorem ipsum dolor sit amet, consyect etur adipiscing elit.

s f

Contact Info
198 West 21th Street, Suite 721
New York, NY 10010
youremail@yourdomain.com
+88 (0) 101 0000 000
Follow Us

Le Ley de IA de la UE ya está aquí: Todo lo que necesitas saber

La forma en que abordemos la Inteligencia Artificial (IA) definirá el mundo en que viviremos en el futuro. Para ayudar a construir una Europa resistente de cara a esta nueva década digital, las personas y las empresas deben poder disfrutar de las ventajas de la IA sintiéndose seguras y protegidas.

La Estrategia Europea de Inteligencia Artificial tiene por objeto convertir a la UE en un centro de categoría mundial para la IA y garantizar que ésta se centre en el ser humano y sea digna de confianza. Tal objetivo se traduce en el enfoque europeo de la excelencia y la confianza a través de normas y acciones concretas.

En abril de 2021, la Comisión presentó su paquete sobre IA, el cual incluía un comunicado sobre el fomento de un enfoque europeo de la IA, una revisión del Plan Coordinado sobre Inteligencia Artificial (con los Estados miembros de la UE) y una propuesta de Reglamento por el que se establecen normas armonizadas sobre la IA: la Ley de Inteligencia Artificial. 

Una ley que lleva más de dos años en preparación y de la que se espera que se convierta en un hito legislativo de la UE que regule el uso de la IA en Europa.

Los legisladores han propuesto clasificar las distintas herramientas de IA según su nivel de riesgo percibido (de bajo a inaceptable). Los gobiernos y las empresas que utilicen estas herramientas tendrán diferentes obligaciones, en función del nivel de riesgo.

 

¿Cuál es el ámbito de aplicación de la Ley de IA?

La Ley es amplia y regirá a cualquiera que ofrezca un producto o un servicio que utilice IA. A su vez, abarcará los sistemas que puedan generar resultados como contenidos, predicciones, recomendaciones o decisiones que influyan en el entorno.

Además de los usos de la IA por parte de las empresas, también estudiará la IA utilizada en el sector público y las fuerzas de seguridad. Trabajará en tándem con otras leyes como el Reglamento General de Protección de Datos (RGPD).

Quienes utilicen sistemas de IA que interactúen con seres humanos, se utilicen con fines de vigilancia o puedan utilizarse para generar contenidos «deepfake» se enfrentan a fuertes obligaciones de transparencia.

 

¿Cuándo se considerará una IA de “alto riesgo”?

Una serie de herramientas de IA pueden considerarse de alto riesgo, como las que se utilizan en infraestructuras críticas, cuerpos de seguridad o educación. Están un nivel por debajo de «inaceptables» y, por tanto, no se prohíben rotundamente.

En cambio, es probable que quienes utilicen IA de alto riesgo se vean obligados a completar rigurosas evaluaciones de riesgo, registrar sus actividades y poner los datos a disposición de las autoridades para su escrutinio. Es probable que esto aumente los costes de cumplimiento para las empresas.

Muchas de las categorías de «alto riesgo» en las que se controlará estrictamente el uso de la IA serían ámbitos como la aplicación de la ley, la migración, las infraestructuras, la seguridad de los productos y la administración de justicia.

 

¿Cuándo entrará en vigor la Ley de IA?

Aunque el sector espera que la Ley se apruebe este año, no hay un plazo concreto. La Ley está siendo debatida por los parlamentarios y, una vez que lleguen a un acuerdo, se celebrará un diálogo a tres bandas entre representantes del Parlamento Europeo, el Consejo de la Unión Europea y la Comisión Europea.

Una vez ultimados los términos, habrá un periodo de gracia de unos dos años para que las partes afectadas puedan cumplir la normativa.