El Parlamento aprobó la Ley de Inteligencia Artificial, que promueve la innovación garantizando la seguridad y respetando los derechos fundamentales.
La ley fue negociada con los Estados miembros en diciembre de 2023 y fue apoyada por el Parlamento Europeo con 523 votos a favor, 46 en contra y 49 en contra.
El objetivo es proteger los derechos fundamentales, las libertades, la ley y la seguridad ambiental frente a un alto riesgo de inteligencia, al mismo tiempo que se fomenta la innovación y se garantiza que Europa lidere el sector. Las leyes han determinado una serie de tareas para la inteligencia artificial de acuerdo con el peligro potencial y el impacto de la inteligencia.
Uso prohibido
Las nuevas reglas prohíben el uso de ciertos tipos de IA que violan los derechos civiles, como clasificar sistemas biométricos en función de características sensibles y capturar imágenes faciales de Internet o cámaras de seguridad para crear reconocimiento facial. datos. Conocimiento del pensamiento en el trabajo y la escuela, evaluación pública, vigilancia (basada únicamente en el perfil o las características) y habilidades intelectuales para manipular el comportamiento de las personas o explotar sus debilidades.
Excepciones para las fuerzas de seguridad
El uso de sistemas biométricos por las fuerzas de seguridad está prohibido de antemano, salvo casos especiales y claramente definidos. Los sistemas biométricos “instantáneos” sólo son eficaces si cumplen estrictos requisitos de seguridad; es decir, se utilizan únicamente en determinados momentos y lugares y requieren autorización judicial o administrativa previa. Estas circunstancias pueden incluir la identificación de personas desaparecidas o la prevención de ataques terroristas. El uso posterior de estos sistemas se considera uso peligroso y requiere autorización de la decisión por su carácter delictivo.
Responsabilidades para procesos de alto riesgo
También se aplican responsabilidades claras a otras IA de alto riesgo (ya que pueden causar daños graves a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho). Ejemplos de aplicaciones de propiedad intelectual de alto riesgo incluyen infraestructura crítica, educación y capacitación, empleo, servicios públicos y privados (por ejemplo, atención médica o banca), ciertas leyes, inmigración y aduanas, justicia y libertad (por ejemplo, como interferencia electoral). . Estos sistemas deben medir y reducir los riesgos, controlar el uso de datos, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos tendrán derecho a presentar quejas contra los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA que afecten a sus derechos.
Requisitos de transparencia
Los sistemas de IA de uso general y los estándares en los que se basan deben cumplir ciertos requisitos de transparencia, cumplir con la legislación de la UE y publicar información detallada sobre los puntos utilizados para representar el modelo. Se necesitan modelos más sólidos que puedan aprovechar el riesgo para cumplir con requisitos adicionales como modelar, medir, mitigar riesgos físicos y reportar eventos.
Además, el contenido gráfico o gráficos, de audio o de vídeo («deepfakes») deberá estar claramente etiquetado. Medidas para apoyar la innovación y las pymes desarrollan y entrenan nueva IA antes de su comercialización.
Próximos pasos
Las reglas aún se revisarán para el mensaje legal final. Su aprobación final (la llamada corrección de errores) debe ser antes de que finalice el Consejo Legislativo. Esta política también debe ser adoptada por el Consejo.
Entrará en vigor veinte días después de la fecha de su publicación en el Diario Oficial y tendrá una vigencia total de veinticuatro meses, excepto en los siguientes casos: no se permite recibo (se utilizará por seis meses a partir de la fecha de entrada en el código). ); Good Law (nueve meses después); derechos generales de propiedad intelectual, incluida la gestión (después de doce meses) y el pasivo por riesgos elevados (después de treinta y seis meses).
Conferencia sobre el Futuro de Europa
La Ley de Inteligencia Artificial es una respuesta directa a las recomendaciones públicas de la Conferencia sobre el Futuro de Europa y, en particular, a las recomendaciones para aumentar la competitividad de la UE en materia de competencia. área. . En otras palabras, las recomendaciones sobre seguridad y confianza abordan la duodécima recomendación sobre la mejora de la competitividad de la UE en materia de competencia; Acuerdo No. 33 para una sociedad segura, incluida la lucha contra la desinformación y la garantía de que las personas tengan el control final; Apoyar la innovación digital, propuesta 35, para garantizar que las personas se preocupen por la IA y la utilicen de manera confiable y responsable, creando protección y transparencia; y artículo 37 sobre el uso de inteligencia artificial y herramientas digitales para mejorar el acceso público a la información, incluida la oportunidad para las personas con discapacidad
Fuente: Parlamento Europeo