Copiar enlace

La inteligencia artificial está alcanzando tal relevancia en la vida diaria de los usuarios y diversas empresas, que la Unión Europea se ha visto en la necesidad de estudiar más a fondo las implicaciones positivas y negativas que podría tener. En este sentido, se ha aprobado la negociación de la Ley de Inteligencia Artificial, la primera ley integral sobre IA del mundo.

La UE indicó en un comunicado que «como parte de su estrategia digital, la UE quiere regular la inteligencia artificial para garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora».

La Eurocámara fijó su posición negociadora sobre la ley tras haber obtenido 499 votos a favor, 28 en contra y 93 abstenciones. Ahora, comenzarán las conversaciones con los Estados miembro de la UE sobre el texto definitivo de la ley. Se espera que se logre un acuerdo definitivo para finales de año.

Ya en abril de 2021, la Comisión hizo una propuesta sobre el marco regulador de la UE sobre la IA, en el que se propone que todos los sistemas de IA que se utilicen en diferentes aplicaciones se analicen y clasifiquen según el riesgo que pudieran suponer para los usuarios. Los distintos niveles de peligro suponen una mayor o menor regulación de la tecnología.

Desde la UE afirman que «la prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales».

Sistemas de IA con riesgo inaceptable

Esta nueva ley buscará prohibir los sistemas de vigilancia biométrica en tiempo real en espacios públicos, aunque afirman que este tipo de sistemas serían permitidos en casos muy específicos, previa autorización de un juez.

Otros sistemas de IA prohibidos serán aquellos que manipulan el comportamiento de personas o grupos vulnerables, como el caso de juguetes que se activan por voz e inviten comportamientos peligrosos en niños y sistemas que promuevan la puntuación social o clasificación de personas según su comportamiento, características físicas o su estatus socioeconómico.

Sistemas de alto riesgo

La Ley de Inteligencia Artificial califica como sistemas de alto riesgo a aquellos con usos muy específicos, que solo podrán introducirse en el mercado si respetan la seguridad, los derechos fundamentales y los valores de UE. Todos los sistemas de alto riesgo deberán ser evaluados antes de su comercialización y durante todo su ciclo de vida.

La UE ha clasificado en ocho ámbitos específicos los sistemas que alto riesgo que deberán registrarse en la base de datos de la UE y que anticipan un futuro en el que pueda existir una inteligencia artificial general:

  • Identificación biométrica y categorización de personas físicas.
  • Gestión y explotación de infraestructuras críticas.
  • Educación y formación profesional.
  • Empleo, gestión de trabajadores y acceso al autoempleo.
  • Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas.
  • Aplicación de la ley.
  • Gestión de la migración, el asilo y el control de fronteras.
  • Asistencia en la interpretación jurídica y aplicación de la ley.

Sistemas de riesgo limitado

Estos tendrán que cumplir con unos requisitos mínimos de transparencia que posibiliten a sus usuarios estar bien informados al tomar decisiones, de modo que puedan tomarlas libremente y con conocimiento de causa. Aquí se incluirían, por ejemplo, a las IA generativas o que manipulen imágenes, audios o vídeos. Se pretende solventar así problemáticas graves como los deepfakes.

Regulación para ChatGPT

Luego de las múltiples controversias que ha tenido ChatGPT en algunos países europeos, que incluso han llevado a su prohibición, La Ley de Inteligencia Artificial propone que las herramientas de IA generativa, como ChatGPT, cumplan requisitos de transparencia específicos para ser aceptadas.

Así, es necesario que se entrene el modelo para evitar que genere contenido ilegal y que cuando un usuario utilice ChatGPT para generar imágenes falsas (deepfakes) haya un aviso que indique que el contenido ha sido manipulado por IA. De igual manera, los desarrolladores deben explicar detalladamente qué datos protegidos por derecho de autos se han usado para el entrenamiento de la IA.

Foto: Depositphotos

 

Mantente informado de las noticias más relevantes en nuestro canal de Telegram

Escribir comentario

¡Mantente al día!