Facebooktwitterlinkedin

Cada día, miles de investigadores, empresas y organizaciones académicas de todo el mundo trabajan en desarrollar nuevas aplicaciones para la inteligencia artificial. Es, sin duda, uno de los campos de la tecnología que más ha avanzado en los últimos años, pero que pese a sus innegables beneficios, siempre ha estado rodeado de un halo de polémica, basado en temores propios de películas distópicas de ciencia ficción. Lo cierto es que actualmente, tal y como te hemos explicado muchas veces, la IA se aplica en áreas tan distintas como la salud, la educación o, claro, el marketing.  Y ahora la UE ha decidido regular su alcance.

Una nueva normativa de la UE enfocada a la Inteligencia Artificial y los sistemas de social scoring

El social scoring es una especie de puntuación social que determina la credibilidad o reputación de una persona de acuerdo con varios factores incluyendo los datos o actividades online, y su aplicación en China es realmente preocupante para algunos, tanto así que se ha filtrado información sobre una nueva regulación que presentará la Unión Europea para controlar el uso de la inteligencia artificial y los sistemas de social scoring en el territorio con el fin de proteger a los ciudadanos.

La propuesta que presentará de forma oficial la UE el próximo 21 de abril y que ha sido filtrada por Político, demuestra la postura firme que se tomará frente algunas aplicaciones de la IA: mientras que algunos usos como el social scoring serán prohibidos, otros casos de uso de esta tecnología se regularán, al estilo de lo que supone la GDPR en el campo de la protección de datos.

Este será un enfoque de uso muy diferente al social scoring que hemos visto aplicar en otros paises como Estados Unidos o China, en el que el gobierno ya ha implementado el Sesame Credit, un sistema que desde 2015 puntúa a los ciudadanos utilizando el Big Data para construir una cultura de «sinceridad».

Sesame Credit: Big Data al estilo Gran Hermano para valorar la «confiabilidad» de los ciudadanos chinos

La premisa del social scoring es valorar la confianza que otorga cada ciudadano en base a sus comportamientos: sus publicaciones e interacciones en redes sociales, tiendas online, foros, etc. serán evaluadas como positivas o negativas. En el primer caso el ciudadano recibirá puntos para conseguir determinados beneficios, que alcanzan el ámbito financiero, como la concesión de créditos por parte de entidades bancarias. Algo así como una mezcla del 1984 de Orwell y estrategias de gamificación.

En cambio, para la UE las prácticas de vigilancia indiscriminada de forma generalizada o sistemas de puntuación tales como el social scoring realizados a partir del uso de la inteligencia artificial son considerados de alto riesgo, y de acuerdo a los datos proporcionados por The Verge, la supervisión de estas prácticas podría suponer su prohibición y podrían implicar multas hasta del 4% de los ingresos globales o 20 millones de euros, el importe que sea mayor, para quienes no respeten esta nueva regulación.

Algunas de las medidas que integrará esta nueva propuesta regulatoria

De acuerdo con los datos filtrados, la nueva regulación incluirá:

  • Prohibición del uso de la IA para realizar vigilancia indiscriminada, que incluye aquellos sistemas que rastrean a las personas en entornos físicos o agregan datos de fuentes externas.
  • La prohibición de sistemas de Inteligencia Artificial utilizados para el social scoring o puntuación de crédito social, es decir, no se podrá juzgar la fiabilidad de una persona basándose en su comportamiento social o sus rasgos de personalidad rastreados por estos sistemas digitales.
  • Se requiere una autorización especial para el uso de “sistemas de identificación biométrica remota” como es el uso de reconocimiento facial en espacios públicos.
  • También será necesario notificar a las personas cuando estén interactuando con un sistema de Inteligencia Artificial, a menos que sea “obvio bajo el contexto y las circunstancias”.
  • Se implementará una nueva supervisión de los sistemas de IA de “alto riesgo”, es decir aquellos que suponen una amenaza directa para la seguridad, como son los coches autónomos, o aquellos que incluyen una alta probabilidad de afectar una vida, como aquellos que se usan para decidir si se contrata a alguien, o para tomar decisiones judiciales, entre otras.
  • Se creará un Consejo Europeo de Inteligencia Artificial, que estará formado por representantes de todos los países y que ayudarán a la Comisión a decidir qué sistemas de Inteligencia Artificial se consideran de alto riesgo, además de hacer recomendaciones de cambios en las prohibiciones.

Habrá excepciones a las reglas de vigilancia IA

Uno de los elementos clave de esta nueva regulación es el listado de las prácticas prohibidas y que incluye el social scoring. De acuerdo con el informe, Bruselas considera estas acciones una violación de los derechos fundamentales de las personas, sin embargo la reacción de los grupos de derechos digitales y expertos ante este punto es que debe mejorarse, si es que este acuerdo se aprueba.

La propuesta también buscará prohibir todos los sistemas de Inteligencia Artificial que puedan dañar a las personas al manipular sus decisiones de comportamiento, al explotar o señalar las vulnerabilidades de las personas, los prejuicios raciales o de género, así como la vigilancia en masa.

Sin embargo, es necesario aclarar que las normas filtradas establecen una excepción que permitirá a las autoridades utilizar el social scoring o los sistemas de inteligencia artificial de forma más flexible en caso de tratarse de problemas de seguridad pública, por ejemplo el uso del reconocimiento facial en cámaras de vigilancia por el cuerpo de policía.

Hasta el momento solo son conjeturas, y se podrían presentar cambios en el borrador de esta propuesta, y claro, una vez que se aplique esta nueva regulación, podrá estar sujeta a cambios tras los comentarios que se reciban. ¿Estás de acuerdo con esta regulación?

Imagen: Depositphotos

Mantente informado de las noticias más relevantes en nuestro canal de Telegram