Tiempo de lectura: 4 minutos
Shares

Entre los avances tecnológicos que hemos visto en los últimos años, la inteligencia artificial ha sido uno de los más disruptivos ya que tiene la capacidad de cambiar por completo nuestros hábitos, costumbres y hasta la forma en que nos relacionamos. Si bien la inteligencia artificial ha sido diseñada para brindar mayor comodidad y facilitar la vida de los usuarios ¿podría llegar a ser una amenaza para la sociedad? Google recientemente estuvo en el centro de la polémica sobre este hecho y ha publicado sus leyes de la inteligencia artificial, con las que pretende regir el uso de esta tecnología en sus desarrollos futuros.

La polémica de Project Maven

Al parecer, las siete leyes de la inteligencia artificial de Google surgen tras la gran polémica y preocupación que se desató sobre el trabajo del gigante de internet en Project Maven, un programa del ejército de los Estados Unidos para aplicar la Inteligencia Artificial en la mejora de los sistemas de navegación de los drones militares.

En abril, al conocerse este proyecto, más de 4.000 empleados de Google firmaron una petición dirigida al CEO de Google, Sundar Pichai, solicitando que la empresa se retirara del proyecto. Tras no recibir respuesta, doce de ellos renunciaron a sus puestos.

Ahora, Sundar Pichai ha decidido publicar en el blog oficial de Google una carta en la que además de descartar rotundamente la posible aplicación de la inteligencia artificial del gigante de internet con fines bélicos, también enumera las leyes de la inteligencia artificial por las que se regirá al dirigir el potencial de esta tecnología. Algo así como las leyes de la robótica de Asimov, pero en versión Google.

Las siete leyes de la inteligencia artificial de Google

Pichai es contundente al afirmar que las siete leyes de la inteligencia artificial no son solo conceptos teóricos, sino estándares concretos que “regirán de forma activa nuestra investigación y desarrollo de productos, e influirán en nuestras decisiones de negocio”.

Así que de ahora en adelante, Google se compromete a que sus próximos proyectos de inteligencia artificial se evaluarán y basarán bajo los siguientes objetivos:

1 . Ser socialmente benéfico

Google buscará que los avances en la Inteligencia Artificial que desarrolle logren transformar de forma benéfica a la sociedad en ramas tales como la atención médica, seguridad, energía, transporte, fabricación y entretenimiento, al mismo tiempo que se compromete a respetar las normas culturales, sociales y legales en los países donde opera.

2 . Evitar la creación o reforzamiento de sesgos injustos en sus algoritmos

Google asegura que trabajará centrándose en evitar los impactos injustos en sus algoritmos, particularmente los relacionados con características sensibles como raza, etnia, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias políticas o religiosas.

3 . Ser construida y probada para ser segura

Google implementará estrictas prácticas de seguridad y protección con el fin de que las pruebas de tecnologías de Inteligencia Artificial no generen daños, e incluso puedan llevarse a cabo en entornos controlados, además de supervisar su funcionamiento después de su implementación.

4 . Ser responsable con las personas

Los sistemas de inteligencia artificial de Google siempre contarán con control y dirección de humanos responsables tras de ella.

5 . Respetar la privacidad

Google quiere asegurar a los usuarios que su inteligencia artificial respetará la privacidad de los datos que obtenga, y señala que los usuarios recibirán avisos y formularios de consentimiento.

6 . Mantener altos estándares de excelencia científica

Google se compromete a compartir y colaborar con el conocimiento de la inteligencia artificial por medio de publicaciones de material educativo, mejores prácticas de investigación que permita a más personas desarrollar aplicaciones de IA útiles así como a llevar a cabo esta investigación abierta por medio de un estricto rigor intelectual e integridad.

7 . Estar disponible para usos que estén de acuerdo con estos principios

La inteligencia artificial de Google limitará las aplicaciones potencialmente dañinas o abusivas, y evaluará el uso que se le dará en base a varios factores: propósito y uso primario, naturaleza y singularidad, escala, naturaleza de la implicación de Google.

Un punto final queresaltó Pichai en su comunicado, es que si bien Google no se encuentra desarrollando inteligencia artificial con el fin de crear armas, sí continuará trabajando en conjunto con gobiernos y militares en muchas áreas más, que incluyen seguridad cibernética, capacitación, reclutamiento militar o atención médica para veteranos, así como búsqueda y rescate.

De este modo y tal como Isaac Asimov predijo en sus novelas de ciencia ficción, el desarrollo de tecnologías de inteligencia artificial deberá reglamentarse en base a principios éticos, pero… ¿serán suficientes estas leyes?

Imagen: Depositphotos

Mantente informado de las noticias más relevantes en nuestro canal de Telegram