jueves,18 agosto 2022
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioInnovación y AcademiaHumanismo DigitalGoogle promete no desarrollar inteligencia artificial en armas militares tras alertar de...
El gigante de Internet lanza un nuevo código de conducta

Google promete no desarrollar inteligencia artificial en armas militares tras alertar de China

Dung Tran
El CEO de Google, Sundar Pichai, ha asegurado que la compañía no utilizará inteligencia artificial en aplicaciones relacionadas con armas o espionaje que viole las normas internacionales, aunque sí seguirá colaborando con las Fuerzas Armadas en otros frentes. La empresa intenta tranquilizar tras las protestas por participar en proyectos con Pentágono y Gobierno de Estados Unidos relacionadas con prácticas militares. Tiempo atrás declaró que China superará en IA a los EEUU hacia el año 2025.

Google no utilizará su Inteligencia Artificial  para desarrollar «»tecnologías que causen o puedan causar daños generales, armas diseñadas para dañar, tecnologías de vigilancia que violen las normas internacionalmente aceptadas o los principios ampliamente aceptados del derecho internacional y los derechos humanos«, como ha explicado Pichai a través de un comunicado oficial de Google

 

«Reconocemos que una tecnología tan poderosa plantea preguntas igualmente poderosas sobre su uso. Cómo se desarrollará y usará la IA, y si tendrá un impacto significativo en la sociedad por muchos años más», dijo el Pichai, añadió «Como líder en IA, sentimos una gran responsabilidad por hacer esto bien«.

 

Google tuvo un gran problema con el «Proyecto Maven«, un contrato de colaboración con el Pentágono para implementar el uso de la inteligencia artificial con fines militares. Concretamente, la función de Google ha sido mejorar el sistema de interpretación de imágenes de vídeo de los drones y facilitar el trabajo a sus pilotos mediante inteligencia artificial. Esta función «no tendría un uso ofensivo» y serviría para «salvar vidas y ahorrar trabajo», de acuerdo a las declaraciones realizadas por Google a Business Insider en Estados Unidos.

 

Desde entonces, la ética de la IA se ha convertido en un tema candente que ha sacudido a la compañía recientemente. Los empleados han desafiado la decisión de la empresa de participar en Maven, una iniciativa destinada a desarrollar una mejor inteligencia artificial para el ejército de los EE.UU., según CNET

 

Las críticas consideran que esta tecnología podría ser utilizada para mejorar el disparo de los drones e, incluso, llegar a posibilitar un sistema de armas autónomo que no requiriera de un humano apretando el gatillo. Asimismo más de 4.000 empleados firmaron una petición para que la compañía abandonara dicho proyecto.

 

La compañía izó su bandera en el uso ético de la inteligencia artificial apenas días después de que confirmó que no renovaría un contrato con el ejército estadounidense para el uso de IA en el análisis de imágenes tomadas por drones, informó AP

 

Sin embargo, Pichai no especificó cómo es que Google o su compañía matriz, Alphabet, se apegarán a los mismos.También dijo que Google continuará su trabajo con gobiernos y ejércitos en aplicaciones que no sean de combate y que involucren temas como el cuidado de salud de veteranos, búsqueda y rescate.“Esta postura es congruente con los valores establecidos en nuestra carta original de fundadores de 2004”, escribió Pichai.

 

Pese a esa situación, Google ha establecido siete principios que regirán el uso de la inteligencia artificial en futuros:

 

1. Ser beneficiosa para la sociedad:  a medida que vayamos descubriendo el potencial y los usos de la inteligencia artificial, tendremos en cuenta una amplia variedad de factores económicos y sociales, y actuaremos allí donde creamos que por lo general los beneficios superan a los previsibles riesgos y contratiempos. Seguiremos respetando las normas culturales, sociales y legales en los países en los que operamos.

 

2. Evitar crear o reforzar sesgos injustos: admitimos que distinguir entre sesgos justos e injustos no siempre es fácil, y cambian en las distintas culturas y sociedades. Trataremos de evitar los impactos injustos en la gente, particularmente aquellos relacionados con características sensibles como la raza, la etnia, el género, la nacionalidad, el nivel adquisitivo, la orientación sexual, la inteligencia o las creencias políticas o religiosas.

 

3. Estar diseñada para ser segura: continuaremos desarrollando y aplicando fuertes medidas de seguridad para evitar resultados indeseados que pueden crear riesgo de daños. En los casos que sea necesario, probaremos la inteligencia artificial en entornos controlados en los que monitorizaremos su evolución.

 

4. Ser accesible a la gente: diseñaremos los sistemas de inteligencia artificial para que den la oportunidad de recibir opiniones, explicaciones y quejas. Nuestra inteligencia artificial estará sujeta al debido control humano.

 

5. Incorporar principios de respeto a la privacidad: daremos la oportunidad de dar el consentimiento, usaremos arquitecturas con apropiadas medidas de protección de la privacidad y seremos transparentes con el control del uso de los datos.

 

6. Facilitar altos estándares de excelencia científica: aspiramos a altos estándares de excelencia científica a medida que progresamos en la inteligencia artificial.Trabajaremos con los accionistas para promover el liderazgo en este área, contribuyendo al rigor científico y en los enfoques multidisciplinares. Compartiremos de manera responsable nuestro conocimiento de inteligencia artificial publicando materiales educativos, las mejoras prácticas e investigaciones que permitirán a más gente desarrollar útiles aplicaciones para la inteligencia artificial.

 

7. Estar hecha a medida para usos que vayan acorde a estos principios: muchas tecnologías tienen usos múltiples. Trabajaremos para limitar el potencial dañino o el uso abusivo.

Las 4 tecnologías a las que renuncia Google

 

Google garantiza que no diseñará o desplegará desarrollos en inteligencia artificial en las siguientes áreas:

 

1. Tecnologías que causan o pueden causar un daño general. Cuando exista un riesgo material de daño, procederemos sólo cuando consideremos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas.

 

2. Armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar de manera directa lesiones a las personas.

 

3. Tecnologías que recopilan o usan información para la vigilancia que violan las normas internacionalmente aceptadas.

 

4. Tecnologías cuyo propósito infringe principios de derecho internacional ampliamente aceptados y derechos humanos.

De interés

Artículos Relacionados

Centro de preferencias de privacidad