Este website utiliza cookies propias y de terceros. Alguna de estas cookies sirven para realizar analíticas de visitas, otras para gestionar la publicidad y otras son necesarias para el correcto funcionamiento del sitio. Si continúa navegando o pulsa en aceptar, consideramos que acepta su uso. Puede obtener más información, o bien conocer cómo cambiar la configuración, en nuestra Política de cookies?
Versión Española Versión Mexicana Ibercampus English Version Version française Versione italiana

sábado, 28 de noviembre de 2020  
    en Ibercampus en  | Consejo Editorial | Quienes Somos | Ideario | Contacto | Tarifas Publicitarias | Suscribirse | RSS RSS
I+D+i
Capital humano
Economía
Cultura
Estrategias verdes
Salud
Sociedad
Deportes
Debates y firmas invitadas
Entrevistas
Educación
Becas & prácticas
Empleo y Formación
Iberoamérica
Tendencias
Empresas y RSC
Universidades
Convocatorias
Ranking Wanabis
Denuncias de los consumidores
Consumo
El Tiempo
EMPRESAS Y RSC Ampliar +  
Se acentúa el uso publicitario o reputacional de los ODS 2030 y de la RSC
Mediapro admite "pago de sobornos" en la FIFA para las regiones de Centroamérica y Caribe(CONCACAF)
Las excajas de ahorros dicen que aportaron 5.004 millones de euros en impuestos el año 2019
ABENGOA
ABERTIS
ACCIONA
ACERINOX
ACNUR
ACS
ADECCO
AMADEUS
ARCELORMITTAL
ASIFIN
BANCO POPULAR
BANCO SABADELL
BANCO SANTANDER
BANKIA
BANKINTER
BBVA
BME
CAIXABANK
DIA
EBRO
ENAGAS
ENDESA
FCC
FERROVIAL
GAMESA
GAS NATURAL
GRIFOLS
IAG (IBERIA)
IBERDROLA
INDITEX
INDRA
JAZZTEL
MAPFRE
MEDIASET
OHL
REE
REPSOL
SACYR
SOLIDARIOS
TÉCNICAS REUNIDAS
TELEFÓNICA
VISCOFAN
UNIVERSIDADES Ampliar +  
Matilde Mas y Antón Costas reciben la Gran Cruz al Mérito en el Servicio de la Economía 2020
Mayoral gana la primera vuelta para seguir de rector en Unizar y disputará la segunda a Ana Elduque
Este martes, tele-elecciones a rector en Unizar: 4 candidaturas agrandan las polémicas de forma
 Universidades




















ENTREVISTAS Ampliar +  
´Autor de Así empieza todo: la guerra oculta del S.XXI´: "Biden no elimina los problemas de Europa"
"Muchas de familias en pobreza energética sufren un acoso de las grandes empresas que debe terminar"
En 2020 se han consumado 3 rupturas:política, institucional y cotidianeidad ante COVID (Jáuregui)
EMPLEO Y FORMACIÓN Ampliar +  
Plan A: 38 estrategias y 383 propuestas para que España sea líder en innovación y sostenibilidad
Reelegida Ana Gómez, primera mujer en presidir la mayoritaria Asociación Nacional de Laboralistas
La Seguridad Social explica su oferta de Empleo 2020 de 323 plazas por grupos profesionales
IBEROAMÉRICA Ampliar +  
XXVII Conferencia Iberoamericana de Ministros/as de Educación
CEPAL pide a los Estados garantizar el acceso a agua,electricidad y alimentos a los más vulnerables
Más de 130 años de cárcel al exmilitar Montano por la Matanza de Estado de jesuitas en El Salvador
TENDENCIAS Ampliar +  
Accidente del autobús sin conductor que estrenaba la UAM
El consejo editorial de Ibercampus pide aprovechar la crisis para lograr una enseñanza del sigloXXI
Los economistas urgen afrontar el envejecimiento más allá de la reforma del sistema de pensiones


DEBATES Y FIRMAS INVITADAS
Su ética debería preocuparte, según los expertos

¿Te ocupas de la inteligencia artificial (IA), ya presente en tu vida?

La inteligencia artificial se enfrenta a desafíos éticos que muchas veces chocan con los intereses de gobiernos y grandes firmas. / Wearbeard / SINC

La inteligencia artificial (IA) ya está en todas partes, como en tu banco, que la usa para saber si te va a dar un crédito. ¿Te ocupas suficiente de ello?. Los sesgos discriminatorios de los algoritmos, la invasión de la privacidad, los riesgos del reconocimiento facial y la regulación de las nuevas relaciones entre humanos y máquinas son retos para gobiernos y grandes empresas, cuyos intereses priman muchas veces sobre las buenas prácticas.
Ana Hernando, Periodista especializada en ciencia, tecnología y economía. Redactora deinnovación de SINC. 12 de noviembre de 2019 Enviar a un amigo
Comparte esta noticia en LinkedInComparte esta noticia en FacebookComparte esta noticia en TwitterEnviar a MeneaméAñadir a del.icio.usAñadir a YahooRSS


 Noticias relacionadas
 Los 5 factores que impulsan la inteligencia artificial contrastan con la actitud de la UE
 La política, ya invadida por propaganda basada en inteligencia artificial
 Cómo prepararnos para la inminente expansión de la inteligencia artificial y la robótica avanzada
 Ma aboga por combinar inteligencia artificial y educación en pro de una semana laboral de 12 horas

La inteligencia artificial (IA) ya no es cosa de ciencia ficción, está en todas partes. Tu banco la usa para saber si te va a dar un crédito o no y los anuncios que ves en tus redes sociales salen de una clasificación llevada a cabo por un algoritmo, que te ha microsegmentado y ‘decidido’ si te muestra ofertas de cremas antiarrugas o de coches de alta gama. Los sistemas de reconocimiento facial, que utilizan aeropuertos y fuerzas de seguridad, también se basan en esta tecnología.

“Las máquinas no tienen una inteligencia generalista, tampoco hemos logrado que tengan sentido común, pero sí disponen de inteligencias específicas para tareas muy concretas, que superan la eficiencia de la inteligencia humana”, explica a Sinc Carles Sierra, director del Instituto de Investigación de Inteligencia Artificial (IIIA) del CSIC.

“Muchas empresas están ahora creando comités éticos, pero lo han hecho más de una forma reactiva que proactiva”, tras las críticas recibidas”, dice Carles Sierra

Por ello –agrega– “la IA tiene un enorme potencial en la mejora de procesos industriales, el diseño de nuevos medicamentos o para lograr mayor precisión del diagnóstico médico, por citar unos pocos ejemplos”.

Los datos son el nuevo petróleo

Pero aparte de un gran avance, la IA es ahora mismo un enorme negocio, que se estima en unos 190.000 millones de dólares (unos 170.000 millones de euros) para 2025, incluyendo hardwaresoftware y servicios alrededor de la tecnología. Los datos son considerados ahora como el nuevo petróleo.

Este negocio tan apetitoso se lo disputan, entre otros, gigantes tecnológicos como Amazon GoogleFacebookMicrosoft e IBM, “cuyos intereses comerciales priman muchas veces sobre las consideraciones éticas”, dice Sierra.

Muchas de estas firmas –señala– “están ahora creando comités éticos en el ámbito de la IA, pero lo han hecho más de una forma reactiva que proactiva”, tras las críticas recibidas por el uso inapropiado de la IA en ámbitos relacionados con la privacidad de los usuarios o la utilización sin la debida supervisión de algunas aplicaciones.

Según comenta a Sinc Carme Artigas, experta en big data y embajadora en España del programa Women in Data Science de la Universidad de Stanford, un ejemplo de estos usos controvertidos fue el llevado a cabo por Microsoft cuando decidió lanzar su bot Tay. Este chatbot basado en IA “estuvo navegando por sí solo en Twitter y al cabo de unas horas empezó a publicar tuits racistas y misóginos porque había cogido lo mejor de cada casa en esta red social”. A las 16 horas del lanzamiento la firma tuvo que desactivarlo. 

“Cuando un sistema no se supervisa, no hay filtro. Esto ocurrió con el chatbot Tay que, a las pocas horas de lanzarse, empezó a publicar tuits racistas y misóginos”, señala Carme Artigas

“Lo que ocurre –dice Artigas– es que cuando un sistema de inteligencia artificial no está supervisado se corre el riesgo de que no haya filtro, y eso es lo que ocurrió con este bot.

La ética de la IA es una cuestión que está ahora en una fase incipiente de desarrollo y tendrá que afrontar importantes retos. Uno de ellos, en opinión de esta experta, es lo que denomina la “dictadura de los algoritmos”.

Por ejemplo –señala– los algoritmos de clasificación, lo que hacen “es microsegmentar a las personas, es decir, clasificarlas por su comportamiento, lo cual puede conducir, si no se regula o si el proceso no es transparente, a que al final se le limiten a la gente sus opciones para elegir libremente”.

“Imagina –añade Artigas– que un algoritmo microsegmenta a alguien como una persona de renta media baja, deduce que nunca se va a poder comprar un Ferrari o un Porche y, por tanto, en los anuncios nunca le va a mostrar un coche de gama alta porque sabe que no se lo puede permitir. Este es un ejemplo que puede parecer poco importante, pero deberíamos preguntarnos si es ético no presentar algo a la gente ni siquiera para que sueñe porque ya ha sido preclasificada”.

Perpetuar los prejuicios 

Otra cuestión relevante y que ocasiona graves problemas de sesgo “es que, como los algoritmos de machine learning se alimentan con datos históricos, corremos el riesgo de perpetuar en el futuro los prejuicios del pasado”. Artigas habla para ilustrar este aspecto de los “típicos estudios de criminalidad en EE UU, que apuntan a que las personas afroamericanas tienen más probabilidades de cometer delitos”.

El algoritmo –prosigue– “ha estado entrenado con millones de datos de hace 30 años en los que se mostraba que si eras afroamericano, tenías más probabilidades de ir a la cárcel. También nos pasa con los sesgos de género. Si partimos de datos históricos, el algoritmo seguirá reproduciendo los clásicos problemas de discriminación”, subraya.

“Como los algoritmos de machine learning se alimentan con datos históricos, corremos el riesgo de perpetuar en el futuro los prejuicios del pasado”, advierte Artigas

En esta misma línea, Isabel Fernández, directora general de Inteligencia Aplicada en Accenture, hablaba en una entrevista con Sinc sobre la necesidad de un protocolo que regule los sesgos en IA. “No me cabe ninguna duda de que esto va a haber que regularlo. Ya no solo se trata de buenas prácticas. Igual que ocurre en un quirófano para garantizar que está limpio, creo que tiene que haber un protocolo o una acreditación para evitar los sesgos en los datos”, subrayaba.

Según Carme Artigas, hay otro gran requerimiento ético que se debe pedir a cualquier empresa u organización que trabaje con IA y que se sitúa alrededor de la transparencia y lo que se denomina explainabilityEsto es, explica, “si el banco te deniega un crédito porque, según el algoritmo, no eres apto, tienes el derecho a que la entidad te explique por qué y cuáles son los criterios para desecharte”.

¿Qué ocurre? Que en los procesos que siguen los algortimos, sobre todo en los de aprendizaje profundo (deep learning), no se sabe muy bien qué hay entre los inputs y los outputs, advierte Artigas.

Un programa basado en este tipo de algoritmos de deep learning es el Alpha Zero Go de Google, que no solo ha aprendido a jugar al Go –un antiguo juego oriental considerado como un gran reto para la IA– sino que ha descubierto nuevas estrategias abstractas por sí mismo. Pero ni los expertos saben bien cómo funcionan estos algoritmos.

Las cajas negras de los algoritmos

“Esta opacidad es lo que se denomina cajas negras de los algoritmos”, comenta a Sinc Aurélie Pols, responsable de protección de datos (DPO, por sus siglas en inglés) de la firma mParticle y consultora de privacidad.

“En estas cajas negras la entrada y el procesamiento no siempre son claros o explicables. Estos resultados opacos pueden tener consecuencias en la vida de las personas y posiblemente no estarán alineados con sus valores ni con sus opciones”, subraya Pols.

Según Patrick Riley, “muchos de estos algoritmos son tan complicados que es imposible inspeccionar todos los parámetros o razonar sobre cómo se han manipulado las entradas” 

Patrick Riley, científico de computación de Google, abundaba también en esta misma idea en un artículo en la revista Nature del pasado mes de julio. “Muchos de estos algoritmos de aprendizaje automático son tan complicados que es imposible inspeccionar todos los parámetros o razonar sobre cómo se han manipulado las entradas. A medida que estos algoritmos comiencen a aplicarse cada vez más ampliamente, los riesgos de interpretaciones y conclusiones erróneas, y esfuerzos científicos desperdiciados se multiplicarán”, advertía Riley.

A todas estas reflexiones, se suman los problemas relacionados con la protección de los datos personales. En IA “es importante que los modelos de datos que se usen para alimentar estos sistemas y su tratamiento respeten la privacidad de los usuarios”, destaca Carme Artigas.

En Europa –dice– “tenemos el Reglamento General de Protección de Datos, pero hay países como China, que ahora mismo está liderando este negocio, donde no existe la misma sensibilidad que en la sociedad europea respecto a la privacidad. Allí, por ejemplo, en los temas de vigilancia y reconocimiento de imagen no existe ninguna cortapisa. Y esto puede marcar distintas velocidades de desarrollo de la tecnología, pero los datos personales son algo que, desde el punto de vista social, se deben proteger”, recalca.

Artigas se refiere además a otro de los viejos retos éticos vinculados a la IA, que es el de cómo regular las nuevas relaciones entre humanos y máquinas. “Si utilizas un paralelismo como ha hecho la UE de la leyes de la robótica de Asimov y las traduces a normativa, esta te dice, por ejemplo, que no se deben establecer relaciones emocionales con un robot . Y esto entra en contradicción con algunas aplicaciones de los robots sociales, que se usan, precisamente, para provocar emociones en personas con autismo o con enfermedades neurodegenerativas, ya que esta vinculación ha demostrado ser beneficiosa y positiva en terapias”.

Para resumir, esta experta señala que “falta mucho por hacer en materia de legislación y en el análisis de las repercusiones éticas de la inteligencia artificial”. Lo que debemos lograr –añade– “es que haya transparencia y que las compañías y gobiernos nos informen sobre qué hacen con nuestros datos y para qué”.

Principio de prudencia

Por su parte, Ramón López de Mántaras, profesor de investigación del CSIC en el IIIA, hablaba en una reciente conferencia de la importancia que tiene en el desarrollo de la inteligencia artificial aplicar el principio de prudencia. “No hay que lanzarse alegremente a desplegar aplicaciones sin que antes hayan sido bien verificadas, evaluadas y certificadas”, subrayaba.

“No hay que lanzarse a desplegar aplicaciones sin que antes hayan sido bien verificadas, evaluadas y certificadas”, subraya Ramón López de Mántaras

Este principio es uno de los puntos destacados de la Declaración de Barcelona, promovida por López de Mántaras y otros expertos, en la que se incluye un manifiesto que pretende servir de base para el desarrollo y uso adecuado de la IA en Europa.

Un ejemplo de la aplicación de este principio –señalaba– “lo ha protagonizado la ciudad de San Francisco, cuyas autoridades han decidido prohibir los sistemas de reconocimiento facial. Algo de lo que me congratulo porque es una tecnología con muchos fallos, que puede acabar teniendo repercusiones tremendas en la vida de la gente cuando es utilizada por gobiernos o fuerzas de seguridad”. Un ejemplo reciente de este uso es el llevado a cabo por la policía con los manifestantes de las revueltas de Hong Kong, que ha sido ampliamente criticado.

Microsoft también se ha replanteado el uso de esta tecnología. Según cuenta a Sinc Tim O'Brien, responsable de ética en IA de la firma, “hace un año planteamos la necesidad de una regulación gubernamental y medidas responsables por parte de la industria para abordar los problemas y riesgos asociados con los sistemas de reconocimiento facial”.

O'Brien opina que “hay usos beneficiosos, pero también riesgos sustanciales en las aplicaciones de estos sistemas y necesitamos abordarlos para asegurar que las personas sean tratadas de manera justa, que las organizaciones sean transparentes en la forma en que la utilizan y rindan cuentas de sus resultados. También es preciso asegurar que todos los escenarios de uso sean legales y no impidan el ejercicio de los derechos humanos básicos”, destaca.

Armas autónomas y decisión de matar

Otro de los aspectos éticos problemáticos puestos de relieve por López de Mántaras en su intervención está relacionado con el uso de armas autónomas basadas en IA. “Hay principios básicos como los de discernimientoproporcionalidad en el uso de la fuerza que ya resultan difíciles de evaluar para los seres humanos. Veo imposible que un sistema autónomo pueda tener en cuenta estos principios”, señalaba.

“Los ingenieros de IA deberían firmar una especie de juramento hipocrático de buenas prácticas”, opina López de Mántaras 

Este Premio Nacional de Investigación se preguntaba cómo un sistema autónomo “va a ser capaz de distinguir –por ejemplo– a un soldado en actitud de ataque, de rendición, o a uno herido. Me parece absolutamente indigno delegar en una máquina la capacidad y la decisión de matar”.

El científico es un firme partidario de imbuir los principios éticos en propio diseño de la tecnología. “Los ingenieros de IA deberían firmar una especie de juramento hipocrático de buenas prácticas”. Al igual que otros expertos, también se mostró favorable a impulsar la certificación de los algoritmos para evitar sesgos. Pero, en su opinión, “esta validación deberían hacerla estamentos o instituciones independientes. A mí no me vale con que Google certifique sus propios algoritmos, debería ser algo externo”.

Según López de Mántaras, “afortunadamente se está produciendo una creciente toma de conciencia de los aspectos éticos de la IA, no solamente a nivel de estados o de la UE, sino también por parte de las empresas. Esperemos que no sea todo maquillaje”, concluía.


Otros asuntos de Debates y firmas invitadas
Más asuntos de Debates y firmas invitadas
Diez razones para cuestionar los actuales indices de impacto científico de las revistas académicas
Las big-tech acaparan información de todos y no dan siquiera la de sus ingresos allí donde operan
El COVID 19 causa en España una crisis económica nunca vista, pero no la peor del último siglo
La Naturaleza, nuestra mejor vacuna
Vaciar los centros de educación especial (para integrar a sus alumnos en colegios),misión imposible
Un curso académico malherido este de 2019-2020
Hay que controlar al infectado con su movil, aunque sin dar nombre y apellidos
Vacunas y búsqueda de soluciones permanentes a la epidemia del coronavirus
La Ley Celaá abre un posible conflicto con la Iglesia católica por la asignatura de Religión
El ministro de Universidades quiere más criterios mínimos homogéneos en la EBAU
El Gobierno ha decidido que no habrá prueba única de selectividad
El pin parental, un nuevo conflicto constitucional
¿A qué esperamos para potenciar y vincular educación financiera y digital y mejorar la información?
Las nuevas generaciones han nacido sin conocer la concordia de 1992 entre España y Cataluña
El sistema de pensiones español, más amenazado que en 2018 por la falta de ingresos sostenibles
Celaá niega la evidencia:El artículo 27 de la Constitución avala el derecho a elegir centro docente
Vivienda, emergencia climática y derechos y libertades civiles, también en el debate electoral
Manifiesto por la Ciencia 19 de Octubre de 2019
Los libros de texto no adoctrinan, pero apoyan el adoctrinamiento
El Gobierno de Sánchez asume un modelo liberalizado de renta básica mensual, 40% mayor que la AIReF

Suscríbete gratis a nuestro boletín
LIBROS
Lanzan en España la tesis de que el trabajo está matando a la gente y a pocos les importa
Tres Cantos y la Universidad Popular, un siglo después de extenderse por España estas instituciones
"Estamos ante una encrucijada vital: una sociedad del descarte o del cuidado"
¡Jugad, jugad, malditos! La epidemia del juego en España: ludópatas y capos del azar
Extendida la salud en la ciudadanía democrática hasta lograr erradicar un virus: el de la viruela
Renacimiento y revoluciones plagadas de infecciones y soluciones: hacia un mundo más saludable
TESIS Y TESINAS
La lucha contra la pandemia, menos eficaz por la polarización política y social
Un documento prueba que Junta de Andalucía desvía 11 millones del COVID para salvar Canal Sur
Equilibrio y control postural en la niñez autista, claves para mejorar su integración sensorial
China tiende a elevar su influencia al sur de Panamá y EEUU al norte, geográfica y funcionalmente
Banco de España urge reforzar educación y formación de habilidades con el Fondo de Reconstrucción
Gana fuerza la idea de que los anticuerpos del COVID no garantizan inmunidad ante la reinfección
1 Importancia de las etiquetas de la ropa en el proceso emocional que es comprar
2 En tiempos de covid: el cuidado necesario y la hermandad afectuosa
3 Infiltrados (The Departed)
4 No podemos hacer que el agotamiento nos ponga en pausa
5 ADICAE analiza la última sentencia del Tribunal Supremo sobre cláusulas abusivas
6 La reforma del PDI de Castells: hacia más diferencias salariales y discrecionalidad por autonomías
7 Universidad de Burgos vota electrónicamente este jueves rector entre tres candidaturas y polémicas
8 La técnica Feynman para "aprender" que aconsejan los casinos
9 Sin fecha aún para el anuncio de que alumnos de ESO y bachillerato de Cataluña se harán sus PCR
10 La vacuna covid de Oxford, segura y capaz de inmunizar a mayores de 70, según su ensayo en fase 2
RANKING WANABIS Ampliar +  
"La evolución del e-learning: de "sólo ante el peligro" al aprendizaje interactivo"
"Los profesionales con formación online están mejor preparados para la economía global"
El big data, la robótica y el Mobile Learning, principales tendencias del e-learning
DEBATES Y FIRMAS Ampliar +  
La reforma del PDI de Castells: hacia más diferencias salariales y discrecionalidad por autonomías
Falta un Goya que pinte esta pandemia
¿Sale barato para los catalanes el proceso independentista de Cataluña?
Aviso Legal | Política de Privacidad | Consejo Editorial | Quienes Somos | Ideario | Contacto | Tarifas Publicitarias | RSS RSS