Este website utiliza cookies propias y de terceros. Alguna de estas cookies sirven para realizar analíticas de visitas, otras para gestionar la publicidad y otras son necesarias para el correcto funcionamiento del sitio. Si continúa navegando o pulsa en aceptar, consideramos que acepta su uso. Puede obtener más información, o bien conocer cómo cambiar la configuración, en nuestra Política de cookies?
Versión Española Versión Mexicana Ibercampus English Version Version française Versione italiana

jueves, 12 de diciembre de 2019  
    en Ibercampus en  | Consejo Editorial | Quienes Somos | Ideario | Contacto | Tarifas Publicitarias | Suscribirse | RSS RSS
I+D+i
Capital humano
Economía
Cultura
Estrategias verdes
Salud
Sociedad
Deportes
Debates y firmas invitadas
Entrevistas
Educación
Becas & prácticas
Empleo y Formación
Iberoamérica
Tendencias
Empresas y RSC
Universidades
Convocatorias
Ranking Wanabis
Denuncias de los consumidores
Consumo
El Tiempo
EMPRESAS Y RSC Ampliar +  
Avalancha de casos en España al revisar Europa sus normas de capitales y urgir contra el blanqueo
Denuncian deterioro y politización de la información económica con medio IBEX en los tribunales
Expedientes a auditoras y Adidas ante preocupación del Gobierno por competencia
ABENGOA
ABERTIS
ACCIONA
ACERINOX
ACNUR
ACS
ADECCO
AMADEUS
ARCELORMITTAL
ASIFIN
BANCO POPULAR
BANCO SABADELL
BANCO SANTANDER
BANKIA
BANKINTER
BBVA
BME
CAIXABANK
DIA
EBRO
ENAGAS
ENDESA
FCC
FERROVIAL
GAMESA
GAS NATURAL
GRIFOLS
IAG (IBERIA)
IBERDROLA
INDITEX
INDRA
JAZZTEL
MAPFRE
MEDIASET
OHL
REE
REPSOL
SACYR
SOLIDARIOS
TÉCNICAS REUNIDAS
TELEFÓNICA
VISCOFAN
UNIVERSIDADES Ampliar +  
Alta evidencia del poder de las élites empresariales en la política de Chile y otros 7 países de AL
6 rectoras de universidades públicas urgen mayor liderazgo de la mujer en los órganos de gobierno
La universidad de los mares, prueba piloto para federar centros europeos y homologar titulaciones
 Universidades




















ENTREVISTAS Ampliar +  
"No podemos aceptar que orinar plástico sea normal. Repito: ¿es ese el precio de la vida moderna?"
"Las redes sociales,de las mejores herramientas para que los científicos conecten con las personas"
Los bancos centrales no tendrán más alternativa que expandir competencias al mundo de la innovación
EMPLEO Y FORMACIÓN Ampliar +  
Perdidos 11.410 millones en salarios y 4.803 en cotizaciones desde 2014 por las prácticas,según UGT
Planee trabajo digno aprobado en julio
La tasa de ´ninis´ (jóvenes de 15 y 24 años que ni estudian ni trabajan) baja a 12,4% tras su 18,6%
IBEROAMÉRICA Ampliar +  
Universitarios de 7 países denuncian racismo, "despojo territorial, asesinatos y criminalización"
Carencias en salud,educación e infraestructuras encienden el mapa de protestas en América Latina
Telefónica, dispuesta a vender 8 filiales latinoamericanas para poner su foco en Europa y área Tech
TENDENCIAS Ampliar +  
2019 hace historia como año desglobalizador por la guerra EEUU-China,que llega a España y suDefensa
Tendencia a la desglobalización de comercio, capitales y personas, según "Economistas"
España adopta este domingo por penúltima vez el horario de invierno: a las 3 serán de nuevo las 2


DEBATES Y FIRMAS INVITADAS
Su ética debería preocuparte, según los expertos

¿Te ocupas de la inteligencia artificial (IA), ya presente en tu vida?

La inteligencia artificial se enfrenta a desafíos éticos que muchas veces chocan con los intereses de gobiernos y grandes firmas. / Wearbeard / SINC

La inteligencia artificial (IA) ya está en todas partes, como en tu banco, que la usa para saber si te va a dar un crédito. ¿Te ocupas suficiente de ello?. Los sesgos discriminatorios de los algoritmos, la invasión de la privacidad, los riesgos del reconocimiento facial y la regulación de las nuevas relaciones entre humanos y máquinas son retos para gobiernos y grandes empresas, cuyos intereses priman muchas veces sobre las buenas prácticas.
Ana Hernando, Periodista especializada en ciencia, tecnología y economía. Redactora deinnovación de SINC. 12 de noviembre de 2019 Enviar a un amigo
Comparte esta noticia en LinkedInComparte esta noticia en FacebookComparte esta noticia en TwitterEnviar a MeneaméAñadir a del.icio.usAñadir a YahooRSS


 Noticias relacionadas
 Los 5 factores que impulsan la inteligencia artificial contrastan con la actitud de la UE
 La política, ya invadida por propaganda basada en inteligencia artificial
 Cómo prepararnos para la inminente expansión de la inteligencia artificial y la robótica avanzada
 Ma aboga por combinar inteligencia artificial y educación en pro de una semana laboral de 12 horas

La inteligencia artificial (IA) ya no es cosa de ciencia ficción, está en todas partes. Tu banco la usa para saber si te va a dar un crédito o no y los anuncios que ves en tus redes sociales salen de una clasificación llevada a cabo por un algoritmo, que te ha microsegmentado y ‘decidido’ si te muestra ofertas de cremas antiarrugas o de coches de alta gama. Los sistemas de reconocimiento facial, que utilizan aeropuertos y fuerzas de seguridad, también se basan en esta tecnología.

“Las máquinas no tienen una inteligencia generalista, tampoco hemos logrado que tengan sentido común, pero sí disponen de inteligencias específicas para tareas muy concretas, que superan la eficiencia de la inteligencia humana”, explica a Sinc Carles Sierra, director del Instituto de Investigación de Inteligencia Artificial (IIIA) del CSIC.

“Muchas empresas están ahora creando comités éticos, pero lo han hecho más de una forma reactiva que proactiva”, tras las críticas recibidas”, dice Carles Sierra

Por ello –agrega– “la IA tiene un enorme potencial en la mejora de procesos industriales, el diseño de nuevos medicamentos o para lograr mayor precisión del diagnóstico médico, por citar unos pocos ejemplos”.

Los datos son el nuevo petróleo

Pero aparte de un gran avance, la IA es ahora mismo un enorme negocio, que se estima en unos 190.000 millones de dólares (unos 170.000 millones de euros) para 2025, incluyendo hardwaresoftware y servicios alrededor de la tecnología. Los datos son considerados ahora como el nuevo petróleo.

Este negocio tan apetitoso se lo disputan, entre otros, gigantes tecnológicos como Amazon GoogleFacebookMicrosoft e IBM, “cuyos intereses comerciales priman muchas veces sobre las consideraciones éticas”, dice Sierra.

Muchas de estas firmas –señala– “están ahora creando comités éticos en el ámbito de la IA, pero lo han hecho más de una forma reactiva que proactiva”, tras las críticas recibidas por el uso inapropiado de la IA en ámbitos relacionados con la privacidad de los usuarios o la utilización sin la debida supervisión de algunas aplicaciones.

Según comenta a Sinc Carme Artigas, experta en big data y embajadora en España del programa Women in Data Science de la Universidad de Stanford, un ejemplo de estos usos controvertidos fue el llevado a cabo por Microsoft cuando decidió lanzar su bot Tay. Este chatbot basado en IA “estuvo navegando por sí solo en Twitter y al cabo de unas horas empezó a publicar tuits racistas y misóginos porque había cogido lo mejor de cada casa en esta red social”. A las 16 horas del lanzamiento la firma tuvo que desactivarlo. 

“Cuando un sistema no se supervisa, no hay filtro. Esto ocurrió con el chatbot Tay que, a las pocas horas de lanzarse, empezó a publicar tuits racistas y misóginos”, señala Carme Artigas

“Lo que ocurre –dice Artigas– es que cuando un sistema de inteligencia artificial no está supervisado se corre el riesgo de que no haya filtro, y eso es lo que ocurrió con este bot.

La ética de la IA es una cuestión que está ahora en una fase incipiente de desarrollo y tendrá que afrontar importantes retos. Uno de ellos, en opinión de esta experta, es lo que denomina la “dictadura de los algoritmos”.

Por ejemplo –señala– los algoritmos de clasificación, lo que hacen “es microsegmentar a las personas, es decir, clasificarlas por su comportamiento, lo cual puede conducir, si no se regula o si el proceso no es transparente, a que al final se le limiten a la gente sus opciones para elegir libremente”.

“Imagina –añade Artigas– que un algoritmo microsegmenta a alguien como una persona de renta media baja, deduce que nunca se va a poder comprar un Ferrari o un Porche y, por tanto, en los anuncios nunca le va a mostrar un coche de gama alta porque sabe que no se lo puede permitir. Este es un ejemplo que puede parecer poco importante, pero deberíamos preguntarnos si es ético no presentar algo a la gente ni siquiera para que sueñe porque ya ha sido preclasificada”.

Perpetuar los prejuicios 

Otra cuestión relevante y que ocasiona graves problemas de sesgo “es que, como los algoritmos de machine learning se alimentan con datos históricos, corremos el riesgo de perpetuar en el futuro los prejuicios del pasado”. Artigas habla para ilustrar este aspecto de los “típicos estudios de criminalidad en EE UU, que apuntan a que las personas afroamericanas tienen más probabilidades de cometer delitos”.

El algoritmo –prosigue– “ha estado entrenado con millones de datos de hace 30 años en los que se mostraba que si eras afroamericano, tenías más probabilidades de ir a la cárcel. También nos pasa con los sesgos de género. Si partimos de datos históricos, el algoritmo seguirá reproduciendo los clásicos problemas de discriminación”, subraya.

“Como los algoritmos de machine learning se alimentan con datos históricos, corremos el riesgo de perpetuar en el futuro los prejuicios del pasado”, advierte Artigas

En esta misma línea, Isabel Fernández, directora general de Inteligencia Aplicada en Accenture, hablaba en una entrevista con Sinc sobre la necesidad de un protocolo que regule los sesgos en IA. “No me cabe ninguna duda de que esto va a haber que regularlo. Ya no solo se trata de buenas prácticas. Igual que ocurre en un quirófano para garantizar que está limpio, creo que tiene que haber un protocolo o una acreditación para evitar los sesgos en los datos”, subrayaba.

Según Carme Artigas, hay otro gran requerimiento ético que se debe pedir a cualquier empresa u organización que trabaje con IA y que se sitúa alrededor de la transparencia y lo que se denomina explainabilityEsto es, explica, “si el banco te deniega un crédito porque, según el algoritmo, no eres apto, tienes el derecho a que la entidad te explique por qué y cuáles son los criterios para desecharte”.

¿Qué ocurre? Que en los procesos que siguen los algortimos, sobre todo en los de aprendizaje profundo (deep learning), no se sabe muy bien qué hay entre los inputs y los outputs, advierte Artigas.

Un programa basado en este tipo de algoritmos de deep learning es el Alpha Zero Go de Google, que no solo ha aprendido a jugar al Go –un antiguo juego oriental considerado como un gran reto para la IA– sino que ha descubierto nuevas estrategias abstractas por sí mismo. Pero ni los expertos saben bien cómo funcionan estos algoritmos.

Las cajas negras de los algoritmos

“Esta opacidad es lo que se denomina cajas negras de los algoritmos”, comenta a Sinc Aurélie Pols, responsable de protección de datos (DPO, por sus siglas en inglés) de la firma mParticle y consultora de privacidad.

“En estas cajas negras la entrada y el procesamiento no siempre son claros o explicables. Estos resultados opacos pueden tener consecuencias en la vida de las personas y posiblemente no estarán alineados con sus valores ni con sus opciones”, subraya Pols.

Según Patrick Riley, “muchos de estos algoritmos son tan complicados que es imposible inspeccionar todos los parámetros o razonar sobre cómo se han manipulado las entradas” 

Patrick Riley, científico de computación de Google, abundaba también en esta misma idea en un artículo en la revista Nature del pasado mes de julio. “Muchos de estos algoritmos de aprendizaje automático son tan complicados que es imposible inspeccionar todos los parámetros o razonar sobre cómo se han manipulado las entradas. A medida que estos algoritmos comiencen a aplicarse cada vez más ampliamente, los riesgos de interpretaciones y conclusiones erróneas, y esfuerzos científicos desperdiciados se multiplicarán”, advertía Riley.

A todas estas reflexiones, se suman los problemas relacionados con la protección de los datos personales. En IA “es importante que los modelos de datos que se usen para alimentar estos sistemas y su tratamiento respeten la privacidad de los usuarios”, destaca Carme Artigas.

En Europa –dice– “tenemos el Reglamento General de Protección de Datos, pero hay países como China, que ahora mismo está liderando este negocio, donde no existe la misma sensibilidad que en la sociedad europea respecto a la privacidad. Allí, por ejemplo, en los temas de vigilancia y reconocimiento de imagen no existe ninguna cortapisa. Y esto puede marcar distintas velocidades de desarrollo de la tecnología, pero los datos personales son algo que, desde el punto de vista social, se deben proteger”, recalca.

Artigas se refiere además a otro de los viejos retos éticos vinculados a la IA, que es el de cómo regular las nuevas relaciones entre humanos y máquinas. “Si utilizas un paralelismo como ha hecho la UE de la leyes de la robótica de Asimov y las traduces a normativa, esta te dice, por ejemplo, que no se deben establecer relaciones emocionales con un robot . Y esto entra en contradicción con algunas aplicaciones de los robots sociales, que se usan, precisamente, para provocar emociones en personas con autismo o con enfermedades neurodegenerativas, ya que esta vinculación ha demostrado ser beneficiosa y positiva en terapias”.

Para resumir, esta experta señala que “falta mucho por hacer en materia de legislación y en el análisis de las repercusiones éticas de la inteligencia artificial”. Lo que debemos lograr –añade– “es que haya transparencia y que las compañías y gobiernos nos informen sobre qué hacen con nuestros datos y para qué”.

Principio de prudencia

Por su parte, Ramón López de Mántaras, profesor de investigación del CSIC en el IIIA, hablaba en una reciente conferencia de la importancia que tiene en el desarrollo de la inteligencia artificial aplicar el principio de prudencia. “No hay que lanzarse alegremente a desplegar aplicaciones sin que antes hayan sido bien verificadas, evaluadas y certificadas”, subrayaba.

“No hay que lanzarse a desplegar aplicaciones sin que antes hayan sido bien verificadas, evaluadas y certificadas”, subraya Ramón López de Mántaras

Este principio es uno de los puntos destacados de la Declaración de Barcelona, promovida por López de Mántaras y otros expertos, en la que se incluye un manifiesto que pretende servir de base para el desarrollo y uso adecuado de la IA en Europa.

Un ejemplo de la aplicación de este principio –señalaba– “lo ha protagonizado la ciudad de San Francisco, cuyas autoridades han decidido prohibir los sistemas de reconocimiento facial. Algo de lo que me congratulo porque es una tecnología con muchos fallos, que puede acabar teniendo repercusiones tremendas en la vida de la gente cuando es utilizada por gobiernos o fuerzas de seguridad”. Un ejemplo reciente de este uso es el llevado a cabo por la policía con los manifestantes de las revueltas de Hong Kong, que ha sido ampliamente criticado.

Microsoft también se ha replanteado el uso de esta tecnología. Según cuenta a Sinc Tim O'Brien, responsable de ética en IA de la firma, “hace un año planteamos la necesidad de una regulación gubernamental y medidas responsables por parte de la industria para abordar los problemas y riesgos asociados con los sistemas de reconocimiento facial”.

O'Brien opina que “hay usos beneficiosos, pero también riesgos sustanciales en las aplicaciones de estos sistemas y necesitamos abordarlos para asegurar que las personas sean tratadas de manera justa, que las organizaciones sean transparentes en la forma en que la utilizan y rindan cuentas de sus resultados. También es preciso asegurar que todos los escenarios de uso sean legales y no impidan el ejercicio de los derechos humanos básicos”, destaca.

Armas autónomas y decisión de matar

Otro de los aspectos éticos problemáticos puestos de relieve por López de Mántaras en su intervención está relacionado con el uso de armas autónomas basadas en IA. “Hay principios básicos como los de discernimientoproporcionalidad en el uso de la fuerza que ya resultan difíciles de evaluar para los seres humanos. Veo imposible que un sistema autónomo pueda tener en cuenta estos principios”, señalaba.

“Los ingenieros de IA deberían firmar una especie de juramento hipocrático de buenas prácticas”, opina López de Mántaras 

Este Premio Nacional de Investigación se preguntaba cómo un sistema autónomo “va a ser capaz de distinguir –por ejemplo– a un soldado en actitud de ataque, de rendición, o a uno herido. Me parece absolutamente indigno delegar en una máquina la capacidad y la decisión de matar”.

El científico es un firme partidario de imbuir los principios éticos en propio diseño de la tecnología. “Los ingenieros de IA deberían firmar una especie de juramento hipocrático de buenas prácticas”. Al igual que otros expertos, también se mostró favorable a impulsar la certificación de los algoritmos para evitar sesgos. Pero, en su opinión, “esta validación deberían hacerla estamentos o instituciones independientes. A mí no me vale con que Google certifique sus propios algoritmos, debería ser algo externo”.

Según López de Mántaras, “afortunadamente se está produciendo una creciente toma de conciencia de los aspectos éticos de la IA, no solamente a nivel de estados o de la UE, sino también por parte de las empresas. Esperemos que no sea todo maquillaje”, concluía.


Otros asuntos de Debates y firmas invitadas
Más asuntos de Debates y firmas invitadas
Las acusaciones por conflictos de interés que rodean a la CNMV
Por fin un debate universitario sobre los perjuicios de la EBAU
El problema no es la EBAU, sino un desigual sistema educativo
La Agencia Valenciana Antifraude aconseja cómo prevenir la corrupción en Ayuntamientos
¿Para cuándo unas pruebas de EBAU únicas para toda España?
El medio ambiente necesita periodistas
Rubalcaba: un reformador ilustrado
Las APM de la prensa y la magistratura, ante el periodista de investigación Juan Luis Galiacho
Los 5 factores que impulsan la inteligencia artificial contrastan con la actitud de la UE
Sexualidad líquida: Hacía nuevas explicaciones, necesariamente interdisciplinares
Esta nueva forma de moneda podría transformar la manera en que vemos el dinero
Las estructuras góticas: más bellas y funcionales…; pero también, más vulnerables que las románicas
Inclusión educativa: aprender a mirar desde la perspectiva de un nosotros común
Gibraltar: una frontera diferente
Buscando a Dios en el Universo: Un decálogo
Los valores que deben enseñarse a los niños: Un análisis comparado
"Jóvenes caudillos"
Capitalismo académico: Soluciones "oficiales" a los problemas de la universidad
Igualdad entre españoles, mito sin contraste
Los cinco problemas de los médicos en España que a nadie le interesa solucionar

Suscríbete gratis a nuestro boletín
LIBROS
Indicadores comentados sobre el estado del sistema educativo español 2019 para entenderlo mejor
21 lecciones para el siglo XXI
Periferias. Nuevas geografías del malestar
Capital e ideología, un esquema para erradicar la desigualdad y superar el capitalismo
La mente económica.Importancia de pensar en clave económica
España, uno de los líderes europeos en "fintech" y "crowdfunding", y sólo el 17% sabemos lo que son
TESIS Y TESINAS
Alta evidencia del poder de las élites empresariales en la política de Chile y otros 7 países de AL
La inteligencia artificial supera barreras para el reconocimiento automático de lenguas de signos
España incumple el Tratado ONU de Discapacidad en áreas clave como integridad y consentimiento libre
Casi un tercio de los gobiernos autonómicos han sido de coalición,hecho insólito para el de España
Los recortes del 2% del PIB en el gasto social con la crisis fueron a pagar intereses de la deuda
Trabajar no garantiza superar la pobreza en América Latina y el Caribe, según CEPAL
1 Encuesta: ¿Cuánto sabes de las Fintech y de la digitalización de las finanzas?
2 El 77% de los consumidores, incapaz de elegir entre tarifas energéticas reguladas o libres
3 Jornada "Valoración de los resultados de la COP 25 en el marco de la Unión Europea"
4 Estas son las 10 #LinkedInTopVoices 2019 en España y las 16 de América Latina
5 Universitarios de 7 países denuncian racismo, "despojo territorial, asesinatos y criminalización"
6 Avalancha de casos en España al revisar Europa sus normas de capitales y urgir contra el blanqueo
7 ESIC destaca en el ranking de mejores escuelas de negocios 2019-2020 de Bloomberg
8 ¿Te ocupas de la inteligencia artificial (IA), ya presente en tu vida?
9 El 78% de las pymes aún ignora la Agenda ONU de ODS 2030, según Red Española del Pacto Mundial
10 Reflexión guiada y compartida
RANKING WANABIS Ampliar +  
"La evolución del e-learning: de "sólo ante el peligro" al aprendizaje interactivo"
"Los profesionales con formación online están mejor preparados para la economía global"
El big data, la robótica y el Mobile Learning, principales tendencias del e-learning
DEBATES Y FIRMAS Ampliar +  
Celaá niega la evidencia:El artículo 27 de la Constitución avala el derecho a elegir centro docente
¿Te ocupas de la inteligencia artificial (IA), ya presente en tu vida?
Vivienda, emergencia climática y derechos y libertades civiles, también en el debate electoral
Aviso Legal | Política de Privacidad | Consejo Editorial | Quienes Somos | Ideario | Contacto | Tarifas Publicitarias | RSS RSS