jueves,18 agosto 2022
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioInnovación y AcademiaInvestigación y DesarrolloSesgos: una tarea pendiente de la Inteligencia Artificial
Ética y digitalización

Sesgos: una tarea pendiente de la Inteligencia Artificial

Humanista Digital. Filósofa y Humanista. Especialista en Pensamiento Crítico, Ética y filosofía aplicada a la empresa. Brain Trainer. Speaker. Docente. Doctoranda en Ética e Inteligencia Artificial artificial.
Aunque ahora se habla mucho de lo sesgos en la inteligencia artificial, es necesario recordar que somos los humanos los que hemos convivido con ellos desde hace siglos, y que la única forma de minimizarlos en tecnología, pasa por que comenzamos a identificarlos y solucionarlos éticamente.

 

“La ignorancia es la madre de todos los crímenes”

Honoré de Balzac

 

En una reciente encuesta a un grupo de personas, en la que se les preguntaba si alguna vez en su vida habían utilizado algún sistema de inteligencia artificial, el 83% contestó que nunca lo había hecho. El dato curioso es que todos ellos tenían smartphones, que contienen apps como Google maps, Cabify, Instagram, etc., que están basadas en esa tecnología.

Esto es tan solo una pequeña muestra del gran desconocimiento que se tiene en general, no sólo de la Inteligencia Artificial (a partir de ahora IA), sino del entorno tecnológico en el que nos movemos. Vivimos en una época en la que interactuamos con sistemas tremendamente sofisticados,  para los cuales somos una fuente inagotable de datos, mientras que nosotros ni siquiera tenemos conciencia de ellos.

A pesar de todo este desconocimiento,  el inconsciente colectivo apela a un ideario de negatividad cuando se menciona la IA; nadie se siente cómodo hablando del tema. Tenemos un sesgo contra la IA.

Aunque ahora se habla mucho de los sesgos en la IA, y pareciera que son una definición científica, lo cierto que éstos son tan antiguos como la humanidad, y más comunes de lo que nos pudiéramos imaginar.

Según la RAE, el termino sesgo (en estadística) significa: “Error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras”. Esto quiere decir que damos valores a personas, objetos o pensamientos, sin haber contrastado previamente la información que tenemos. El problema de dicha información es que la hemos ido adquiriendo -en la mayoría de los casos- de manera inconsciente e involuntaria, ya que puede haber sido transmitida por nuestros padres, por nuestra educación o por nuestro entorno. De allí la gran dificultad para reconocer los sesgos.

Existen muchas clases de sesgos, sin embargo, en 1972 los psicólogos Daniel Kahneman y Amos Tversky definieron el concepto de sesgo cognitivo como “una interpretación errónea sistemática de la información disponible que ejerce influencia en la manera de procesar los pensamientos, emitir juicios y tomar decisiones”.

Los “sesgos cognitivos” son aquellos que tenemos más arraigados y que forman parte del complejo entramado que constituyen nuestras costumbres y creencias. Un ejemplo de los sesgos cognitivos más comunes son los que se producen por:

  • clases sociales
  • raza
  • religión
  • sexo/género
  • apariencia física
  • nacionalidad

El problema de estos sesgos es que a diario tomamos una gran cantidad de decisiones, en base a esas creencias o prejuicios, que en muchas oportunidades están errados. Y estas decisiones pueden ir desde tomar una ruta para ir a un lugar (sin verificarla previamente) hasta comprometernos en temas que luego no podremos cumplir.

Muchos de los sesgos que los humanos tenemos hacia la IA provienen del cine, la literatura, y los medios de comunicación -confiables y amarillistas- que han vendido futuros distópicos en los que la tecnología ha superado la inteligencia humana (AIG).

Ahora bien, veámoslo en sentido contrario. Imaginemos que un algoritmo (IA) esta tomando decisiones por cientos de personas, en base a informaciones no contrastadas acerca de los humanos o sesgos. ¿No es aberrante e injusto?

Lo es, y de hecho ya está sucediendo. El sistema de monitorización a los empleados de planta en Amazon, es un algoritmo que mide la productividad gracias a una serie de instrucciones programadas por un humano.  Entre 2017 y 2018 el algoritmo de Amazon despidió a 300 personas a través de un email enviado por el propio algoritmo, sin ninguna supervisión humana. Las razones por la cuales el algoritmo despidió a estas personas, son porque éste computaba las ausencias de los tiempos de descanso, de comida y de ir al baño, como índices de baja productividad. El algoritmo no podía saber que los humanos comemos, o tenemos necesidades fisiológicas, pero quien lo programo sí lo sabía, y lo pasó por alto.

Por ello, si te asusta el futuro de la IA, el presente ya comienza a ser preocupante tal como lo acabamos de ver. ¿Existe una solución? Sí, y no es otra que asumir una posición ética para la IA, tratando de visibilizar y calificar primero los sesgos que tenemos los humanos. Difícil tarea, pero una cosa está clara: no podemos eliminar los sesgos de la IA, sin antes no identificamos en los nuestros.

En mi opinión, el primer gran paso hacia un futuro ético pasa por entender en qué estado se encuentra la IA hoy realmente. El profesor Murat Durmus, en su publicación “El libro del pensamiento de la IA”, nos describe algunas de las grandes cuestiones en las que deberíamos estar centrando toda nuestra atención:

  • El problema del control de la IA (todavía no completamente resuelto)
  • Preocupaciones sobre la privacidad, las cuestiones éticas y la seguridad.
  • No hay regulaciones y las leyes vienen muy lentamente.
  • La realidad y las expectativas de la IA difieren significativamente; la IA está sobrevalorada.
  • Las implicaciones éticas/psicológicas aún no están claras; muchas son aun teorías no aplicadas en la práctica.
  • La moda de la IA (la IA sigue siendo un sistema experto)
  • Muchos sistemas de IA siguen siendo ineficientes y necesitan mucha energía o deben implementarse de manera complicada. Necesitamos enfoques diferentes y más eficientes
  • La IA está dominada por unas pocas Big-Techs (la IA se convierte cada vez más en un instrumento de poder). Esto podría tener un efecto negativo en la IA.
  • Los estudios/enfoques filosóficos, sociológicos y psicológicos de las ciencias humanas aún no se aprecian lo suficiente.
  • La conciencia de “los datos” aún no se ha desarrollado lo suficiente en todo el mundo.

Como se puede ver, la inteligencia artificial -aparte de los sesgos- aún tiene muchos temas pendientes, que a mi modo de ver, son oportunidades de mejora.

Nuestra única probabilidad de que exista un futuro en el que humanos y máquinas puedan cohabitar, pasa por resolver estos problemas de la manera más ética posible, y esto solo sucederá si tratamos de minimizar al máximo los sesgos en la IA.

Si un algoritmo no se ha programado de manera ética (como en el caso de Amazon), es muy posible que en un futuro, cuando los algoritmos estén más presentes en las empresas y en la vida diaria, al evaluar la productividad de la especie humana basados en variables que no contemplen nuestra dignidad y derechos humanos,  puede que para las máquinas resultemos improductivos, y en ese momento ya no habrá marcha atrás…

 

Si te interesa el tema, te recomiendo ver la siguiente charla:

De interés

Artículos Relacionados

Centro de preferencias de privacidad