jueves,18 agosto 2022
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioGobernanza económicaDigitalizaciónEl pasaporte serológico, incompatible con el orden jurídico español y la protección...
Debate en FA ´Derechos y libertades en el mundo digital"

El pasaporte serológico, incompatible con el orden jurídico español y la protección de datos

Redacción
´El pasaporte serológico es incompatible con nuestro ordenamiento jurídico y la protección de datos´, según puso de manifiesto Itziar de Lecuona en el debate online sobre ´Derechos y libertades en el mundo digital´, organizado por la Fundación Alternativas para analizar los efectos del Covid-19 en el ámbito del respeto a los DDHH y su posible limitación tras el estado de alarma

La Fundación Alternativas organizó un debate on-line titulado ‘Derechos y libertades en el mundo digital’, con el objetivo de analizar los efectos de la pandemia del Covid-19 en el ámbito del respeto a los derechos humanos y su posible limitación tras el estado de alarma. En paralelo, la crisis actual hace más necesario, si cabe, el análisis de avances tecnológicos relacionados con la biometría y el reconocimiento facial o la inteligencia artificial, así como de los riesgos éticos y sociales que conllevan.

En estos tiempos convulsos, es necesaria una evaluación para determinar las técnicas que no pueden ser aceptadas dentro de una sociedad democrática y las que sí pueden ser asumidas, disponiendo de las garantías apropiadas para el respeto a la privacidad, la propiedad intelectual o los derechos humanos. Otro aspecto importante es la defensa de la libertad ideológica ante un mal uso de la tecnología. Moderado por Manuel de la Rocha, secretario del Patronato de la Fundación Alternativas, el encuentro virtual contó con varios expertos en la materia.

El periodista Ekaitz Cancela, apuntó que el debate sobre la privacidad es “muy relevante” y la cuestión es si lo principal son las “libertades individuales y civiles” o si las “aplicaciones de rastreo” ponen sobre la mesa un debate mayor: por qué buena parte de estas aplicaciones se erigen sobre los “sistemas operativos de Google y Apple”, y por qué los gobiernos, sobre todo los europeos, se apoyan en estas compañías para que sus sistemas públicos de salud “monitoricen” a los ciudadanos. Que sean empresas privadas las que se encarguen de estas cuestiones “dificulta mucho la labor de los servicios de salud”, y la pregunta es “por qué Google y Apple van a encargarse de dar una solución privada a una cuestión que es pública”.

Por su parte, Diego Naranjo, responsable de Estrategias de European Digital Rights, aclaró que en un estado de alarma los derechos no se “suspenden”, sino que se puede “limitar” su ejercicio, y hay que tener “mucho cuidado” en los momentos de emergencia ya que las medidas que se adoptan pueden acabar por “normalizarse: Israel lleva en estado de emergencia desde 1948 y, en Estados Unidos, las disposiciones de la llamada guerra contra el terror siguen en pie”. Por ello, cuando surgieron las primeras iniciativas de uso de las tecnologías para prevenir la expansión de la pandemia, “anunciamos que había que ser muy vigilantes con las garantías de los derechos de las personas”.

Susie Alegre, abogada especializada en derechos humanos, afirmó que, desde el enfoque británico, el gobierno de las islas se ha planteado la idea de “centralizar” la aplicación de rastreo contra el coronavirus, para no tener que “recurrir a Google y Apple”, pero la realidad es que ha invertido “mucho dinero” para desarrollar una herramienta que, posiblemente, “no va a ver la luz”. La pregunta principal, no obstante, era si la app iba a ser “respetuosa” con los derechos humanos y la privacidad, y a la vez “eficiente contra la infección”, pero estos días ha salido el sol en Reino Unido y “todo el mundo está en la playa, y ya nadie se acuerda de la aplicación que en un principio nos iba a salvar a todos”.

Itziar de Lecuona, subdirectora del Observatorio de Bioética y Derecho de la Universidad de Barcelona, sostuvo que “desde el punto de vista ético y jurídico, el pasaporte serológico es totalmente incompatible con la normativa de protección de datos y con nuestro ordenamiento jurídico, porque es discriminatorio y estigmatizante, y no está fundado en la evidencia científica”. A su juicio, la app se está planteando como una “solución tecnológica”, pero sin tener en cuenta la salud pública, “proclive a un modelo de negocio que vive de datos y que abre mercados de datos disfrazados de otras intenciones, y hay que regularlo adecuadamente”.

Ramón López de Mantaras, investigador del CSIC y director del Instituto de Investigación de Inteligencia Artificial, destacó que “el pasaporte inmunológico está en el congelador, afortunadamente, porque la lista de peligros reales de esta tecnología es enorme: a nivel técnico porque la cantidad de falsos positivos y negativos en los test puede ser un problema muy grave de contagio; y a nivel ético-legal porque puede generar estigmatización social”.

LucÍa Velasco, economista especializada en tecnología e innovación social, puntualizó que es importante no dar por supuesto que existe una “amenaza permanente de dictadura digital” en democracias consolidadas en las que los derechos están garantizados, porque no es lo mismo el uso que pueda hacer “Hungría o China” de la tecnología, que el que lleven a cabo “Francia, Alemania o España: no deberían ser equiparables y debemos esforzarnos por enfatizar las diferencias; la tecnología es neutra y todo depende del uso que se haga de ella”. A su entender, “cuando dos compañías como Apple y Google determinan qué sistema es el adecuado, están diciéndole a los gobiernos democráticos lo que tienen que hacer, y ahí es donde entra en juego el concepto de soberanía, ya que estas empresas condicionan las decisiones y hay que hacer una reflexión sobre quién tiene realmente el poder”.

Cancela precisó que “no hay pruebas de que los que hayan pasado el Covid-19 no puedan volver a contagiarse, aunque tengan anticuerpos, lo que ya hace desechable el pasaporte serológico. Pero aquí se refleja la mentalidad de que la pandemia nos va a llevar a utilizar la tecnología para todo, y que la propia tecnología nos va a solucionar los problemas, y llevamos tres meses debatiendo sobre si se trata de un ataque a la democracia, pero no sobre si gracias a la tecnología se van a mejorar los servicios públicos, la educación o la lucha contra el cambio climático. Y el verdadero debate está en cuestiones estructurales mucho más amplias que la crisis del coronavirus, como en si gastamos más en armas que en educación o sanidad, o de qué sirve que España sea soberana para utilizar las infraestructuras de Google y Facebook si en el despliegue del 5G gran parte de las licencias se le entregan a Huawei, porque no tenemos la capacidad de desarrollar soluciones propias”.

LEY DE EMERGENCIA

Naranjo concretó que, en Hungría, Orban ha querido “aprovechar” la crisis sanitaria para “aplicar” la ley de emergencia y “controlar” la libertad de expresión. El experto matizó que el Covid-19 no es un “virus informático, sino real, y las herramientas tecnológicas no van a solucionar la falta de recursos en sanidad o investigación de cara a la próxima pandemia”. Debido a que la prevención a corto plazo no es “eficiente”, las empresas farmacéuticas no “invierten e investigan y, desgraciadamente, en el sistema neoliberal el Estado tiende a dejar este tipo de cuestiones al mercado, y la mano invisible de Adam Smith nos da un guantazo que, de alguna manera, nos merecemos”.   

Alegre recordó que Reino Unido cuenta con el sistema de vigilancia más “desarrollado” de Europa, y el Brexit ha generado muchas preocupaciones a nivel de “derechos humanos, privacidad y protección de datos personales”, y el asunto de la aplicación de rastreo es un tema “menor” en comparación con el sistema de “reconocimiento facial o la utilización del polígrafo para casos penales”, por lo que salir de la UE es realmente el mayor problema para los británicos, “ya que vamos a perder la protección europea a nivel político y jurídico”.

Según Lecuona, en España “no estamos en un régimen totalitario, pero vamos hacia una vigilancia digital intensiva que requiere un debate previo y el ciudadano no tiene ninguna información sobre lo que está pasando, y la situación es grave porque apela a la necesidad de transparencia para tomar decisiones libres y formadas”. La docente opinó que “la app es un complemento, pero no la solución, y es importante saber quién va a tener acceso a ella, porque se está limitando a una gran parte de la población, que además es la más vulnerable: los mayores no tienen smartphones y, si los tienen, no saben utilizarlos”.

López de Mantaras especificó que “el gran problema de base del reconocimiento facial es que no funciona, aunque nos quieran hacer creer lo contrario: los estudios serios apuntan a que el porcentaje de acierto no pasa del 20%, por lo que el margen de error es muy elevado. La empresa Clearview tiene 3.000 millones de imágenes de todos nosotros recogidas en Internet, y las ha venido a países con regímenes autoritarios, y su director tiene relaciones con grupos neonazis estadounidenses. Esto nos debería preocupar muchísimo: ¿Estamos dispuestos a estar siempre controlados? ¿Queremos un ‘Minority Report’ en la sociedad?”.

Velasco aclaró que el Estado español no “geolocaliza” a la población, y apuntó como retos de futuro la “necesidad” de replantear la política industrial y adaptarla al mundo digital y al desarrollo tecnológico del siglo XXI, y “proyectar” las grandes cuestiones a nivel europeo, como la estrategia de datos, “ya que no tiene sentido hacerlo a nivel país y, mucho menos, autonómico

De interés

Artículos Relacionados

Centro de preferencias de privacidad