jueves,18 agosto 2022
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioOpiniónDebatesLos 5 factores que impulsan la inteligencia artificial contrastan con la actitud...
Comisión Europea anunciaba medidas para "mediados de 2019"

Los 5 factores que impulsan la inteligencia artificial contrastan con la actitud de la UE

Redacción
China quiere ser líder mundial y ha incluido la inteligencia artificial en los programas educativos escolares de secundaria,según resalta Priya Dialani en Analyticsinsight al analizar los 5 factores conductores de sus vínculos y potencialidades con el aprendizaje de las máquinas y el "big data". Enfoque que contrasta con el dado por la posición de la Comisión Europea en su comunicación del año pasado sobre estas tecnologías, dejando sus medidas para "mediados de 2019" de incertidumbre electoral

La inteligencia artificial (AI por sus iniciales en inglés) es la innovación de vanguardia que todo el mundo anticipa.Junto a al Machine Learning (ML) y al uso, medidas y tratamiento de de datos o big data en constante expansión, están cambiando nuestro entorno empresarial y social. La inteligencia artificial ya ha aterrizado en diferentes sectores de negocios, incluyendo automóviles, salud, finanzas, montaje y venta minorista para dar algunos ejemplos. Desde el procedimiento médico automatizado hasta los vehículos que conducen por cuenta propia, AI ha demostrado sus implicaciones en cada aplicación. ¿Pero qué es lo que realmente está impulsando la Inteligencia Artificial?. Organizaciones como Amazon, Facebook, Apple, Google, IBM, así como Microsoft, están poniendo recursos en el trabajo innovador mediante AI. Por ello nos parecen relevantes los 5 principales factores que según Priya Dialani impulsan el desarrollo de las Tecnologías Inteligentes Artificiales y otras tecnologías de Big Data, ML, etc:.

Arquitectura de computación de próxima generación

Los microprocesadores y las CPU habituales no están destinados a gestionar el aprendizaje automático. De hecho, incluso la CPU más rápida puede no ser la decisión perfecta para preparar un modelo de ML desconcertante. Para preparar e inferir modelos ML que transmiten conocimiento a las aplicaciones, las CPU deben complementarse con otro tipo de procesadores.

Debido al ascenso de la IA, se busca la Unidad de Procesamiento de Gráficos (GPU). Lo que una vez se vio como una parte superior de la línea de PC y estaciones de trabajo para juegos es actualmente el procesador más buscado en la nube pública. A diferencia de las CPU, las GPU acompañan a una gran cantidad de núcleos que aceleran el proceso de capacitación de ML. A pesar de que se ejecuta un modelo capacitado para inferencias, las GPU se están volviendo fundamentales. En el futuro, algún tipo de GPU estará allí donde haya una CPU. Desde dispositivos de consumo hasta máquinas virtuales en la nube pública, las GPU son la clave para la inteligencia artificial.

Por fin, la accesibilidad de los servidores básicos en la nube pública está atrayendo a científicos e investigadores para que ejecuten tareas informáticas de alto rendimiento en la nube. Estos servidores dedicados de un solo habitante transmiten un rendimiento de primer nivel. Las máquinas virtuales experimentan los efectos nocivos de los problemas de los vecinos alborotados debido al marco compartido y de múltiples habitantes. Los servicios de infraestructura en la nube, incluidos Amazon EC2 e IBM Cloud, están creando servidores de código abierto. Estos desarrollos impulsarán la adopción de la IA en campos, por ejemplo, aeroespacial, terapéutico, procesamiento de imágenes, fabricación y automatización.

Información abierta

En general, nos damos cuenta de que el software de código abierto está detrás del ascenso de numerosos productos y servicios de big data y ML. El caso empresarial y técnico para el código abierto fue demostrado años atrás. No obstante, se ha prestado mucha menos atención a la importancia de los datos abiertos para el avance. Los rendimientos de los algoritmos están a la par con la calidad de los datos que se incluyen en ellos.

Chris Taggart, cofundador y CEO de OpenCorporates, la base de datos abierta más grande de organizaciones en el planeta, presentó los problemas que las organizaciones siguen encontrando cuando dependen de conjuntos de datos restrictivos donde la procedencia de los datos puede ser ruda y la información meta no se comparte entre los productos. Los datos abiertos son cada vez más sencillos y no encierran a las empresas en contactos comerciales costosos que pueden ser excepcionalmente difíciles para que las organizaciones se retiren.

Crecimiento en redes neuronales profundas

El tercer factor y el más importante en la investigación de la IA en el avance es el aprendizaje profundo y las redes neuronales artificiales.

Las redes neuronales artificiales (ANN, por sus siglas en inglés) están sustituyendo a los modelos habituales de aprendizaje automático para avanzar en modelos precisos y precisos. Las redes neuronales convolucionales (CNN) transmiten el poder del aprendizaje profundo a la visión por computadora. Una parte de los avances continuos en la visión por computadora, por ejemplo, el Detector Multibox de disparo único (SSD) y las Redes adversas generativas (GAN) están cambiando el procesamiento de la imagen. Por ejemplo, utilizando algunos de estos sistemas, las imágenes y los videos que se toman con poca luz y baja resolución se pueden mejorar a calidad HD. La investigación continua en visión de PC se convertirá en la base para el procesamiento de imágenes en servicios medicinales, defensa, transporte y diferentes áreas.

Algunos de los procedimientos de ML en ascenso, por ejemplo, Capsule Neural Networks (CapsNet) y Transfer Learning, en general, cambiarán la manera en que se preparan y despliegan los modelos de ML. Lo más probable es que produzcan modelos que anticipen con precisión incluso cuando estén entrenados con información limitada.

Cuestiones legales y éticas

Una discusión de la Dra. Sandra Wachter, de la Universidad de Oxford, presentó un tema que resultará ser más discutido durante el próximo año o dos. Llamó la atención sobre numerosas organizaciones que en la actualidad están conscientes de sus compromisos de proteger la información personal como actividades, por ejemplo, el GDPR ha llegado al poder.

En cualquier caso, una cuestión menos comentada y en la que los reguladores todavía están pensando es en la interferencia y las decisiones que se toman mediante cálculos integrados que dependen de los datos que están procesando.

En Europa, en cualquier caso, tenemos el derecho de percibir qué datos se nos están colgando y, en grados fluctuantes, remediarlos o evacuarlos. No obstante, no tenemos una revisión similar con las presunciones que las organizaciones podrían estar haciendo con respecto a nosotros debido a estos datos en zonas, por ejemplo, verificación de crédito y seguro de salud.

Conjuntos de datos históricos

Antes de que la nube avanzara para convertirse en la corriente principal, ahorrar y acceder a los datos era costoso. Debido a la nube, las organizaciones, el mundo académico y los gobiernos están desbloqueando la información que alguna vez estuvo vinculada a los cartuchos de cinta y los discos magnéticos.

Los científicos de datos necesitan acceso a conjuntos de datos enormes y auténticos para preparar modelos de ML que puedan anticipar con mayor precisión. La productividad de un modelo de ML se corresponde directamente con la calidad y el tamaño del conjunto de datos. Para resolver problemas complejos como distinguir el crecimiento maligno o anticipar la lluvia, los analistas necesitan conjuntos de datos sustanciales con diversos puntos de datos.

Debido a que el almacenamiento y la recuperación de datos son menos costosos, las oficinas gubernamentales, las organizaciones médicas y las universidades están haciendo que la información no estructurada sea accesible a la red de investigación. Desde imágenes de medicamentos hasta patrones de lluvia crónica, los analistas actualmente se acercan a conjuntos de datos ricos. Este factor por sí solo tiene un impacto fundamental en la investigación de la inteligencia artificial. Los datos inagotables combinados con los dispositivos informáticos de alto rendimiento impulsarán las soluciones de vanguardia de AI.

Planteamiento de la Comisión Europea

 

«La inteligencia artificial es una realidad. Ha llegado para quedarse», pero «los robots nunca se convertirán en humanos. Tenemos la misma cantidad de datos que en los años setenta. Es sólo que ahora las máquinas la procesan y la analizan más rápido», aseguró la Comisaria europea de Mercado Interior, Industria, Emprendimiento y Pymes, Elzbieta Bienkowska, al presentar la «Comunicación» de la CE sobre la AI.

 

Junto a ella, en la presentación del documento del Ejecutivo comunitario sobre el futuro de la inteligencia artificial el eurocomisario de Investigación, Ciencia e Innovación, Carlos Moedas, animó a «mirar al futuro sin tener miedo del futuro».

La «comunicación» de la CE, que no supone una propuesta legislativa, aboga por que la Unión Europea invierta al menos 20.000 millones de euros de aquí al final de 2020 para adaptarse a la era de los robots.»Del mismo modo que el motor de vapor y la electricidad hicieron en el pasado, la inteligencia artificial está transformando nuestro mundo», declaró el vicepresidente de la CE para el Mercado Único Digital, Andrus Ansip.

 

De esa cuantía, el Ejecutivo comunitario aportará 1.500 millones de euros a través del programa de innovación e investigación Horizonte 2020, que espera genere otros 2.500 millones a través de cooperaciones público-privadas en ámbitos «como el ‘big data’ o la robótica».

 

La inversión servirá para desarrollar sectores «clave» que van del transporte a la salud, añadió la Comisión Europea, que pedirá al Fondo Europeo de Inversiones Estratégicas que proporcione a las empresas «apoyo adicional para invertir en inteligencia artificial», que espera aporte 500 millones de euros.

 

Las orientaciones del Ejecutivo comunitario se fijan también otros dos aspectos relativos a la robótica en los que Bruselas quiere trabajar con los Estados miembros de la Unión Europea.

 

El primero consiste en orientar las llamadas «becas de oportunidades digitales» de la CE para que unos 6.000 estudiantes europeos se formen en competencias digitales, en general, y adquieran conocimientos sobre inteligencia artificial, en particular.

 

Además, la Comisión Europea anima a los países de la UE a que adapten sus programas educativos y formativos a las necesidades de este nuevo salto tecnológico, ya que «se crearán muchos empleos, pero otros desaparecerán y la mayoría se transformará», resumió el Ejecutivo comunitario.

 

Marco ético y legislativo europeo 

 

Por último, Bruselas quiere generar un marco ético y legislativo adecuado para los nuevos desafíos de la robótica ya que hasta ahora la UE sólo cuenta con ciertas normas orientadas a la estandarización de patrones industriales allí donde se emplea la robótica, pero carece de leyes que regulen la interacción social entre seres humanos y autómatas.

 

La CE trabajará en ese sentido con los Estados miembros hasta finales de 2018, cuando presente una serie de directrices que incluyan, entre otros, asuntos como la protección de datos y la transparencia.

Para ello se ha configurado un grupo de expertos que analizan aspectos como la «justicia, seguridad y transparencia, el futuro del empleo, la democracia y, con más amplitud, su impacto en la aplicación de la Carta de los Derechos Fundamentales de la UE«.

 

Más adelante, a mediados de 2019, Bruselas presentará una batería de orientaciones para interpretar correctamente la Directiva relativa a los productos defectuosos, a tenor de la nueva realidad tecnológica y siempre colocando «al ser humano en el centro de las cosas», precisó la eurocomisaria de Economía y Sociedad Digital, Mariya Gabriel

De interés

Artículos Relacionados

Centro de preferencias de privacidad