jueves,18 agosto 2022
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioGobernanza económicaDigitalizaciónGoogle reta a Amazon y Microsoft al universalizar su inteligencia artificial
Abre en la nube sus procesadores de IA a cualquier compañía

Google reta a Amazon y Microsoft al universalizar su inteligencia artificial

Redacción
Google ha lanzado un mensaje claro a sus competidores, como Amazon y Microsoft, al ser la primera compañía en abrir su plataforma de inteligencia artificial (IA) a casi cualquier empresa interesada. Ninguno de sus dos competidores tienen abierta y disponible para otras compañías sus procesadores de IA. Así el llamado TPU de Google podrá usarse sin complicadas configuraciones o costosos desarrollos.Su primer gran cliente será Lyft, que ha estrenado coches autónomos en Global Stage for Innovation

Las unidades de procesamiento de tensor (en inglésː tensioner processing units o TPU) son circuitos integrados desarrollados específicamente para el aprendizaje de máquinas. En comparación con las unidades de procesamiento gráfico (que a partir de 2016 se usan con frecuencia para las mismas tareas), buscan un mayor volumen de cálculo de precisión reducida (por ejemplo, desde 8 bits de precisión) y carecen de hardware para la rasterización/ cartografía de textura.​ El término fue acuñado para un chip específico diseñado para el marco Tensor Flow de Google, que hace casi dos años presentó su procesador para inteligencia artificial y machine learning, el TPU (Tensor Processing Unit), que según Xataca «asaltó a todos por sorpresa y le dio a Google una posición envidiable».

 

La CNBC recordó al dar la primicia de esta novedad que el uso se factura por segundo por TPU en la nube cuesta a la hora 6,5 dólares. Estos procesadores están diseñados específicamente para cargas de trabajo de IA y de aprendizaje automático y proporcionan dos beneficios principales a Google. Uno es que, al usar su propio silicio, tiene una alternativa más económica y más eficiente que confiar en los fabricantes de chips como Nvidia e Intel, al margen de que pseer su propio hardware le permite experimentar más rápido. Otro, que los nuevos TPU también permiten a la empresa matriz Alphabet agregar un flujo de ingresos a Google Cloud Platform (GCP), que junto a la las aplicaciones comerciales de Google lGSuite ahora le generan más de 4.000 millones de dólares al año.

 

Actualmente, Google permite que las empresas alquilen placas de TPU individuales, pero a lo largo de este año les permitirá conectar varias placas en redes de supercomputación llamadas módulos de TPU, que dió vida a AlphaGo, la IA responsable de aplastar al mejor jugador del mundo de Go, así como Assistant y las diversas herramientas basadas en inteligencia artificial como TensorFlow. Y ahora el TPU deja de ser exclusivo para proyectos de Google y se abre para que la gran mayoría de las compañías se olviden de desarrollar su propia plataforma:  Google la tendrá disponible a través de sus servicios en la nube y cualquier compañía podrá contratar capacidad de computo basada en TPU en  tareas de inteligencia artificial. Asi sucede ya con sus máquinas virtuales de Google Compute Engine, servicio  limitado a clientes empresariales y del que hasta el momento se desconocen los precios.

Gracias a esta estrategia, Google se está convirtiendo en la primera compañía del mundo en ofrecer un sistema de inteligencia artificial listo para usarse sin complicadas configuraciones o costosos desarrollos. Busca ganar en este terreno y llegar a tanta gente como sea posible en tiempo récord, y así aumentar la participación que han perdido al ubicarse en el tercer puesto de servicios en la nube, justo detrás de Amazon y Microsoft.

Ahora mismo, el primer gran cliente confirmado es Lyft, quienes acaban de estrenar sus coches autónomos durante el CES de Las Vegas. Y el siguiente paso por parte de Google será recortar la dependencia a fabricantes como Nvidia, quien le suministra los chips para su plataforma. Por ello, cada vez cobra más sentido ese rumor que dice que Google está diseñando sus propios chips para olvidarse de los intermediarios.

De interés

Artículos Relacionados

Centro de preferencias de privacidad