Han pasado casi dos años desde que Google nos presentó su procesador para inteligencia artificial y machine learning, el conocido como TPU (Tensor Processing Unit). Este pequeño asaltó a todos por sorpresa y le dio a Google una posición envidiable en un área que estaba por explotar en todo el mundo y a todos los niveles.
Para darnos una idea de la importancia del TPU de Google sólo basta mencionar que es el responsable de haber dado vida a AlphaGo, la IA responsable de haber aplastado al mejor jugador del mundo de Go, así como Assistant y las diversas herramientas basadas en inteligencia artificial como TensorFlow. Pues ahora, TPU deja de ser exclusivo para proyectos de Google y se abre para que cualquier compañía pueda usarlo.
El plan de Google para dominar el mundo sigue adelante
Si lo vemos detenidamente, se trata de una gran estrategia por parte de Google, ya que ahora podrá ofrecer su procesador para explotar las capacidades de machine learning en diversas tareas y escenarios. Con esto provocará que la gran mayoría de las compañías se olviden de desarrollar su propia plataforma, ya que Google la tendrá disponible a través de sus servicios en la nube.
Es así como cualquier compañía podrá contratar capacidad de computo basada en TPU, es decir, para tareas de inteligencia artificial. Sí, tal y como sucede hoy día con sus máquinas virtuales de Google Compute Engine. Este servicio estará limitado para clientes empresariales y hasta el momento se desconocen los precios.

Por otro lado, este movimiento por parte de Google lanza un mensaje claro a sus competidores, como Amazon y Microsoft, al ser la primera compañía en abrir su plataforma de inteligencia artificial a casi cualquier persona interesada. Como sabemos, hoy día tanto Amazon como Microsoft tienen desarrollos en machine learning e inteligencia artificial, pero ninguno la tiene abierta y disponible para otras compañías.
Gracias a esta estrategia, Google se está convirtiendo en la primera compañía del mundo en ofrecer un sistema de inteligencia artificial listo para usarse sin complicadas configuraciones o costosos desarrollos. Y la idea es clara, ya que buscan ganar en este terreno y llegar a tanta gente como sea posible en tiempo récord, y así aumentar la participación que han perdido al ubicarse en el tercer puesto de servicios en la nube, justo detrás de Amazon y Microsoft.
Ahora mismo, el primer gran cliente confirmado es Lyft, quienes acaban de estrenar sus coches autónomos durante el CES de Las Vegas. Y el siguiente paso por parte de Google será recortar la dependencia a fabricantes como Nvidia, quien le suministra los chips para su plataforma. Por ello, cada vez cobra más sentido ese rumor que dice que Google está diseñando sus propios chips para olvidarse de los intermediarios.
En Xataka | Este es el procesador de Google para inteligencia artificial y machine learning
Ver 23 comentarios
23 comentarios
whisper5
¿Estáis seguros del último párrafo?
Hasta donde yo sé no hay dependencia sino competencia entre Nvidia y Google porque es Google quien diseña y fabrica los chips TPU. No es un rumor que Google diseñe sus TPU para olvidarse de intermediarios. Google diseña sus TPU desde que 2015 y el objetivo fue crear chips con mayor rendimiento del que ofrecen las GPU.
SpaceWorm
Sinceramente, a veces no sé si os informáis previamente o no.
AlphaGo, versión para derrotar a Fan Hui utilizó concretamente 1,202 CPUs y 176 GPUs (ni una TPU).
AlphaGo, versión para derrotar a Lee Sedol utilizó 1,920 CPUs, 280 GPUs y 48 TPUs (aquí las estrenó).
AlphaGo, la última versión, utiliza 48 CPUs, 8 GPUs y 4 TPUs (versión 2, que por ninguna parte Google especifica cómo es la 1 ni tampoco la 2).
Estos datos sin ir muy lejos aparecen en el artículo que ellos mismos publicaron en Nature (Mastering the game of GO without human knowledge (Nature, vol. 550, 19 October 2017)).
Como se aprecia, sí, las TPUs dieron vida a AlphaGo, pero yo más bien diría que AlphaGo dio vida a las TPUs, porque sin ellas y con solamente CPUs y GPUs también funcionó la mar de bien.
En cuanto "haber dado vida a [...] las diversas herramientas basadas en inteligencia artificial como TensorFlow." Pues sin ninguna TPU, mi Intel I5 de hace 7 años me arranca sin problemas las aplicaciones en TensorFlow que le he plantao.
Quién sabe, quizás soy, pero cuando os he leido, me habeis dado a entender que sin las TPUs ni AlphaGo ni TensorFlow ni mi madre en la cocina funcionarían.
innova
Según entiendo del artículo, inteligencia artificial siempre que está conectado a la Red, pero cuando no hay conexión, que sucede?
Luis
Google quiere ser el X86 que fue intel o el X64 que es AMD
kano01
Que google ofrezca sus TPUs es bueno sí o sí para que el machine learning se popularice entre los productos sw.
El gran problema de las plataformas cloud para la IA es que necesitas entrenarlas con datos q tienes q entregarselos a Google en su cloud (o amazon, o nvidia). En la mayoría de los casos los datos para entrenar redes están sujetos a confidencialidad o a leyes de protección de datos. Caras de gente, mediciones de sistemas, etc etc..
Con lo cual es de facto ilegal en muchos países entrenar redes neuronales de este modo ...
grouchom
¿Por que se afirma que Google se está convirtiendo en la primera compañía en ofrecer un sistema de inteligencia Artificial, si por lo que tengo entendido IBM Watson hace tiempo que ofrece sus servicios?
Está claro que hay algún matiz que me estoy perdiendo y que me gustaría entenderlo.
ASG
Inteligencia artificial en nube!!! Guau algo revolucionario!!! Sarcasmo off
Enserio? A estas alturas? No dan ni una ni con YouTube ni con Fiber ni con Cloud ni con Google +.