Si no puedes con el enemigo, únete a él. Ese parece ser el nuevo mantra oficioso d euna empresa que durante bastante tiempo parecía estar perdiendo fuelle y que con el liderazgo de Pat Gelsinger ha cambiado su enfoque: quieren volver a ser un gigante de los semiconductores, pero además uno que también apoye y fabrique soluciones de terceros.
La empresa ha anunciado un fondo de 1.000 millones de dólares destinados a ayudar a empresas del sector de los semiconductores, incluidas aquellas que desarrollan soluciones con arquitecturas ARM y, atención, RISC-V. En este último caso la apuesta va a más, sobre todo porque Intel se ha unido a la asociación RISC-V International que supervisa la hoja de ruta de esta arquitectura Open Source.
La cosa se pone interesante para RISC-V
El fondo de inversión de 1.000 millones de dólares que servirá para ayudar a que todo tipo de empresas puedan aprovechar sus Intel Foundry Services (IFS), que son en esencia todos sus recursos de desarrollo y sobre todo fabricación de semiconductores... aunque no sean chips x86.
El avance de RISC-V es aún modesto frente a las soluciones que actualmente existen tanto en el mundo ARM como en el x86, pero el hecho de que se trate de una arquitectura abierta y sin royalties está atrayendo a cada vez más sectores de la industria. Intel no quiere perderse la oportunidad de aprovechar el tirón, y ha hecho movimientos estratégicos para apoyar RISC-V.
La inversión está destinada a impulsar startups con ideas disruptivas, a ayudar a que sus partners puedan crecer y a apoyar a todos los clientes de sus IFS. La idea es básicamente una inyección económica para que terceras partes que antes quizás habrían acudido a otras 'foundries' (TSMC, Samsung, Global Foundries) ahora sepan que tienen en Intel a un socio con muchas ganas de hacer las cosas bien y ayudar.
La intención de Intel es además meterse mucho más de lleno en el futuro de RISC-V. Al anuncio del fondo de inversión se le une el hecho de que la asociación RISC-V International ha dado la bienvenida a Intel como miembro de primer nivel y también participará en el consejo de dirección.
Que Intel haya acabado entrando en este consorcio recuerda en cierta medida a cómo Microsoft ha pasado del odio al amor por Linux: la empresa liderada por Satya Nadella también abrió sus puertas a soluciones que antes competían con ella, y en Intel parecen estar siguiendo esa filosofía.
Queda por ver qué sale de esa apuesta, pero desde luego esto supone un interesante apoyo para la arquitectura RISC-V, que poco a poco va siendo reconocida como una alternativa real de futuro en diversos ámbitos.
Vía | Tom's Hardware
Más información | Intel
Ver 33 comentarios
33 comentarios
smithwinston
Ahora es cuando les entran las ganas de "hacer las cosas bien y ayudar". Ahora es cuando habría que cerrarles las puertas en las narices, ya que su incipiente altruismo probablemente solo se ve motivado por el estancamiento que han sufrido y la obvia necesidad que habrán visto de recibir ayuda externa. No puedes hacerlo todo sólo. Y menos aún si te has quedado sin ideas y desarrollo.
Si no fuese así, esas terceras partes no verían ni un duro o colaboración por parte de Intel. Porque esa seguramente sea la triste realidad; que todo esto está pensado para su beneficio primeramente, no el de terceras partes, aunque de dicho plan salgan también beneficiadas terceras partes.
Por otra parte, que Microsoft haya colaborado con Linux, no la convierte de repente en la mejor empresa del mundo. Todos sus movimientos probablemente forman parte de una estrategia corporativa de toda la vida. No me creo que haya amor/cariño por Linux. Lo más probable es que simplemente se aprovechan del mismo para nutrir su propio ecosistema. Por eso no verás que por ejemplo la versión de Edge para distros de Linux se desprenda de todas sus herramientas de seguimiento y análisis de datos del usuario.
Puro interés.
migueeee
Espero que sea el despegue de RISC-V! 🤞
ciudadwifi
Ya se que muchos no me creerán o prefieren pensar con su corazón antes que con su cabeza y me parece bien. Otros no saben de arquitectura de computadores y se han creído películas que alguno les colo, que las toman como verdades de fe, bien, lo de estos les recomendaría libros de estructura de tecnología de computadores, pero hay que reconocer que requiere un mínimo de otras materias y no todo el mundo tiene que saber de todo. Con lo que los respecto y sus opiniones aunque estén equivocados.
La realidad es que Intel tiene un problema, un problema muy serio. La plataforma x86 está tocada, ahora mismo vive de que la mayor parte del software disponible solo están en binarios para x86, pero ya no es competitiva por lo demás.
La arquitectura x86 jamás fue la mejor, pero fue muy genérica y había muchos suministradores, como triunfó en la empresa, pues eso atrajo a los desarrolladores, y llevó a usuarios, los cuales demandaban otros productos software y acabó recibiendo casi todo... Y como se vendía mucho, bajo mucho de precio y había muchas opciones. Mientras la competencia, cada uno por su lado tenían grandes productos, pero lo hacían todo, lo que hacía que la innovación llegara a cuenta gotas y los precios elevadisimos... Además, no era la mejor, nunca lo fue, pero servía desde para un cajero automático hasta para un gran cluster capaz de una capacidad de cálculo incluso superior a supercomputadoras... y realmente cumplía bien a muy buen precio. El resultado es que inundó el mercado.
Pero la propia Intel, haya por mediados de los 90, ya le ponía fecha de defunción en torno al 2010, en aquel momento, tras un acuerdo con HP empezaban a desarrollar el que sería su plataforma de futuro, los Merced (después Itanium). Esperaban que los primeros productos llegaran antes de terminar esa década, aunque se retrasaron y los primeros salieron en 2001. Inicialmente la plataforma x86 seguiría viviendo para uso domestico y pequeños equipos, mientras que Merced sería para servidores y workstations... hasta que, en torno a 2010, la plataforma x86 dijera adiós. Lo que acabo de decir, se podía leer en la PCWorld, PC Magazine, PC Actual, etc en grandes artículos en torno a 1996 hablando del tema por declaraciones desde la propia Intel, eran sus planes a medio y largo plazo. Al final, no fue así, los Itanium nunca cuajaron, en gran parte porque acabarros corriendo aplicaciones x86 que no iban muy finas... que los CPU Xeon, Opteron, eran muy baratas y tuvieron una segunda juventud con AMD64 y CPUs multicore, había muchos proveedores, con lo último en tecnología, mucha documentación, etc. Al mismo tiempo que la competencia lo hizo muy mal. No eran lo mejor, pero nadie ofrecía tanto por tan poco, la competencia mucho, pero a cambio de gran precio o se centraba en sectores como el consumo reducido, soluciones muy concretas, etc.
Desde la propia Intel debieron pensar que la plataforma x86 no tendría competencia, y vendieron su división ARM a Marvell, ya que esperaban lanzar soluciones x86 que compitieran con las ARM (lo que serían los ATOM) y en un momento de mucha competencia en ARM con pocos beneficios.
Pero ahora mismo se ve fácil que x86 ya vive de software heredado. Y es fácil de ver, un comentario de un compañero de cuando se presentaron las versiones H de la actual generación de Intel, hace cosa de un mes, pues sin querer y seguramente a buena fe, comparaba el rendimiento del i9 de serie H más potente de Intel con el M1 Max de Apple (que las soluciones de Apple son una de muchas otras que están llegando como las Nuvia de Qualcomm o ya han llegado como el Fujitsu A64FX que incluso llego antes de los M1 de Apple y que pronto llegará una segunda generación).
Continuando con lo dicho en el parrafo anterior. Cierto que el nuevo i9 rinde ligeramente más que un M1 Max, no mucho más, pero si algo más... El problema, y es el problema de la plataforma x86, es a que precio consigue ese rendimiento extra: a base de consumos muy elevados. En concreto, ese i9 serie H, tiene un TDP de 45W, claro que el TDP de Intel son curiosos, el consumo mínimo son 35W, solo por encenderlo, sin trabajar, con carga mínimo si está en los 45W, pero con cargas de trabajo multicore de más del 25% ya supera los 60W... y un mínimo de carga pesada que le exiges, está por encima de 80/85W... pudiendo llegar hasta los 110W... y es un procesador de portátil. Cierto que alguno otro de la serie H, como los i5 que salgan, pues no llegarán a esas cifras, pero a cambio de un rendimiento mucho más bajo. Mientras, el M1 Max, su consumo máximo a pleno rendimiento ronda los 40W, en un uso bajo está en torno a los 15W, en un uso medio entre 20 y 25W.
No es que no haya soluciones con los consumos del M1 Max, que las CPUs de la serie U tendrán consumos similares. Pero claro, el rendimiento de las series U, incluso el i9 más top, pues ni se acercará a lo que rinde un M1 Max, ni al M1 Pro, incluso será similar al del M1 con 2 años de diferencia de lanzamiento.
Y es que Intel, y AMD en algo menor grado, pero también, aunque curiosamente históricamente ha sido al revés, las soluciones AMD solían tener fama de más tragonas... Su gran problema es el rendimiento por vatio. Y esto siempre es relevante, especialmente en momento que el precio de la energía está por las nubes. Incluso, sería factible volver a ver equipos multicpu tras muchos años que solo habían quedado para el ambiente servidor, ya que básicamente las CPUs consumían demasiado para poner 2 en otros equipos. Y es fácil de ver, en las propuestas para PC de Intel de la actual generación recién presentada, las CPUs de alto rendimiento, todas tienen TDPs de más de 100W, pero no te puedes fiar de ese valor, porque esos consumos solo son casi con Windows arrancado y máximo 3 o 4 pestañas de Chrome abiertas... Si le exiges, los consumos, pues se disparan hasta por encima de los 200W, como la propia Intel te deja claro en sus hojas de especificaciones (por ejemplo del i9 12900K que puede llegar casi a 250W: https://www.intel.es/content/www/es/es/products/sku/134599/intel-core-i912900k-processor-30m-cache-up-to-5-20-ghz/specifications.html). Y cuando mas bajo sea una CPU, más probable que esté a rendimientos de uso elevados lo que implica más tiempo a consumos elevados. Y es cierto que consumen mucho pero también dan cifras de rendimiento elevadas... Pero es que puedes conseguir mucho más de ese rendimiento pondiendo varias CPUs como la comentada de Apple (uso esa por ser una conocida y de amplia disponibilidad), que cada una por separado rinde menos, pero pones 4 y le sacas un pico de rendimiento muy importante y aún consumiendo mucho menos no solo en pico, sino en todo momento, incluso puedes jugar con apagar CPUs individuales cuando no las necesites. Solo en escenarios de hilos pesado y duro (no dividible la tarea), la solución de Intel ganaría.
Por lo anterior, no me extraña que en Intel busquen plan B. Y no me extrañaría CPUs made in Intel basada en Risc V en los próximos años. Incluso la situación actual beneficia a Intel, porque se está creando código cada vez menos dependiente de CPU y sin necesidad de máquinas virtuales pesadas como era en su tiempo con Java. En cuestión de 3 o 4 años, la mayoría del software se podrá copilar para varias plataformas sin tocar una sola línea de código. Como máximo pequeños módulos muy dependientes de plataforma, pero se habrán aislado tanto, que será fácil dar soporte a nuevas plataformas, porque solo será crear esos pequeños módulos y en muchos casos, apenas hay ligeros cambios... especialmente si llega alguien de la entidad de Intel con una nueva plataforma.
Pepe Hue Vosrepes
La arquitectura del futuro.
d__
bien por intel y por RISC-V