Fuente: hipertextual.com
Inferentia, como han bautizado al chip, se integrará en su infraestructura de servicios en la nube (AWS) a partir del próximo año.
En la actualidad, Amazon ofrece una gran cantidad de servicios en la nube (AWS), de los cuales algunos pueden servir para proyectos relacionados con la inteligencia artificial. Su infraestructura usa chips dedicados al procesamiento de IA, mismos que provienen de fabricantes como Intel o Nvidia. La compañía ya no quería depender de otros en este tipo de componentes, por ello comenzaron a trabajar en su propio chip. Hoy finalmente lo presentaron.
Inferentia es el nuevo chip de Amazon para el procesamiento de inteligencia artificial. Para fortuna de Intel y Nvidia, los dirigidos por Jeff Bezos no planean ofrecer su producto a terceros, así que no se convertirán en una amenaza a considerar. La mala noticia es que seguramente van a prescindir de sus componentes y dejarán de adquirirlos. Es un ingreso importante al que ambas empresas dirán adiós.
Amazon lo ha bautizado con ese nombre debido a su capacidad de inferencia, que en términos informáticos es poner en funcionamiento un algoritmo y que se ejecute correctamente. El plan de la compañía es que Inferentia se implemente en sus servicios en la nube a partir del próximo año. Desgraciadamente no compartieron datos de rendimiento o comparativas frente al resto chips existentes, pero sus números deberían ser respetables para integrarlos en una infraestructura tan reconocida.
No ha sido el único anuncio importante. También presentaron Graviton, un chip para servidoresbasado en tecnologías de ARM. Este sector ha sido dominado históricamente por Intel, no obstante, ARM va con paso firme y cada vez son más las compañías que emplean sus productos en centros de datos. La firma británica ya se convirtió en una amenaza muy seria para Intel en este mercado.
Aunque los chips de Nvidia e Intel ya ofrecen buen rendimiento, son varias las empresas interesadas en crear sus propios componentes. Google, competencia de Amazon en servicios en la nube, presentó en 2016 un procesador de inteligencia artificial. Tesla está haciendo lo propio para su sistema de conducción autónoma. Claro está que se necesita una inversión considerable en investigación y desarrollo, pero es un gasto que con el pasar del tiempo se convierte en un ahorro considerable al no depender de fabricantes externos.