Fuente: www.elnuevodia.com
Funcionaría de modo muy diferente al de la mayoría de los diseños existentes
El investigador jefe de inteligencia artificial de Facebook Inc. ha sugerido que la compañía trabaja en un nuevo tipo de semiconductor que funcionaría de modo muy diferente al de la mayoría de los diseños existentes.
Yann LeCun dijo que en el futuro los chips usados para la formación de algoritmos de aprendizaje profundo, que apuntalan la mayor parte del progreso reciente en inteligencia artificial, tendrían que poder manipular datos sin tener que descomponerlos en múltiples grupos. A los efectos de manejar la cantidad de datos que esos sistemas de aprendizaje de las máquinas necesitan aprender, la mayoría de los chips existentes la divide en partes y procesa cada grupo de forma secuencial.
“No queremos dejar piedra sin dar vuelta, en especial si no hay nadie más que les dé vuelta”, dijo en una entrevista antes de que se diera a conocer el lunes un trabajo de investigación suyo sobre la historia y el futuro del hardware destinado a manejar inteligencia artificial.
Intel Corp. y Facebook han dicho antes que trabajan juntas en un nuevo tipo de chip diseñado específicamente para aplicaciones de inteligencia artificial. Intel dijo en enero que planeaba tener listo el nuevo chip para el segundo semestre de este año.
Facebook es parte de una competencia cada vez más acelerada por crear semiconductores mejor adaptados a las formas más prometedoras de aprendizaje de las máquinas. Google, de Alphabet Inc., ha creado un chip llamado Tensor Processing Unit que contribuye a potenciar las aplicaciones de IA en sus datacenters de computación de nube. En 2016, Intel compró la startup Nervana Systems, con sede en San Diego, que trabajaba en un chip específico para IA.
Bloomberg informó en abril que Facebook contrataría un equipo de hardware para crear sus propios chips para una variedad de aplicaciones, entre ellas inteligencia artificial y el manejo del complejo trabajo de los grandes datacenters de la compañía.
LeCun dijo que por el momento los GPU seguirían siendo importantes para la investigación en aprendizaje profundo, pero que los chips no eran adecuados para los algoritmos de IA una vez entrenados, ya fuera en datacenters o en aparatos como teléfonos móviles o asistentes digitales domésticos.
Agregó que los futuros diseños de IA tendrían que manejar la información de manera más eficiente. Al aprender, la mayor parte de las neuronas de un sistema –como el cerebro humano- no necesita que se la active. Pero los chips actuales procesan la información de todas las neuronas de la red a cada paso de una computación, hasta si no se las usa. Eso hace que el proceso sea menos eficiente.
LeCun, que es profesor de informática en la Universidad de Nueva York, es considerado uno de los pioneros de un tipo de técnica de aprendizaje de las máquinas conocida como aprendizaje profundo. El método depende del uso de grandes redes neuronales. Se lo conoce sobre todo por la aplicación de esas técnicas de aprendizaje profundo a las tareas de computación que implican visión, tales como identificar letras y números o etiquetar personas y objetos en imágenes.