Saltar al contenido

Google aprovecha la IA para desarrollar aceleradores de hardware más rápidos y pequeños

Los investigadores de Google y los académicos de la Universidad de Berkeley afirmaron haber ideado una forma de utilizar la Inteligencia Artificial para diseñar chips más rápidos y pequeños que aceleren la Inteligencia Artificial (IA).

En una nota publicada el jueves, los investigadores afirmaron que han desarrollado un método de aprendizaje profundo denominado PRIME, que genera arquitecturas de chips de inteligencia artificial a partir de planos existentes y cifras de rendimiento. Afirman que su enfoque puede producir diseños que tienen menor latencia y requieren menos espacio que el acelerador EdgeTPU de Google y otros diseños realizados con herramientas tradicionales.

Además de permitir diseños más rápidos y eficientes, el método PRIME es importante porque el diseño tradicional de chips basado en la simulación puede ser lento y costoso desde el punto de vista informático, según los investigadores. Además, el diseño de chips mediante software de simulación puede dar lugar a planos «inviables» cuando se trata de optimizar ciertos aspectos, como el bajo consumo de energía o la baja latencia.

Google Cloud TPU 3.0
Google Cloud TPU 3.0

El equipo afirmó que los diseños de chips realizados a la manera de PRIME tenían hasta un 50 por ciento menos de latencia que los creados con métodos basados en la simulación, y el enfoque de aprendizaje profundo también redujo la cantidad de tiempo para generar dichos planos en hasta en un 99 por ciento.

Los investigadores compararon…

Autor original:Para leer el artículo completo en una nueva ventana, haz click aquí