Sommaire
Révolution dans le calcul : la puce EN100 arrive
La startup EnCharge AI, fondée par des chercheurs de l’Université de Princeton, vient de lever le voile sur sa dernière innovation : la puce EN100. Conçue pour transformer les capacités de calcul des ordinateurs personnels, cette puce offre une puissance de 200 TOPS (mille milliards d’opérations). Que vous soyez un développeur, un chercheur ou simplement passionné par l’intelligence artificielle, cette annonce va vous intéresser.
Des performances surprenantes pour un faible impact énergétique
La puce EN100 est proposée sous deux formats : une barrette M.2 de 32 Go qui s’intègre facilement dans les PC portables et une carte PCIe dotée de quatre EN100 et 128 Go de mémoire. Mais ce qui rend cette technologie réellement fascinante, c’est sa consommation énergétique. Avec seulement 8,25 watts pour la barrette M.2 et 40 watts pour la version PCIe, EnCharge AI se positionne comme un leader sur ce créneau, loin devant ses concurrents.
À titre de comparaison, l’accélérateur à base de Cloud AI 100 de Qualcomm, qui fonctionne sur une architecture similaire, consomme 75 watts pour une barrette de même capacité et 150 watts pour la version PCIe. Un écart significatif qui pourrait largement changer la donne dans le monde des accélérateurs AI pour PC.
Un design novateur : l’Analog in-memory
La réussite de l’EN100 repose en partie sur son design innovant. EnCharge AI adopte la stratégie de l‘Analog in-memory, qui fait correspondre les poids des matrices de données à des résistances électriques sur le circuit. Bien que cette approche ne soit pas totalement nouvelle, son application au domaine des LLM (Large Language Models) marque un tournant intéressant. Les chercheurs indiquent que ce design est principalement pensé pour l’entraînement des LLM, mais EnCharge AI souhaite l’adapter à leur utilisation dans divers contextes.
Des limitations à considérer
Cependant, il existe des limitations notables. Actuellement, l’EN100 ne peut accélérer que des LLM spécifiquement entraînés pour fonctionner sur son circuit. Pour ceux qui espèrent exploiter ces avancées, EnCharge AI propose des logiciels pour former leurs propres modèles. Toutefois, cette tâche exigeant des ressources importantes pourrait s’avérer complexe, généralement réservée aux clusters de GPU dans les datacenters. Un espoir demeure : que des LLM compatibles apparaissent sur des plateformes comme HuggingFace.
La bataille de la performance
Dans un jeu de comparaison, il semblerait que les versions barrette de l’EN100 ne tiennent pas la confrontation face à celles de Qualcomm. La bande passante mémoire pour la barrette d’EnCharge AI est de 68 Go/s, tandis que Qualcomm affiche 137 Go/s. Cependant, ce constat s’inverse avec la version PCIe. Grâce à sa gestion efficace de l’énergie, l’EN100 permettrait à sa carte PCIe d’atteindre une puissance de calcul d’environ 1000 TOPS ! Cela oppose les performances globales de Qualcomm, qui ne dépasse que 870 TOPS en raison d’une réduction nécessaire de fréquence pour ne pas dépasser les 150 watts.
Faisons le point
La puce EN100 d’EnCharge AI annonce une nouvelle ère pour les ordinateurs personnels et l’intelligence artificielle. Bien que des défis subsistent, notamment en termes d’entraînement de modèles spécifiques, la promesse d’une puissance de calcul impressionnante à une consommation énergétique réduite pourrait redéfinir le paysage concurrentiel.
Avec ces avancées, EnCharge AI démontre qu’il est possible d’innover tout en respectant l’environnement. Reste à voir comment cette technologie sera accueillie par la communauté des développeurs et si des solutions spécifiques émergeront. Une chose est sûre, le futur de l’intelligence artificielle s’annonce captivant.