Docteur Orùs dans le Multiverse de l’IA

Le rapetisseur de modèles. • Qant, M. de R. avec GPT-4o

La start-up basque Multiverse Computing vient de lever près de 190 millions d’euros pour développer CompactifAI, une technologie de compression des modèles d’IA sans perte de performance inspirée du calcul quantique.

  • Multiverse Computing a annoncé une levée de fonds de 189 millions d’euros en série B pour accélérer le déploiement de sa technologie CompactifAI.
  • CompactifAI permet de réduire jusqu’à 95 % la taille des modèles de langage tout en conservant leur performance.
  • Les versions compressées de modèles open source comme Llama 4 Scout, Llama 3.3 70B, Mistral Small 3.1 ou bientôt DeepSeek R1 sont entre 4 et 12 fois plus rapides,- que les modèles d’origine, avec une réduction des coûts d’inférence de 50 % à 80 %.
  • Ces modèles, appelés "Slim", peuvent ainsi fonctionner sur le cloud, sur site, ou directement sur des PC, téléphones, voitures, drones, voire des Raspberry Pi, selon leur niveau de compression.
  • La société revendique 160 brevets et 100 clients dans le monde, dont Iberdrola, Bosch et la Banque du Canada.
  • Le tour de table inclut Bullhound Capital, HP Tech Ventures, Forgepoint Capital et Toshiba.
  • La méthode, inspirée du calcul quantique, se base sur les réseaux de tenseurs, illustrés dans un article de recherche de l’an dernier.
  • À SURVEILLER : Le marché de l’inférence IA, évalué à 106 milliards de dollars, qui pourrait être bouleversé par une méthode efficace de compression, qui réduit les besoins en matériel et les coûts de déploiement de l’IA, et qui pourrait en conséquence accélérer encore son adoption.

L’essentiel