Temps de lecture : 4 min
Points clés à retenir
- Financement : Eridu a levé 200 M$ pour développer un hyperswitch Ethernet propriétaire destiné aux infrastructures IA, visant directement les géants du secteur.
- Architecture : La start-up mise sur un ASIC propriétaire et un packaging avancé pour atteindre un radix très élevé, promettant de connecter des milliers de GPU en un seul saut.
- Défi : L’entreprise affirme que les réseaux actuels ne suivent pas le rythme des besoins en calcul de l’IA, créant un goulet d’étranglement qu’elle entend résoudre par une refonte complète.
Eridu entre dans l’arène des réseaux IA avec 200 M$
En pratique, le marché des réseaux pour l’intelligence artificielle est en pleine ébullition. En mars 2026, la start-up Eridu en est la dernière preuve, avec une levée de fonds de 200 millions de dollars. Son objectif ? Développer un hyperswitch Ethernet sur mesure pour les datacenters IA, un secteur où la concurrence est déjà féroce avec des acteurs comme Nvidia, Broadcom ou Cisco.
Ce qui fait vraiment la différence ici, c’est l’ambition affichée. Fondée en 2023 par Drew Perkins, un vétéran du secteur réseau, Eridu ne souhaite pas simplement améliorer l’existant. L’entreprise part d’une feuille blanche pour repenser l’architecture réseau, estimant que les solutions actuelles, conçues pour le cloud, sont inadaptées aux exigences massives de parallélisme des charges de travail IA.
Pourquoi les réseaux IA sont un cas à part
Soyons clairs : un datacenter cloud traditionnel et un cluster dédié à l’entraînement d’IA n’ont pas les mêmes besoins. Je l’observe depuis des années dans l’analyse d’infrastructures. Le premier gère des dizaines de milliers de serveurs avec une bande passante importante. Le second orchestre des millions de GPU ou XPU qui doivent échanger des données en permanence, avec une latence extrêmement faible et un débit colossal.
Drew Perkins le résume bien : le réseau n’a pas suivi l’évolution exponentielle de la puissance de calcul. Pendant que celle-ci explosait, les améliorations réseau sont restées linéaires. Cet écart, selon Eridu, est devenu le principal goulot d’étranglement pour l’IA à grande échelle. En pratique, des techniques comme les modèles mixtes d’experts (MoE) ne font qu’aggraver le problème en nécessitant des transferts de données encore plus massifs.
Le cœur de l’innovation : l’ASIC propriétaire et le radix élevé
Là où Eridu veut marquer des points, c’est sur l’architecture matérielle. L’entreprise développe son propre ASIC réseau, fabriqué en partenariat avec TSMC, en utilisant des technologies de packaging avancé et une approche par chiplets. Pourquoi une puce propriétaire ? Parce que, selon eux, il est impossible d’atteindre une amélioration d’un ordre de grandeur avec des composants disponibles sur étagère.
Ce qui fait vraiment la différence, c’est le concept de radix élevé. En simplifiant, le radix d’un switch correspond au nombre de ports qu’il possède. Plus il est élevé, plus le switch peut connecter d’unités de calcul directement, sans passer par des équipements intermédiaires. Les switches actuels plafonnent à quelques centaines de ports. Eridu vise, avec son HyperSwitch, un radix permettant de connecter 5 120 GPU en un seul saut réseau (single-hop).
- Réduction de la latence : Élimination des niveaux « leaf/spine » intermédiaires qui ralentissent les données.
- Simplification architecturale : Moins de switches nécessaires, ce qui réduit la complexité et les coûts.
- Efficacité énergétique : Une infrastructure réseau moins gourmande en énergie.
Une approche risquée face à une concurrence établie
En tant qu’expert, je dois souligner le défi colossal. Eridu s’attaque à un marché dominé par des géants aux ressources quasi illimitées. Leur pari repose entièrement sur la supériorité technique de leur ASIC et sur leur capacité à exécuter leur feuille de route. Ils restent encore très discrets sur les spécifications exactes et les premiers benchmarks, ce qui est normal pour une start-up en phase de R&D avancée, mais qui maintient un certain flou.
Leur autre atout annoncé est le support natif des protocoles memory fabric (comme UALink ou NVLink) directement sur l’Ethernet, unifiants ainsi les réseaux scale-up et scale-out. Si cela fonctionne comme promis, cela résoudrait un casse-tête d’intégration pour les opérateurs de datacenters.
Verdict et perspectives pour 2026
En pratique, Eridu incarne une tendance forte : la spécialisation matérielle pour l’IA. Leur levée de fonds massive montre que des investisseurs prestigieux croient à la nécessité d’une rupture dans l’architecture réseau. Cependant, entre la promesse et le produit déployé chez un hyperscaler, le chemin est semé d’embûches techniques et commerciales.
Ce qui fait vraiment la différence se jouera sur le terrain. Les annonces de partenariats et les spécifications techniques détaillées, promises pour fin 2026, seront déterminantes. Si Eridu parvient à démontrer des gains de performance et d’efficacité significatifs, elle pourrait s’imposer comme un fournisseur de niche indispensable pour les infrastructures IA les plus exigeantes. Dans le cas contraire, elle rejoindra le cimetière des belles idées technologiques qui n’ont pas su percer un marché verrouillé. À suivre de près.

Expert SaaS & Productivité
Expert en outils digitaux et productivité depuis plus de 12 ans, ancien chef de produit dans l’univers SaaS, j’analyse et teste des dizaines de solutions chaque année.
Mon approche ? Une analyse comparative rigoureuse avec transparence totale sur les forces ET les limites de chaque outil.
Objectif : vous aider à faire les bons choix technologiques pour votre activité.
Expertises : Analyse SaaS • Outils de productivité • CRM & Marketing automation • Comparatifs produits • Tests terrain
