Les frontières de l'informatique : Les technologies et les défis qui façonnent notre avenir
Alors que l'intelligence artificielle transforme des industries et que la demande mondiale en données explose, les technologies informatiques fondamentales et les semi-conducteurs de nouvelle génération passent de la théorie à la pratique. Cependant, l'innovation s'accompagne de frictions. Les fondateurs, chercheurs et investisseurs doivent maintenant faire face aux défis scientifiques, commerciaux et éthiques qui définiront cette nouvelle ère du "computing".

De nouvelles technologies d'infrastructure et de matériel émergent, mais des questions subsistent sur l'efficacité de leurs usages et leur évolution à long terme. Qu'il s'agisse d'informatique quantique, neuromorphique ou photonique, cet article examine les tendances et obstacles clés explorés lors de la session Creative Destruction Lab (CDL) Next Gen Computing à Heilbronn (Allemagne). Sur place, les plus grands esprits européens se sont retrouvés pour échanger autour des avancées, mais aussi des freins, qui dessinent les contours des technologies de pointe.
Les technologies de pointe
Bien que l'informatique quantique attire beaucoup l'attention, elle n'est pas la seule technologie à façonner l'avenir de l'informatique. Elle ouvre pourtant de grandes perspectives : simuler des molécules complexes, résoudre des problèmes d’optimisation jusque-là hors de portée, ou encore sécuriser les communications à un niveau inégalé. Des promesses qui, si elles se concrétisent, redéfiniront ce que nous pensions possible.
Mais construire des systèmes quantiques fiables reste l’un des défis les plus coriaces du secteur. Comme l’a souligné le Professeur Achim Kempf, titulaire de la Chaire de recherche du Canada en physique de l’innovation à l’Université de Waterloo :
« Nous réalisons que nous ne construirons pas un processeur unique avec 100 000 qubits. L'avenir de l'informatique quantique sera modulaire. Nous créerons de petites unités quantiques fiables, chacune dotée d'environ 100 qubits, que nous relierons via des réseaux quantiques. »
Cette approche modulaire, semblable à l'informatique distribuée, pourrait offrir une voie plus réalisable. Cependant, le contrôle des qubits et la réduction des taux d'erreur demeurent des obstacles scientifiques majeurs.
Alors que l'informatique quantique vise à repousser les limites de la puissance, l'informatique neuromorphique se concentre sur l'efficacité. En imitant l'architecture du cerveau—neurones impulsionnels, voies parallèles, réponses adaptatives—les puces neuromorphiques offrent un traitement en temps réel à très faible consommation d'énergie, particulièrement utile en périphérie.
Cette approche est prometteuse pour les systèmes autonomes comme les satellites, drones et technologies de défense, où les contraintes d'énergie et de taille rendent le matériel d'IA conventionnel non viable. « L'informatique neuromorphique concerne vraiment l'efficacité énergétique », a déclaré Florian Corgnou, co-fondateur de Neurobus, une entreprise du programme CDL-Paris, « c'est essentiel pour activer la prochaine génération de systèmes autonomes. »
Dans un monde où les modèles d'IA nécessitent de plus en plus d'énergie et de puissance de calcul, les systèmes neuromorphiques pourraient aider à décentraliser l'intelligence en traitant les données localement, au lieu de s'appuyer sur des centres de données cloud, gourmand en énergie.
L'informatique photonique, qui utilise des photons au lieu d'électrons pour traiter l'information, propose un changement radical. Contrairement aux puces traditionnelles, les processeurs photoniques peuvent transmettre des données à la vitesse de la lumière avec une perte minimale de chaleur et d'énergie.
C’est particulièrement prometteur pour les charges de travail en IA et en data à grande échelle, où la rapidité et l'efficacité thermique font toute la différence. Toutefois, intégrer des composants photoniques dans l'infrastructure existante à base de silicium reste un défi d'ingénierie complexe.
Bien que moins mature que les solutions quantiques ou neuromorphiques, l'informatique photonique gagne l'attention en tant que couche complémentaire dans les futurs systèmes hybrides de calcul.
Semi-conducteurs de nouvelle génération et convergence logiciel-matériel
Des puces spécialisées telles que les GPU et TPU aux processeurs d'IA en périphérie et ASIC sur mesure, nous entrons dans une ère de co-conception matériel-logiciel. Les systèmes sont conçus dès le départ pour soutenir des types spécifiques d'intelligence. Derrière chaque avancée en IA se pose la question suivante : Quel matériel la soutient ?
Comme l'a dit Alan Lau, cofondateur de Two Small Fish Ventures :
« L'IA existe depuis des décennies, mais la convergence que nous observons aujourd'hui entre le matériel et les logiciels est relativement récente. L'informatique de pointe, la robotique, l'IA générative... exigent toutes un type différent de pile matérielle. Il y a encore beaucoup de choses à comprendre »
Cette convergence est motivée par un changement des charges de travail de l'IA, passant des centres de données cloud aux environnements en périphérie. Elle répond au besoin de systèmes flexibles, à faible latence et haute performance, capables d'exécuter l'IA au plus près de la génération des données.
En bref, la frontière informatique n'est plus définie par une seule technologie, mais par un ensemble interconnecté d'innovations qui, ensemble, forment l'épine dorsale de la prochaine ère numérique.
Les défis à venir
Les technologies qui façonnent l'avenir de l'informatique ne sont pas seulement à la pointe du progrès : elles sont complexes, à forte intensité de capital et souvent à des années de l'adoption par le grand public. Si le potentiel est énorme, le chemin vers l'impact réel est parsemé de défis importants qu'il convient de reconnaître et de relever.
Lors de la session « Next Gen Computing » du Creative Destruction Lab (CDL), des mentors et des fondateurs ont parlé sans langue de bois des obstacles auxquels sont confrontés les entrepreneurs de la deep tech. Voici cinq des défis majeurs auxquels sont confrontées des technologies comme l'informatique quantique, neuromorphique et photonique :
- Maturité scientifique et préparation technique
- Infrastructure et coût
- Lacunes en matière de commercialisation
- Considérations stratégiques et éthiques
- Capital humain
Maturité scientifique et préparation technique : De nombreuses innovations sont encore au stade du laboratoire. Qu'il s'agisse de prototypes neuromorphiques ou de modules quantiques à un stade précoce, ces technologies nécessitent des années de R&D avant de pouvoir être déployées. Florian Corgnou, fondateur de Neurobus, se trouve exactement à ce stade : « Nous devons nous assurer que ces technologies apportent suffisamment de valeur et de maturité pour être compétitives sur le marché. »
Infrastructure et coût : Ce point met en évidence l'un des principaux obstacles auxquels se heurtent les technologies dites "deep tech" : elles sont coûteuses, en particulier en ce qui concerne le matériel. Les startups dans les domaines du quantique, de la photonique et des semi-conducteurs doivent souvent construire ou accéder à des installations de fabrication et de test spécialisées qui peuvent coûter des millions. Comme l'a souligné Oliver Kahl, directeur chez MIG Capital :
« Certaines technologies n'ont même pas encore d'infrastructure... Il est difficile de construire ce qui n'existe pas. »
Lacunes en matière de commercialisation : il faut ajouter à cela le paysage géopolitique et les différents climats d'investissement entre les régions. Si l'Europe est à la pointe de la recherche scientifique, elle reste à la traîne lorsqu'il s'agit de la convertir en entreprises "scalable" (capables de se développer très vite). Les fondateurs de la deep tech se heurtent souvent au scepticisme des investisseurs en raison de la longueur des délais de développement et de l'incertitude des modèles commerciaux, et reçoivent moins de fonds que leurs homologues américains et chinois.
Considérations stratégiques et éthiques : Dans le même temps, les entreprises doivent apprendre à naviguer dans la réglementation et à créer avec responsabilité. À cet égard, Ekaterina Almasque, partenaire général d'OpenOcean et mentor du CDL, a souligné : « Nous voulons une innovation qui ne se contente pas de se développer rapidement, mais qui soutienne la société et s'aligne sur nos valeurs. »
Le capital humain : Enfin, un défi universel demeure : le talent. L'Europe produit des ingénieurs et des chercheurs exceptionnels, mais les perd souvent au profit d'autres pays, en particulier les États-Unis, dans le cadre d'une fuite persistante des cerveaux. Cette perte de talents compromet la compétitivité à long terme de l'Europe dans le domaine des technologies de nouvelle génération. Grâce à l'évolution de la politique internationale et à l'augmentation des investissements, il sera essentiel de combler le déficit de capital humain pour répondre à la demande croissante d'expertise spécialisée dans ces domaines.