Comment s’appelle la la loi qui dit que les ordinateurs doublent leur puissance chaque année ?

36
Partager :

Pourquoi les ordinateurs modernes sont-ils tellement meilleurs que les anciens ? Une explication est liée au nombre considérable de progrès réalisés dans le domaine de la puissance de microtraitement au cours des dernières décennies. Environ tous les 18 mois, le nombre de transistors pouvant être pressés sur un circuit intégré double.

Cette tendance a été observée pour la première fois en 1965 par le cofondateur d’Intel, Gordon Moore, et est communément appelée « loi de Moore ». Les résultats ont propulsé la technologie vers l’avant et l’ont transformée en une industrie de mille milliards de dollars, dans laquelle des puces incroyablement puissantes peuvent être trouvées dans tout, des ordinateurs domestiques aux voitures autonomes en passant par les appareils ménagers intelligents.

Lire également : Quels critères prendre en compte pour choisir son hébergement web?

Mais la loi de Moore ne pourra peut-être pas continuer indéfiniment. Le secteur de la haute technologie pourrait adorer parler de croissance exponentielle et de « fin de rareté » pilotée par le numérique, mais il existe des limites physiques à la capacité de réduire continuellement la taille des composants d’une puce.

Qu’est-ce que La loi de Moore ?

Moore’s Law est une observation faite par le cofondateur d’Intel, Gordon Moore, en 1965. Il indique qu’environ tous les 18 mois, le nombre de transistors pouvant être compressés sur un circuit intégré double. »

A lire également : Oracle propose des formations et certifications gratuites pour Oracle Cloud Infrastructure

Les milliards de transistors des dernières puces sont déjà invisibles à l’œil humain. Si la loi de Moore devait se poursuivre jusqu’en 2050, les ingénieurs devront construire des transistors à partir de composants plus petits qu’un atome d’hydrogène. Il est également de plus en plus coûteux pour les entreprises de suivre le rythme. La construction d’usines de fabrication de nouvelles puces coûte des milliards de dollars.

En raison de ces facteurs, de nombreuses personnes prédisent que la loi de Moore va s’effondrer au début des années 2020, lorsque les puces comportent des composants distants d’environ 5 nanomètres. Que se passe-t-il après ça ? Le progrès technologique s’arrête-t-il, comme si nous étions coincés aujourd’hui à utiliser le même PC Windows 95 que nous possédons il y a quelques décennies ?

Pas vraiment. Voici sept raisons pour lesquelles la fin de la loi de Moore ne signifiera pas la fin du progrès informatique tel que nous le connaissons.

La loi de Moore ne finira pas « comme ça »

Imaginez le désastre qui nous arriverait si, demain, la loi de la thermodynamique ou les trois lois du mouvement de Newton cessaient de fonctionner. La loi de Moore, malgré son nom, n’est pas une loi universelle de ce genre. Au lieu de cela, c’est une tendance observable comme le fait que Michael Bay a tendance à sortir un nouveau film Transformers cet été – sauf, vous savez, bon.

Deux puces Intel 8080 des années 1970 (en haut à gauche), les puces Intel 486 et Pentium de 1989 et 1992 (en haut à droite), le processeur double cœur Xeon 5100 de 2006 et la 8e génération i7 à partir de 2017. Pourquoi évoquons-nous cela ? Parce que la loi de Moore ne va pas se terminer comme quelqu’un qui éteint la gravité. Ce n’est pas parce que nous n’avons plus un doublement de transistors sur une puce tous les 18 mois signifie que les progrès s’arrêteront complètement. Cela signifie simplement que la vitesse des améliorations sera un peu plus lente.

Imaginez-le comme de l’huile. Nous avons mis en surface les éléments faciles à atteindre, maintenant nous devons utiliser des technologies telles que la fracturation hydraulique pour accéder aux ressources les plus difficiles à obtenir.

Algorithmes et logiciels améliorés

Pensez à ces stars de la NFL ou de la NBA qui gagnent tellement d’argent qu’elles n’ont pas à s’inquiéter de faire durer plus longtemps leurs économies existantes. C’est une métaphore un peu compliquée, mais toujours pertinente, de la relation entre la loi de Moore et le logiciel.

Extraire davantage de performances des mêmes puces deviendra une priorité beaucoup plus élevée.

Bien qu’il existe des logiciels magnifiquement codés, la plupart du temps, les programmeurs n’ont pas eu à trop se soucier de rationaliser leur code pour le rendre moins lent année après année, car ils savent que les processeurs informatiques de l’année prochaine seront en mesure de mieux l’exécuter. Si Moore Le droit ne fait plus les mêmes progrès, mais cette approche ne peut plus être invoquée.

Extraire davantage de performances logicielles des mêmes puces deviendra donc une priorité beaucoup plus élevée. Pour plus de rapidité et d’efficacité, cela signifie créer de meilleurs algorithmes. Au-delà de la vitesse, nous espérons que cela signifiera un logiciel plus élégant avec une grande attention portée à l’expérience utilisateur, à l’apparence et à la qualité.

Même si la loi de Moore devait prendre fin demain, l’optimisation des logiciels actuels offrirait tout de même des années, voire des décennies, de croissance, même sans améliorations matérielles.

Des puces plus spécialisées

Cela dit, l’un des moyens pour les concepteurs de puces de surmonter le ralentissement des progrès des puces à usage général consiste à créer des processeurs toujours plus spécialisés. Les processeurs graphiques (GPU) ne sont qu’un exemple parmi d’autres. Des processeurs spécialisés personnalisés peuvent également être utilisés pour les réseaux de neurones, la vision par ordinateur pour les voitures autonomes, la reconnaissance vocale et l’Internet des Appareils Things.

Alors que la loi de Moore ralentit, attendez-vous à voir les fabricants de puces augmenter la production de puces plus spécialisées. Les GPU, par exemple, sont déjà un moteur de la vision par ordinateur dans les voitures autonomes et les réseaux véhiculés vers les infrastructures. Au fur et à mesure que la loi de Moore ralentit, les fabricants de puces vont accélérer la production de puces spécialisées. Les GPU, par exemple, sont déjà un moteur de la vision par ordinateur dans les voitures autonomes et les réseaux de véhicules à infrastructure. Ces conceptions spéciales peuvent se targuer d’une série d’améliorations, telles que des niveaux de performances par watt plus élevés. Parmi les entreprises qui s’engagent dans ce mouvement personnalisé, citons Intel, Google, Wave Computing, Nvidia, IBM, etc.

Tout comme une meilleure programmation, le ralentissement des progrès de la fabrication oblige les concepteurs de puces à être plus réfléchis lorsqu’il s’agit de rêver de nouvelles percées architecturales.

Il ne s’agit plus seulement des jetons

La loi de Moore est née au milieu des années 1960, un quart de siècle avant que l’informaticien Tim Berners-Lee n’invente le World Wide Web. Bien que la théorie se soit maintenue depuis lors, il est également moins nécessaire de s’appuyer sur un traitement localisé à l’ère des appareils connectés. Bien sûr, de nombreuses fonctions de votre PC, tablette ou smartphone sont traitées sur l’appareil lui-même, mais un nombre croissant de fonctions ne le sont pas.

Avec le Cloud Computing, une grande partie du travail peut être effectuée ailleurs.

L’informatique en nuage signifie qu’une grande partie des lourdes tâches liées aux gros problèmes de calcul peuvent être effectuées ailleurs dans de grands centres de données, à l’aide de systèmes massivement parallèles qui utilisent plusieurs fois plus de transistors dans un seul ordinateur ordinaire. C’est particulièrement vrai pour les tâches intensives en IA, telles que les assistants intelligents que nous utilisons sur nos appareils.

En effectuant ce traitement ailleurs, et en remettant la réponse à votre machine locale au moment du calcul, les machines peuvent devenir plus intelligentes de manière exponentielle sans avoir à changent de processeur tous les 18 mois environ.

Nouveaux matériaux et configurations

La Silicon Valley a mérité son nom pour une bonne raison, mais les chercheurs s’affairent à étudier de futures puces qui pourraient être faites de matériaux autres que le silicium.

Par exemple, Intel effectue un travail incroyable avec des transistors qui sont construits selon un motif 3D ascendant au lieu d’être posés à plat pour expérimenter différentes façons d’empiler des transistors sur une carte de circuit imprimé. D’autres matériaux, tels que ceux basés sur des éléments des troisième et cinquième colonnes du tableau périodique, pourraient prendre le relais du silicium car ils sont de meilleurs conducteurs.

À l’ heure actuelle, il n’est pas clair si ces substances seront évolutives ou abordables, mais compte tenu de l’expertise combinée des meilleurs de l’industrie technologique — et de l’incitation qui l’accompagnera — le prochain matériau semi-conducteur pourrait être en attente.

Informatique quantique

L’ informatique quantique est probablement la idée la plus « là-bas » de cette liste. C’est aussi la deuxième plus excitante. Les ordinateurs quantiques sont, à l’heure actuelle, une technologie expérimentale et très coûteuse. Il s’agit d’un animal différent des ordinateurs électroniques numériques binaires que nous connaissons, qui sont basés sur des transistors.

IBM Research Recherche IBM Au lieu de coder les données en bits qui sont soit 0, soit 1, l’informatique quantique traite les bits quantiques, qui peuvent être 0, 1 et à la fois 0 et 1 en même temps. Bref, une longue histoire ? Ces superpositions pourraient rendre les ordinateurs quantiques beaucoup plus rapides et plus efficaces que les ordinateurs traditionnels actuels.

La fabrication d’ordinateurs quantiques comporte de nombreux défis (il faut les garder incroyablement froids pour une chose). Cependant, si les ingénieurs parvenaient à résoudre ce problème, nous pourrions peut-être déclencher d’énormes progrès à un rythme si rapide qu’il ferait tourner la tête de Gordon Moore.

Des choses que nous ne pouvons pas encore penser

Très peu de gens auraient prédit le retour des smartphones dans les années 1980. L’idée que Google devienne le géant qu’il est ou qu’un site de commerce électronique comme Amazon soit sur la bonne voie pour devenir la première entreprise de 1 000 milliards de dollars aurait semblé folle au début des années 1990.

Le fait est que, lorsqu’il s’agit de l’avenir de l’informatique, nous n’allons pas prétendre savoir exactement ce qui nous attend. Oui, à l’heure actuelle, l’informatique quantique ressemble au grand espoir de l’informatique à long terme après la loi de Moore, mais il y a de fortes chances que dans quelques décennies, les ordinateurs soient complètement différents de ceux que nous utilisons aujourd’hui.

Qu’il s’agisse de nouvelles configurations de machines, de puces fabriquées à partir de matériaux entièrement nouveaux ou de nouveaux types de recherche subatomique qui ouvrent de nouvelles façons d’emballer les transistors sur les puces, nous pensons que l’avenir de l’informatique — avec toute l’ingéniosité qu’il implique — sera parfait.

Partager :

2 commentaires

LAISSER UNE RÉPONSE