Informatique: comprendre la loi de Moore

La législation de Moore, prévision faite par l’ingénieur américain Gordon Moore en 1965 selon laquelle la quantité de transistors pour chaque entaille de silicium augmente chaque année. Pour un numéro unique du journal électronique, Moore a été invité à prédire les développements sur les dix prochaines années. Constatant que le nombre total de composants dans ces circuits a connu à peu près plus que doublé chaque année, il a allègrement extrapolé ce doublement annuel à dix ans supplémentaires, estimant que les microcircuits de 1975 contiendraient un étonnant 65 000 éléments par entaille. En 1975, alors que le prix de la croissance commençait à ralentir, Moore a modifié sa période à 2 ans. Sa loi révisée était un peu pessimiste; sur environ un demi-siècle à partir de 1961, le nombre de transistors a plus que doublé environ tous les dix-huit mois. Par la suite, les publications décrivaient fréquemment la législation de Moore comme si elle était inexorable – une loi technologique utilisant la garantie des lois du mouvement de Newton. Ce qui a créé cette explosion dramatique dans la complexité des circuits, seo c’est la réduction continue de la taille des transistors au fil des ans. Calculée en millimètres dans les années 1940 retardées, la taille d’un transistor typique au début des années 2010 était plus couramment indiquée en dizaines de nanomètres (un nanomètre étant un milliardième de mètre) – un aspect de réduction de plus de 100000. Les fonctions de transistor mesurant moins d’un micron (un micromètre, un millionième de tapis roulant du mètre) ont été réalisées dans les années 1980, lorsque les puces de mémoire à accès unique dynamique (DRAM) ont commencé à offrir des capacités d’espace de stockage de mégaoctets. À l’aube du 21e siècle, ces fonctionnalités géraient 0,1 micron, ce qui permettait la création de puces mémoire et de microprocesseurs de gigaoctets fonctionnant à des fréquences gigahertz. La loi de Moore s’est poursuivie jusqu’à la deuxième décennie du XXIe siècle avec le développement de transistors tridimensionnels qui mesuraient des dizaines de nanomètres. Mémoire RAM, souvenir entièrement à accès aléatoire, souvenir principal de l’ordinateur personnel où des éléments particuliers peuvent être atteints (lus ou composés) directement depuis le CPU en très peu de temps quelle que soit la série (et donc la zone) dans laquelle ils ont été documentés. Deux types de souvenirs sont possibles avec des circuits à accès unique, une RAM fixe (SRAM) et une RAM puissante (DRAM). Un seul nick de mémoire est composé d’un certain nombre de millions de matériaux cellulaires de souvenir. À l’intérieur d’une puce SRAM, chaque cellule de mémoire stocke un chiffre binaire (1 ou) tant que l’énergie arrive. Dans une puce DRAM, la demande en matière cellulaire de recollection individuelle doit être renouvelée occasionnellement pour pouvoir conserver les données. Parce qu’elle a moins de composants, la DRAM exige beaucoup moins de région de nick que la SRAM; par conséquent, un pseudo DRAM peut contenir beaucoup plus de souvenirs, bien que son temps d’accessibilité soit plus lent. Cette législation a permis aux systèmes informatiques de devenir encore plus efficaces, jusqu’à présent, dans lesquels nous valorisons pleinement la capacité des ordinateurs dans notre travail, comme l’optimisation des moteurs de recherche, la programmation et la conception Web.