Ce qui à rendu possible ce qu’on nomme couramment la seconde révolution informatique, que d’autres appellent la quatrième révolution industrielle, ce sont les nanoT. Sous ce mot se cachent l’ensemble des développements issus de la miniaturisation à l’échelle atomique de tout ce que l’homme sait faire. Les nanoT ont été un nouvel Eldorado pour les industriels, notamment dans le domaine de l’informatique.
Les nanoT ont permit à la loi de Moore de rester vraie (loi qui dit que les capacités des ordinateurs doublent tous les 18 mois), alors la miniaturisation pré-nanoT arrivait ses limites. Si on continuait à réduire la finesse des circuits électroniques des micro-processeurs, on voyait apparaître un grand nombre d’erreurs dans le traitement des informations. En effet, à des tailles inférieures de 70 à 80 nanomètres, les électrons sautaient d’eux-mêmes d’un circuit à un autre… D’où ces erreurs. Autre problème à laquelle l'humanité se heurtait à cette époque : il avait fallu une dizaine d’années, entre 1985 et 1996, pour générer un volume d’informations équivalent à l’ensemble de l’histoire de l’Humanité. Et les choses ne cessaient de s’accélérer. Pour ne rien perdre de notre histoire, devions-nous envisager des villes de disques durs ?
Chacune de ses limitations, et bien d'autres dans d'autres domaines, trouvèrent une solution dans les NanoT. L’ordinateur nanoT se mit à travailler à la vitesse de la lumière, les informations électron par électron. Il se réduisit au seul écran… Ainsi, tenons-nous aujourd’hui, au creux de la main, l’Encyclopedia Universalis, La Britannica, la bibliothèque du Congrès et celle du Vatican et le musée du Louvre dans des mémoires nanoT de la taille d’un dé à coudre… Prochaine étape, l’homme amélioré avec son ordinateur sera dans la tête ?
Les nanoT ont permit à la loi de Moore de rester vraie (loi qui dit que les capacités des ordinateurs doublent tous les 18 mois), alors la miniaturisation pré-nanoT arrivait ses limites. Si on continuait à réduire la finesse des circuits électroniques des micro-processeurs, on voyait apparaître un grand nombre d’erreurs dans le traitement des informations. En effet, à des tailles inférieures de 70 à 80 nanomètres, les électrons sautaient d’eux-mêmes d’un circuit à un autre… D’où ces erreurs. Autre problème à laquelle l'humanité se heurtait à cette époque : il avait fallu une dizaine d’années, entre 1985 et 1996, pour générer un volume d’informations équivalent à l’ensemble de l’histoire de l’Humanité. Et les choses ne cessaient de s’accélérer. Pour ne rien perdre de notre histoire, devions-nous envisager des villes de disques durs ?
Chacune de ses limitations, et bien d'autres dans d'autres domaines, trouvèrent une solution dans les NanoT. L’ordinateur nanoT se mit à travailler à la vitesse de la lumière, les informations électron par électron. Il se réduisit au seul écran… Ainsi, tenons-nous aujourd’hui, au creux de la main, l’Encyclopedia Universalis, La Britannica, la bibliothèque du Congrès et celle du Vatican et le musée du Louvre dans des mémoires nanoT de la taille d’un dé à coudre… Prochaine étape, l’homme amélioré avec son ordinateur sera dans la tête ?
0 commentaires:
Enregistrer un commentaire