Et là je parle d'ultime au sens physique du terme, c'est-à-dire qu'il est
_impossible_ d'aller au-delà des nombres exprimés, que ce soit en vitesse
de calcul et de la quantité de données qu'il est possible d'accéder dans
un temps déterminé.
Je suis tombé là-dessus en lisant sur le système de fichier zfs sur
wikipedia:
http://en.wikipedia.org/wiki/Zfs
En gros, basé sur le principe d'incertitude d'Heisenberg, il est possible
de calculer que la limite, pour un ordinateur portable de 1 kg de masse et
de 1 l de volume (environ ce qui existe en ce moment), est de 5,4258 x
10^50 opérations logiques par seconde sur au plus 10^31 bits. Un tel
ordinateur est nommé "l'ordinateur ultime".
Ce faisant, toute la masse de l'ordinateur va être transformée en énergie
( E=mc^2 ).
Mais, ce qui m'a plus jeté à terre, c'est le "rôle de la thermodynamique
dans le calcul" qui dit que:
« une opération logique réversible comme le NOT peut être effectuée sans
dissipation d'énergie mais les opérations irréversibles comme le AND et le
ERASE (ERASE est une opération logique qui donne la valeur de 0 à un bit)
provoque la dissipation d'au moins K*ln(2) joule pour chaque bit
d'information perdu (K est la constante de Boltzmann).
Lorsqu'un bit est effacé, _l'information doit aller quelque part_. Si
cette information va dans un autre bit, elle est simplement déplacée. Si
elle va dans la structure de l'ordinateur, par exemple dans le mouvement
microscopique des molécules, il en résulte une augmentation de l'entropie
(mesure du désordre) d'au moins K*ln(2).
Suite à cette découverte (en 1973), des circuits électroniques basés sur
la logique réversible ont été construits et une diminution notable de
dissipation d'énergie a été noté par rapport aux circuits électroniques
conventionnels. En fin quelque chose de concret!
Si notre ordinateur ultime était sujet à un taux d'erreur dans ses
calculs et qu'il serait en mesure de corriger ces erreurs, il lui faudrait
rejeter ces erreurs dans l'environnement (puisqu'on change la valeur de
bits, cette information doit aller quelque part). Si on suppose que cette
énergie est rejetée dans l'environnement sous forme de rayonnement (corps
noir) et que la température de ce rayonnement est celle d'une mémoire
conventionnelle (5.87 x 10^8 Kelvins), notre ordinateur ne pourrait,
compte tenu de sa surface, rejeter plus 10^40 bits d'erreurs/seconde.
Comme notre ordinateur ultime fait 10^50 opérations/seconde, il faudrait
un taux d'erreur inférieur 10^-10 (0.0000000001) pour chaque opération
si on veut éviter qu'il surchauffe... C'est près de la perfection ça
monsieur.
Morale de l'histoire, on n'efface pas de l'information impunément, elle va
toujours quelque part.
Fait que si vous êtes du genre à oublier beaucoup de choses, il va faire
plus chaud dans la pièce où vous êtes!
Miguel
Source: Seth Lloyd, "Ultimate physical limits to computation." Nature 406,
1047-1054 (2000)