<
http://www.wired.com/magazine/2010/02/ff_algorithm/all/1> Je trouve le
sujet intéressant, mais l'article douteux:
On utilise un enfant malade pour présenté le sujet.
On dit beaucoup que c'est révolutionnaire sans dire exactement comment c'est
fait (à l'exception de la figure) et où sont vraiment les gains.
Voici les question que je n'ai pas pu répondre en lisant l'article:
1) En terme de compression d'image, est-ce vraiment un gros gain d'éliminer
un pixel sur 10? La compression d'image traditionnelle "élimine" la
redondance dans les images pour obtenir des taux de compression s'avoisinant
à 10:1. Si on élimine cette redondance par un autre moyen, ca revient au
même.
2) Maintenant, pour éliminer un pixel sur 10 sans perte... Peut-on vraiment
les éliminer de façon aléatoire, ou il faut analyser ceux qu'il est plus
judicieux d'éliminer. Dans le deuxième cas, je voit mal comment applique
leur algorithme de reconstruction à une acquisition médicale, sans d'abord
acquérir tout les pixels....
Pour trouver réponse à mes questions je vais commencer ma lecture ICI:
http://dsp.rice.edu/cs
Entre autre au tout début de:
http://www-stat.stanford.edu/~candes/papers/CompressiveSampling.pdf
on "apprend" que la théorie de Shannon/Nyquist n'est peut-être pas exacte...
Si vraiment Nyquist c'est trompé, je veux le savoir....
Vincent Finnerty