I. Discontinuités et méthodes usuelles

Le flou est généralement dû à une convolution de l'image originale par un noyau :

x : pixel de l'image

u(x) : valeur du pixel (sans flou) ; j(x) : noyau de convolution

w(x) : valeur du pixel (image floue)

 

 

Il faut donc, à partir de w(x), reconstruire u(x). Une première méthode est de calculer la transformée de Fourier de l'image, de la diviser par j(x) puis de calculer la transformée de Fourier inverse. Si l'on suppose connue la cause du flou (par exemple, si l'image provient d'un capteur dont on connaît les défauts), alors j(x) est connu et nous pouvons, théoriquement, remonter sans problème à u(x), donc à l'image originale.
Mais la transformée de Fourier ne peut pas être calculée sur une fenêtre infinie comme dans la théorie. Il faut donc la restreindre à un intervalle fini. Ceci entraîne des problèmes de repliement spectral, sauf si l'image est au préalable filtrée. Là, différentes possibilités apparaissent : la plus simple est de faire un filtre basse-pas pour couper les hautes fréquences susceptibles d'entraîner des phénomènes de repliement. Mais, encore une fois, cette solution n'est pas satisfaisante car des phénomènes de Gibbs apparaissent dans l'image.
Ces problèmes de reconstruction sont attachés à la présence de hautes fréquences dans l'image. Ces hautes fréquences se traduisent par des discontinuités dans l'espace (variation rapide de la fonction u(x)). C'est le cas des contours par exemple. Donc améliorer la reconstruction d'une image floue revient à trouver une solution pour prendre en compte les problèmes de discontinuités dans l'image.

Ces solutions linéaires doivent être révisées pour essayer d'obtenir une meilleure reconstruction. L'idéal serait de respecter les contours, donc les sauts, de l'image. Une méthode est d'utiliser des filtres non-linéaires pour reconstruire les hautes fréquences.

 

retour plan

Partie II.