Quand des algorithmes se mêlent d’optique


L’appareil Lytro, version 16 GB.

Nous avons à plusieurs reprises insisté ici sur la nuance de taille à apporter à l’idée d’une « révolution » que peut apporter le numérique au photographique. Pour bien mesurer l’ampleur des mutations, il faut savoir décrire aussi ce qui ne change pas : ainsi, un appareil photo numérique reste un appareil photographique, c’est-à-dire une chambre noire avec une optique et une surface sensible. L’exemple du scanner et d’autres types de balayage par un laser étaient déjà des techniques qui voyaient le photographique s’émanciper de la pyramide optique formée dans la chambre noire. Il en va autrement aussi quand l’optique est modifiée au point de ne plus donner lieu à une image réelle « simplement » captée puis traitée mais qui est couplée à des algorithmes, à une computation, qui fait de l’image une base de données dont il s’agira d’extraire la, ou plutôt les multiples images de type photographique. Il est vrai que la capture numérique, comme d’ailleurs la capture argentique, n’est pas une image « achevée ».  Cependant, ici, le principe prend une toute autre ampleur car il repousse à « après la prise de vue » un paramètre qui semblait inhérent à l’instant de la saisie optique, mécanique et électro-chimique, la mise au point, le placement du plan de capture en un plan de netteté optimum. Notons qu’une telle mise au point « après » est elle-même éventuelle puisqu’elle suppose une variation qui peut rester ouverte dans de nouvelles formes de diffusion et d’usage de ces « blocs photographiques », comme par exemple pour des images 3D, stéréoscopiques et interactives.

Il y a maintenant quatre ans (nous y faisions écho, voir : http://www.arpla.fr/canal20/adnm/?p=256), Adobe présentait un dispositif multi-objectifs qui permettait un enregistrement visuel où la mise au point « restait à faire », autrement dit, qui fournissait une image d’apparence floue mais contenant les informations de sa propre mise au point dans tel ou tel plan de sa profondeur. Mettant en œuvre un principe comparable, le Lytro, annoncé fin 2011, est un appareil-logiciel qui saisit en la traitant non plus l’image réelle formée dans un plan où elle est principalement nette, mais le champ de rayons omnidirectionnels émis par l’objet, une globalité lumineuse chargée du potentiel d’informations apte à restituer l’image volumique que l’optique classique échoue à percevoir. Pour le dire simplement, l’appareil capture à la fois l’intensité et la direction de la lumière — et pour cela opère dans une quatrième dimension. L’appareil diffère d’un appareil photo digital ordinaire par la présence d’une grille de micro-lentilles devant son capteur. La notion de Digital Light Field Photography emprunte celle de light field à l’image de synthèse et en particulier au ray-tracing.

Une série de photographies « à mettre au point » est visible sur le site : http://www.lytro.com/living-pictures/292.

Citation du site Lytro, 26 décembre 2011 : Les tout premiers champs de lumière ont été capturés à l’Université de Stanford il y a maintenant 15 ans. La recherche la plus avancée sur le champ de lumière demandait une pièce remplie de caméras reliées à un superordinateur. Aujourd’hui, Lytro achève le travail de sortir les champs de lumière hors du laboratoire de recherche et de les rendre disponibles pour tous, sous la forme de la première Lytro Light Field Camera.

Pour plus d’informations techniques sur la Digital Light Field Photography, consulter :
https://www.lytro.com/science_inside
http://www.lytro.com/renng-thesis.pdf



Exemples de l’effet Lytro : photo par Mugur Marculescu et portrait du directeur de la photographie Stephen Goldblatt © Lytro.

Mots clés :