Les appareils photo, indispensables dans de nombreux domaines, du personnel à l'industriel, varient en modèles spécialisés. Ce doctorat se concentre sur la caméra à champ lumineux unique, capturant des scènes en mesurant l'intensité et la direction de la lumière. Elle permet l'estimation de la profondeur, la mise au point sur plusieurs plans et des images entièrement nettes.
[...]
Cette thèse explore les caméras à champ lumineux dans la perception robotique, documentant les avancées et les contributions novatrices.La première contribution présente une méthode d'estimation de la profondeur basée sur la homographie à travers la calibration de la lumière. Elle permet une estimation réelle de la profondeur à partir de clichés uniques à champ lumineux sans calibration complexe, en calculant directement la profondeur de l'objet.La deuxième contribution traite de la détection de points clés dans les images à champ lumineux avec des 'images pseudo-mises au point' en utilisant des détecteurs conventionnels. Elle crée des images visuellement cohérentes, éliminant le besoin de détecteurs dédiés, et améliore l'adaptabilité.Enfin, une chaîne de traitement d'odométrie visuelle fusionne les caméras à champ lumineux et les algorithmes standards. Elle suit la trajectoire de la caméra, discernant la rotation et la translation à travers la détection de points clés. Validée avec des jeux de données intérieurs, elle trace efficacement le chemin de la caméra et affine l'échelle de translation, aidée par des aperçus de la profondeur.. Cameras, indispensable across domains from personal to industrial, vary in specialized models. This Ph.D. focuses on the unique light-field camera, capturing scenes by measuring light intensity and direction. It enables depth estimation, multi-plane focus, and fully-focused imagesThis dissertation explores light-field cameras in robotic perception, documenting advancements and novel contributions.The first contribution presents a homography-driven depth estimation method through light calibration. It enables real depth estimation from single light-field snapshots without complex calibration, directly computing object depth.The second contribution addresses key-point detection in light-field images with 'pseudo-focused images' using conventional detectors. It creates visually consistent images, eliminating the need for dedicated detectors, enhancing adaptability.Finally, a visual odometry pipeline merges light-field cameras and standard algorithms. It tracks the camera's trajectory, discerning rotation and translation through key-point detection. Validated with indoor datasets, it effectively traces the camera's path and refines translation scale, aided by depth insights.