Publié le 16 janvier 2026

La 3D par satellite, comment ça marche ?

  • Actualité

  • Système Terre

  • Données spatiales

Au sein du CNES, des équipes développent des algorithmes capables d’exploiter les données transmises par les satellites d’observation de la Terre, comme CO3D, pour obtenir des images en 3D.

Image du Pic du Midi en 3D réalisée par les satellites d’observation CO3D
Image du Pic du Midi en 3D réalisée par les satellites d’observation CO3D © CNES/Airbus DS/, 2025

Plusieurs missions spatiales, dont la dernière envoyée dans l’espace est CO3D, jouent un rôle clé dans la connaissance de notre Terre en trois dimensions. Au CNES, des équipes développent des algorithmes capables d’exploiter les données transmises par ces satellites pour obtenir des images en 3D. Explications dans cet article du Campus de la Donnée.

 

L’observation en 3D par satellite

Depuis plusieurs décennies, les missions spatiales jouent un rôle clé dans la connaissance de notre planète en 3D. Les progrès technologiques ont permis d’améliorer la résolution des images, la fréquence de revisite et la diversité des méthodes d’observation : optique, radar (SAR), interférométrie, LiDAR, etc. Parmi les satellites optiques, on peut citer les constellations SPOT, WorldView, Pléiades, Pléiades NEO et, plus récemment, CO3D. En ce qui concerne les radars (SAR et I-SAR), des missions comme ICEYE et ICESat-2 se distinguent, tandis que pour le LiDAR, ICESat et GEDI sont des références.

Missions spatiales permettant d'observer le relief de la terre
Missions spatiales permettant d'observer le relief de la terre, par type de missions et par date de lancement © CNES

Le CNES est en charge de développer des algorithmes capables d’exploiter toutes ces données et d’en tirer le meilleur parti, notamment en optique. La reconstruction 3D à partir d’images optiques repose principalement sur l’utilisation d'une ou plusieurs paires d’images stéréoscopiques, c’est-à-dire deux images d’un même lieu prises sous des angles différents. Plusieurs méthodes permettent d’obtenir ces images comme nous allons le voir dans la suite.

 

L’utilisation de satellites agiles

La première méthode consiste à utiliser un satellite capable de changer rapidement d’angle de vue. Il prend une première image, puis se déplace légèrement pour en capturer une seconde sous un autre angle (voir illustration ci-dessous).

Observation stéréoscopique à partir d'un satellite agile
Observation stéréoscopique à partir d'un satellite agile © CNES

Parmi les satellites optiques, les satellites Pléiades et Pléiades NEO sont agiles et donc capables d'acquérir des images en mode stéréoscopique (stéréo). Il est aussi possible d’acquérir des images en mode « tri stéréo » c'est-à-dire trois images sous trois points de vue différents. Les images tri-stéréo, dont l’une des images est acquise à proximité de la verticale sont utiles dans les villes denses ou les montagnes, quand les bâtiments ou les reliefs empêchent le satellite de bien voir la zone.

Mode d'acquisition stereo et tri-stereo
Mode d'acquisition stereo et tri-stereo © Optical acquisition modes (docs.up42.com)

Mais cette technique présente un inconvénient : un léger décalage temporel entre les prises de vue. Ainsi, les objets en mouvement (voitures, trains, végétation en présence de vent, etc.) peuvent changer de position entre les images, ce qui complique leur restitution en 3D.

 

L’utilisation de constellations de satellites

Pour pallier ce problème, une seconde méthode consiste à utiliser plusieurs satellites qui prennent des images simultanément sous différents angles. Contrairement à la méthode précédente, toutes les images sont acquises au même instant, éliminant ainsi les effets du mouvement.

Observation stéréoscopique à partir d'une constellation de deux satellites
Observation stéréoscopique à partir d'une constellation de deux satellites © CNES

La constellation CO3D permet d’observer le sol simultanément par deux satellites sous des angles différents. On parle alors de « paire d'images stéréo-synchrone ».

Illustration d'une paire de satellites de la constellation CO3D
Une paire de satellites de la constellation CO3D © CNES/ReactiveProd

Mais comment produire un modèle 3D à partir de ces images stéréoscopiques, qu’elles soient synchrones ou non ?

 

La photogrammétrie classique : principes et applications

Fonctionnement

Comme nos yeux perçoivent la profondeur grâce à la différence d’angle entre nos deux pupilles, les satellites utilisent le même principe pour reconstruire des modèles 3D. Cette technique repose sur la mesure du déplacement des pixels entre deux images prises sous des angles différents. Lorsqu’un satellite prend une photo d’un point au sol, ce point apparaît à une position différente sur l’image selon l’angle de vue. Cette différence de position, appelée parallaxe, nous donne une information sur l’altitude du point.

Un phénomène intéressant se produit :

  • Plus l’altitude d'un objet est élevée, plus la parallaxe est grande (comme quand vous regardez un objet près de vos yeux, comme la cuillère sur l'image ci-dessous).
  • Plus l’altitude d'un objet est faible, plus la parallaxe est petite (comme quand vous regardez un objet au loin, comme la bouteille sur l'image ci-dessous).
Différence de parallaxe entre un objet proche (cuillère) et un objet éloigné (bouteille)
Différence de parallaxe entre un objet proche (cuillère) et un objet éloigné (bouteille) © 3D Models

La différence d’angle de vue entre deux satellites est quantifiée par le rapport B/H :

  • B (Base) : distance entre les deux satellites.
  • H (Hauteur) : altitude des satellites par rapport au sol.

Lorsque le rapport B/H est faible (c’est-à-dire que la distance entre les satellites est petite par rapport à leur altitude), la parallaxe mesurée entre les deux images devient faible. Cela peut entraîner une diminution de la précision altimétrique. Au contraire, plus le rapport B/H est important, plus la parallaxe mesurée entre les deux images devient importante – il y a donc une meilleure précision altimétrique. En revanche, dans des zones urbaines, des fonds de rues par exemple peuvent ne pas être visibles sur les deux images simultanément, rendant impossible la mesure de sa parallaxe : il y a des occlusions. Il faut donc trouver un compromis pour le rapport B/H.

Différence entre un rapport de B/H élevé et faible
Différence entre un rapport de B/H élevé et faible © Optical acquisition modes (docs.up42.com)

Le déplacement apparent d’un point entre les deux images permet de déterminer son altitude par triangulation, comme illustré ci-dessous :

Rapport entre le déplacement d'un pixel (Δx) et le rapport B/H permet d'obtenir l'altitude h
Le rapport entre le déplacement d'un pixel (Δx) et le rapport B/H permet d'obtenir l'altitude h © CNES

Pour réaliser cette triangulation, il est essentiel de connaître avec précision la position exacte des satellites (S1 et S2 sur l’image ci-dessus) au moment de la prise de vue. Ce sont les modèles géométriques qui vont nous fournir cette information.

 

Logiciel de photogrammétrie CARS pour la production de MNS

CARS est un logiciel open source développé par le CNES qui permet, à partir d’une ou plusieurs paires stéréoscopiques, de produire un modèle numérique de surface (MNS). Son utilisation est relativement facile, puisque CARS peut être lancé en ligne de commande en indiquant uniquement la ou les paires d’images stéréoscopiques via un fichier de configuration. Les images peuvent être issues de Pléiades, Worldview ou n'importe quel satellite optique permettant des acquisitions stéréo.

Un MNS (Modèle Numérique de Surface) est une représentation 2.5D de la surface terrestre, où chaque point d’une image (x,y) est associé à une altitude (z). 

Représentation 2.5D : à gauche, un exemple de matrice de pixels, et à droite, une représentation volumétrique des valeurs d’altitude
Représentation 2.5D : à gauche, un exemple de matrice de pixels, et à droite, une représentation volumétrique des valeurs d’altitude © CARS readthedocs, CNES
Exemple d'un MNS produit par CARS sur la zone de Nice à partir d'images stéréo Pléiades avec en bleu clair les zones de faible altitude et en rouge foncé les zones d'altitude élevée
Exemple d'un MNS produit par CARS sur la zone de Nice à partir d'images stéréo Pléiades avec en bleu clair les zones de faible altitude et en rouge foncé les zones d'altitude élevée © CNES

Le logiciel CARS repose sur quatre principales étapes : le rééchantillonnage, la mise en correspondance, la triangulation et la rastérisation.

 

Rééchantillonnage

L’objectif de cette étape consiste à rééchantillonner les images pour les mettre en géométrie épipolaire. En géométrie épipolaire, les pixels d’un même objet se trouvent le long d’une même ligne lorsque l’angle de vue change. Par exemple, sur l’image ci-dessous, le sommet de la pyramide se situe sur la même ligne. Ce type de transformation permet de simplifier le problème de l'étape 2 (c’est-à-dire la mise en correspondance) puisqu’on va chercher les pixels de l’image de gauche correspondant à ceux de l’image de droite que dans une seule dimension. Cela permet notamment d’améliorer les performances informatiques et de limiter les erreurs de correspondance.

Deux vues des pyramides de Gizeh sous deux angles différents en géométrie épipolaire
Deux vues des pyramides de Gizeh (images stéréo Pléiades), observées sous deux angles différents, en géométrie épipolaire. Sur l’image de gauche, le sommet de la pyramide en haut à gauche est plus près du bord gauche de l’image © CARS readthedocs, CNES

Mise en correspondance

L’objectif de cette étape consiste donc à chercher pour chaque point d’une image son correspondant dans l’autre image. Comme les images ont été mises en géométrie épipolaire, on va se limiter à la ligne. Cette étape est réalisée par le logiciel Pandora, également développé au CNES. À l’issue de cette étape, on obtient une carte de décalage, également appelée carte de disparité. Les pixels colorés indiquent les décalages trouvés, tandis que les pixels transparents signalent les zones problématiques où la correspondance a échoué, souvent à cause de mouvements, d’ombres ou de manque de texture.

Carte de disparité obtenue sur les pyramides de Gizeh
Carte de disparité obtenue sur les pyramides de Gizeh © CARS readthedocs, CNES

Triangulation

L’objectif de cette étape est de convertir les décalages en positions 3D en faisant intersecter les lignes de visée des deux images, ce qui permet d’obtenir les coordonnées spatiales (X,Y,Z) des points observés. On obtient alors un nuage de points 3D (x,y,z).

Nuage de points 3D (colorisé) obtenu après l'étape de triangulation
Nuage de points 3D (colorisé) obtenu après l'étape de triangulation © CARS readthedocs, CNES

Rastérisation

La rastérisation est la dernière étape du processus. Elle consiste à projeter chaque point 3D (x,y,z) obtenu sur une grille 2D pour créer une image matricielle. Cette projection associe à chaque pixel de la grille une altitude, produisant ainsi le MNS final.

MNS final obtenu sur la zone des pyramides avec en bleu clair les zones d'altitude faible et en rouge les zones d'altitude élevée
MNS final obtenu sur la zone des pyramides avec en bleu clair les zones d'altitude faible et en rouge les zones d'altitude élevée © CARS readthedocs, CNES

Exemples de productions de MNS avec CARS

Le 25 juillet 2025, les quatre satellites de la mission CO3D (« Constellation Optique en 3D ») ont été lancés avec succès depuis le Centre spatial guyanais à bord du lanceur Vega-C. Les premières données, actuellement en cours d'étalonnage, révèlent déjà des résultats très encourageants. L'image ci-dessous montre un MNS issu des données CO3D, avec une résolution spatiale de 2 mètres (la résolution de CO3D sera de 1m) sur le Pic du Midi dans les Pyrénées :

MNS produit avec les données CO3D sur le pic du Midi dans les Pyrénées
MNS produit avec les données CO3D sur le pic du Midi dans les Pyrénées. L'antenne a été ajoutée après la production de l'image © CNES/Airbus, 2025

Logiciel Bulldozer : du MNS au MNT

En complément du MNS, il est également possible de générer un modèle numérique de terrain (MNT). Celui-ci cherche à modéliser le sol et correspond au modèle numérique de surface auquel on a retiré les éléments de sursol, tels que les bâtiments ou la végétation.

On obtient ainsi uniquement la topographie de la scène ce qui est particulièrement utile pour des études géomorphologiques telles que le cas de suivi d’érosion ou encore en hydrologie pour l’identification des zones inondables.

Grâce au MNT, on peut ensuite en dériver le modèle numérique de hauteur (MNH), qui pour sa part représente la différence entre le MNS et le MNT. Il sert notamment en modélisation urbaine à déterminer la hauteur des bâtiments et des arbres afin de faire des jumeaux numériques les plus fidèles possibles.

Différence MNS vs MNT vs MNH
Différence MNS vs MNT vs MNH © CNES

Pour extraire le MNT à partir d’un MNS CARS, l’outil open-source Bulldozer a été développé au CNES. Contrairement à un grand nombre de méthodes d’extraction de MNT, Bulldozer ne requiert pas de carte de sursol ou d’autres données exogènes (masque d’eau, etc.). Il repose sur le principe de simulation de chute de drap.

Le concept simplifié est le suivant : on retourne le MNS fourni en entrée après l’avoir « nettoyé » en filtrant les zones bruitées, puis on fait chuter un drap dessus et on applique une tension afin d’éviter que le drap s’enfonce dans les creux du MNS. Après un certain nombre d’itérations, le drap obtenu modélise assez fidèlement le sol sur la scène. On retourne alors ce drap afin d’obtenir le MNT résultant.

MNS vs MNT (l’image aux teintes bleues) calculé avec Bulldozer
MNS vs MNT (l’image aux teintes bleues) calculé avec Bulldozer © CNES
Simplification du fonctionnement de Bulldozer
Simplification du fonctionnement de Bulldozer © CNES

Logiciel xDEM : comparaison de modèles 3D

xDEM est un logiciel open source qui permet l'analyse de tout type de Modèles Numériques d'Élévation (MNE), notamment les MNS issus de CARS et les MNT issus de Bulldozer. Créé par un collectif de chercheurs en glaciologie (GlacioHack), il est à présent développé en collaboration avec les équipes du CNES. Ses principales fonctionnalités incluent la co-registration des MNE, le calcul d’attributs de terrain (pente, ombre, aspect, courbure, rugosité), ainsi que l’analyse d’incertitude et les corrections de biais.

À quoi sert la co-registration de MNE ? La co-registration est une technique permettant d’aligner et de superposer avec précision plusieurs MNE afin de les rendre cohérents entre eux. Il est parfois nécessaire de les aligner, notamment lorsqu’ils sont issus de sources différentes. Par exemple, un MNS calculé par CARS issu de données Pléiades et un MNS LiDAR HD dérivé du nuage de points LiDAR HD peuvent avoir un léger décalage qu'il va falloir corriger pour pouvoir faire différentes analyses.

Animé représentant 2 MNE non co-registrés sur la zone de Longyearbyen
GIF animé représentant 2 MNE non co-registrés sur la zone de Longyearbyen © xDEM

C’est donc un outil idéal pour étudier les changements de MNE de différentes dates et notamment l'étude de la fonte des glaciers. Au sein du CNES, cet outil est utilisé notamment pour qualifier les produits 3D, par exemple en comparant un MNS issu d'images satellites avec un MNS LiDAR haute résolution (dit de référence).

Ci-dessous une carte des variations d'altitude produite par xDEM (en mètres) entre 1990 et 2009 sur la zone de Longyearbyen (Svalbard, Norvège). Les contours noirs délimitent les glaciers. La palette chromatique montre les changements d’élévation : les tons rouges indiquent une diminution de l’altitude, particulièrement marquée sur les glaciers.

Différence d'élévation entre deux MNE de 1990 et 2009 sur les glaciers de Longyearbyen
Différence d'élévation entre deux MNE de 1990 et 2009 sur les glaciers de Longyearbyen © xDEM readthedocs

Applications

Détection de changement en 3D

Une des applications possibles de l’utilisation de données 3D spatiales est la détection de changement : on compare des modèles numériques générés à deux dates et on observe leurs différences. Ces cartes de changements ont plusieurs champs d’applications (suivi du développement urbain, etc.), mais nous nous concentrerons ici sur la détection de changement après une catastrophe naturelle. Après chaque catastrophe d’ampleur, les autorités et services d’urgence ont besoin d’une cartographie rapide des dégâts.

Actuellement, l’imagerie spatiale est un allié de poids pour la gestion de crise et notamment à travers la Charte internationale Espace et catastrophes majeures. Elle permet d'acquérir dans les heures qui suivent l'événement des images de la catastrophe afin de localiser et quantifier les dégâts. Jusqu’ici, ces cartes de dégâts étaient faites à la main par des annotateurs à partir des images.

Afin d’aider les annotateurs dans leurs tâches, de plus en plus de travaux cherchent à automatiser une partie des recherches afin de leur permettre de se focaliser sur des tâches de validation ou de reprises mineures. La détection de changement 3D permet de consolider la détection de changement 2D, notamment lorsque l’on cherche à localiser des bâtiments détruits. Une façon de faire de la détection de bâtiment détruit en 2D est d’effectuer une détection de bâtiment avant et après la catastrophe et de retirer à la carte pré-événement les bâtiments qui sont encore visibles sur l’image post-événement. Ainsi, on obtient une carte des bâtiments qui étaient présents avant l’événements et qui ont disparu.

Dans certains cas, le bâtiment n’est totalement démoli et seulement une partie des étages est détruite. Ce type de changement passe donc inaperçu en 2D, car cela reste un bâtiment pour le détecteur. Grâce à la détection de changement 3D, il est possible de détecter ces bâtiments impactés et de les ajouter à la carte. Des travaux menés au CNES à travers le développement de l’outil open source PICANTEO ont ainsi permis d’évaluer l’apport de la détection de changement 3D en complément de la détection de changement 2D sur une zone impactée lors du tremblement de terre à Kahramanmaraş en février 2023.

Différence entre la détection de changement en 2D et 3D après le tremblement de terre à Kahramanmaraş en février 2023
Différence entre la détection de changement en 2D et 3D après le tremblement de terre à Kahramanmaraş en février 2023 © CNES

Conclusion

Les techniques de reconstruction 3D ont connu des avancées significatives, passant des méthodes traditionnelles de photogrammétrie à des approches innovantes fondées sur l’intelligence artificielle. La photogrammétrie, utilisant des images stéréoscopiques capturées par des satellites agiles ou des constellations, permet de créer des modèles numériques de surface (MNS) précis. Ces modèles sont essentiels pour diverses applications, telles que la détection de changements après une catastrophe naturelle, la modélisation urbaine, et l’étude des glaciers. Des outils open source comme CARS, Bulldozer et xDEM facilitent la production, l’analyse et la comparaison de ces modèles, offrant des solutions robustes pour l'utilisation de la 3D dans des contextes pratiques.

Ces avancées technologiques renforcent notre capacité à comprendre et à modéliser le monde qui nous entoure, marquant une étape importante dans l’évolution des techniques de reconstruction 3D et élargissant les possibilités d'utilisation de la 3D dans des contextes variés.