Pour modéliser la croissance et le développement des plantes en fonction de leurs génotypes, phénotypes, environnement et/ou gestion, l’utilisation d’une canopée tridimensionnelle (3D) réaliste permet d’affiner les prédictions d’interception de la lumière et de photosynthèse.

Le développement de techniques d’imagerie 3D pour estimer la structure de la canopée, la croissance des pousses et la biomasse s’est développé au cours des deux dernières années. Cependant, la sécurisation de suffisamment de données numérisées en 3D prend du temps en raison de la nécessité de traiter manuellement les données. Dans les simulations à grande échelle, les reconstructions d’une seule plante ou de quelques plantes sont souvent dupliquées pour des raisons de commodité et manquent donc de diversité phénotypique. Désormais, des modèles génératifs approfondis peuvent être utilisés pour apprendre et créer des données 3D réalistes.

Dr. Jung Eek Son, professeur de sciences végétales à l’Université nationale de Séoul, et ses collègues ont généré des modèles de feuilles et extrait leurs traits à l’aide de modèles génératifs profonds. Les auteurs ont scanné des plants de poivrons à différents stades de développement à l’aide d’un scanner 3D portable haute résolution. Des nuages ​​de points ont été obtenus à partir des scans, puis ceux-ci ont été utilisés pour former les modèles génératifs profonds qui pourraient générer des feuilles.

Flux de travail de la numérisation 3D des feuilles à la génération des feuilles.

Les auteurs ont comparé les feuilles générées à l’aide de trois modèles génératifs profonds : l’auto-encodeur variationnel (VAE), le réseau antagoniste génératif (GAN) et le GAN à espace latent.

Alors qu’un VAE prend les données brutes d’une image, les encode avec une résolution inférieure, puis les reconstruit, un GAN génère une image à partir du bruit, puis discrimine l’image en fonction des données brutes pour déterminer si elle est réelle ou fausse. Un GAN à espace latent (L-GAN) a la même structure de base et la même méthode de formation qu’un GAN mais utilise des variables latentes : des caractéristiques à partir desquelles le système d’apprentissage pourrait détecter ou classer des modèles dans l’entrée, au lieu de données brutes.

Trois architectures de modèles génératifs profonds sont présentées.  Dans le premier panneau, VAE, le décodeur agit comme un générateur, qui hérite des structures de l'AE.  Dans le deuxième panneau, GAN, un générateur et un discriminateur génèrent des feuilles à partir d'un bruit aléatoire.  Dans le troisième panneau, L-GAN, le générateur et le discriminateur de l'espace latent opèrent sur les variables latentes.
Architectures des trois modèles génératifs profonds.

Des phénotypes 3D fiables de feuilles de poivron ont été créés par les modèles génératifs profonds. Parmi les modèles génératifs profonds, L-GAN a montré les meilleures performances pour générer des feuilles réalistes. « Nous avons comparé plusieurs modèles génératifs pour la génération de feuilles. De cette façon, la forme des feuilles pourrait être contrôlée avec une interpolation linéaire et des opérations arithmétiques simples. Autrement dit, le modèle génératif inclut des traits morphologiques quelque part dans les paramètres du modèle. La première étape vers l’utilisation pratique de modèles génératifs profonds a été réalisée pour des créations autonomes de modèles de plantes 3D sans extraction de caractéristiques compliquée », déclare Son.

Alors que la forme 3D des feuilles vues du dessus a été utilisée pour former les modèles génératifs profonds, les modèles ont également pu générer des images pour évaluer des variables latentes telles que l’inclinaison et la courbure à partir des données.

Résultats d'interpolation de la taille, de l'inclinaison et de la courbure des feuilles générées et des distributions des phénotypes foliaires.  Divers traits, tels que la taille, l'inclinaison et la courbure, ont été conférés aux feuilles générées.
Images créées à l’aide de variables latentes.

Son conclut que « les modèles génératifs profonds peuvent paramétrer et générer des traits morphologiques dans des modèles de plantes 3D numérisés et ajouter du réalisme et de la diversité aux études et modèles de phénotypage des plantes ».

LIRE L’ARTICLE:

Taewon Moon, Hayoung Choi, Dongpil Kim, Inha Hwang, Jaewoo Kim, Jiyong Shin, Jung Eek Son, Construction autonome de modèles de feuilles 3D paramétrables à partir de feuilles de poivron scannées avec des réseaux génératifs profonds, Plantes in silicoVolume 4, Numéro 2, 2022, diac015, https://doi.org/10.1093/insilicoplants/diac015

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *