Partager via


Collecter des images

Pour entraîner un modèle de détection d’objet à reconnaître vos objets, vous devez collecter des images contenant ces objets. Respectez les instructions relatives à la quantité et à la qualité des images pour obtenir de meilleurs résultats.

Format et taille

Les images vous fournissez à votre modèle de détection d’objet nécessitent ces caractéristiques :

  • Format :

    • JPG
    • PNG
    • BMP
  • Taille :

    • 6 Mo maximum pour l’entraînement
    • Largeur/hauteur minimale de 256 pixels x 256 pixels

Quantité de données et équilibre des données

Il est important de charger suffisamment d’images pour entraîner votre modèle IA. Un bon point de départ est d’avoir au moins 15 images par objet pour l’ensemble de l’entraînement. Avec moins d’images, il y a un fort risque que votre modèle apprenne des concepts qui ne sont en fait que du vent ou qui sont inutiles. Entraînez votre modèle avec plus d’images devrait augmenter sa précision.

Autre considération importante : veillez à ce que vos données soient équilibrées. Si vous avez 500 images pour un objet et seulement 50 pour un autre, votre jeu de données n’est pas équilibré. Il est possible que le modèle reconnaisse mieux l’un des objets que l’autre. Pour des résultats plus cohérents, maintenez un rapport d’au moins 1:2 entre l’objet pour lequel vous avez le moins d’images et celui pour lequel vous en avez le plus. Par exemple, si l’objet avec le plus grand nombre d’images a 500 images, l’objet avec le moins d’images doit avoir au moins 250 images pour son entraînement.

Utiliser des images plus diversifiées

Fournissez des images qui sont représentatives de ce qui sera envoyé au modèle lors de l’utilisation normale. Supposons, par exemple, que vous entraîniez un modèle à reconnaître des pommes. Si vous l’entraînez uniquement avec des images de pommes sur des plats, il est possible qu’il ne reconnaisse pas toujours des pommes dans des arbres. Inclure différent types d’images garantira que votre modèle n’est pas biaisé et peut parfaitement généraliser. Voici quelques méthodes permettant d’effectuer votre ensemble de formation de manière plus diversifiée.

Arrière-plan

Utilisez des images de vos objets devant différents arrière-plans ; par exemple, des fruits sur des assiettes, dans des mains et sur des arbres. Les photos en contexte sont meilleures que les photos devant des arrière-plans neutres, car elles fournissent plus d’informations pour le classificateur.

Arrière-plans d’image.

Éclairage

Utilisez des images d’entraînement sous des éclairages différents, surtout si les images utilisées pour la détection peuvent avoir des éclairages différents. Par exemple, inclure des photos prises au flash, avec une forte exposition, etc. Il est également utile d’inclure des images avec une saturation, une teinte et une luminosité variées. Votre appareil photo vous permet probablement de contrôler ces paramètres.

Éclairage de l’image.

Taille d’objet

Fournissez des images dans lesquelles les objets sont de tailles variées, capturant différentes parties de l’objet ; par exemple, une photo d’un régime de bananes et un gros plan d’une seule banane. Un dimensionnement différent aide le modèle à mieux généraliser.

Tailles des objets.

Angle de caméra

Essayez de fournir des images prises sous différents angles. Si toutes vos photos proviennent d’un ensemble d’appareils photo fixes tels que des caméras de surveillance, attribuez une étiquette différente à chaque caméra. Ceci peut aider à éviter la modélisation d’objets non concernés tels que des réverbères en tant que fonctionnalité clé. Étiquetez les appareils photo même si les appareils prennent les mêmes objets en photo.

Angles de vue.

Résultats inattendus

Les modèles IA peuvent mal apprendre les caractéristiques communes à vos images. Supposons que vous souhaitiez créer un modèle pour distinguer les pommes des agrumes. Si vous utilisez des images de pommes dans des mains et d’agrumes sur des plats blancs, le modèle peut s’entraîner à faire la différence entre des mains et des plats blancs, et non entre des pommes et des agrumes.

Résultats inattendus.

Pour corriger cela, utilisez la procédure ci-dessus sur la formation avec des images plus variées : proposez des images avec différents angles, arrière-plans, tailles d’objets, groupes, et autres variantes.

Prise en main de la détection d’objet