Article
Lorenzo Scalese · Août 10, 2022 11m de lecture

Détection d'objets à l'aide d'Embedded Python et IRIS

Depuis IRIS 2021.2, il est possible d'écrire des Méthodes de classe en utilisant le langage Python. J'ai utilisé cette nouvelle fonctionnalité pour détecter des personnes et des objets dans des images, en utilisant ImageAI. Le créateur d'ImageAI la définit comme suit : "Une bibliothèque python open-source construite pour permettre aux développeurs de créer des applications et des systèmes avec des capacités autonomes de Deep Learning et de vision par ordinateur en utilisant des lignes de code simples et peu nombreuses." Dans cet article, vous apprendrez comment appliquer la Vision par ordinateur de l'IA pour détecter des objets et des personnes à l'intérieur d'images.

Étapes de l'analyse des images à l'aide d'ImageAI

  1. Cliquez sur https://openexchange.intersystems.com/package/AI-Image-Object-Detector et sur le bouton Télécharger (Download) pour accéder au projet Git.
  2. Clone/git tire le référentiel dans n'importe quel répertoire local
$ git clone https://github.com/yurimarx/image-analyzer.git
  1. Ouvrez un terminal Docker dans ce répertoire et exécutez :
$ docker-compose build
  1. Lancez le conteneur IRIS :
$ docker-compose up -d
  1. Connectez-vous à votre Postman (ou autre client REST similaire) et configurez la requête conformément à cette image :

Request Image Analysis input

  • Méthode : POST
  • URL: http://localhost:52773/image-analyzer/analyzeImage
  • Corps : données du formulaire "form-data"
  • Clé : fichier (le nom du champ fichier doit être fichier) et type Fichier
  • Valeur : sélectionnez une image avec des personnes et/ou des objets sur votre ordinateur
  1. Cliquez sur "envoyer" (send) et obtenez une réponse avec les objets détectés comme suit :

Request Image Analysis output

Les coulisses - le code source

Le fichier Dockerfile

Il s'agit d'une étape d'importation. Pour utiliser les bibliothèques python, vous devez les installer au préalable, mais vous devez faire attention à les installer dans le dossier IRIS Python correct (/usr/irissys/mgr/python) :

 

Dockerfile

  • pip3 est l'outil python utilisé pour installer les bibliothèques python, comme imageai, opencv, tensorflow et autres.
  • le paramètre target a été utilisé pour installer les bibliothèques python là où IRIS en a besoin, le dossier /usr/irissys/mgr/python.
  • ImageAI utilise les bibliothèques python suivantes :
    • TensorFlow : " C'est une bibliothèque open source pour le calcul numérique et l'apprentissage automatique à grande échelle. TensorFlow regroupe un grand nombre de modèles et d'algorithmes d'apprentissage automatique et d'apprentissage profond (alias réseaux neuronaux) et les rend utiles grâce à une métaphore commune. Il utilise Python pour fournir une API frontale pratique permettant de créer des applications à l'aide du cadre, tout en exécutant ces applications dans un C++ haute performance" (source : https://www.infoworld.com/article/3278008/what-is-tensorflow-the-machine...)
    • Keras: "Keras est une API d'apprentissage profond écrite en Python, fonctionnant au-dessus de la plateforme d'apprentissage automatique TensorFlow. Elle a été développée dans le but de permettre une expérimentation rapide. Il est essentiel de pouvoir passer de l'idée au résultat aussi rapidement que possible pour effectuer de bonnes recherches" (source: https://keras.io/about/)
    • OpenCV : "( Bibliothèque de vision par ordinateur à source ouverte, Open Source Computer Vision Library) est une bibliothèque logicielle de vision par ordinateur et d'apprentissage automatique à source ouverte. OpenCV a été construite pour fournir une infrastructure commune pour les applications de vision par ordinateur et pour accélérer l'utilisation de la perception par machine dans les produits commerciaux." (source: https://opencv.org/about/).
  • ImageAI est un cadre qui combine TensorFlow, Keras et OpenCV pour faciliter la formation et/ou l'utilisation des modèles d'apprentissage profond du marché :
    • Prédiction de l'image;
    • Détection d'objets;
    • Détection et suivi d'objets vidéo;
    • Video analysis;
    • Apprentissage de modèles personnalisés (imaginez, par exemple, l'apprentissage d'un modèle pour détecter le risque de chute d'un patient hors de son lit dans le service de soins intensifs d'un hôpital).
  • ImageAI travaille avec les 3 principaux modèles de vision par ordinateur utilisés sur le marché pour la détection d'objets :
    • RetinaNet (Dimension = 145 Mo, haute performance et précision, avec un temps de détection plus long)
    • YOLOv3 (Dimension = 237 Mo, performance et précision modérées, avec un temps de détection modéré)
    • TinyYOLOv3 (Dimension = 34 Mo, optimisé pour la vitesse et les performances modérées, avec un temps de détection rapide)
  • Dans le dossier d'entrée se trouvent les images à analyser ;
  • Dans le dossier de sortie se trouvent les résultats (images avec balises de résultats visuels) ;
  • Dans le dossier des modèles se trouvent les modèles formés qui seront utilisés avec l'imageai.
  • Cet échantillon utilise le modèle RetinaNet (restnet50)

Mise en œuvre de la version Embedded Python

L'implémentation du code source est simple, et en quelques lignes nous réalisons la détection d'objets ( grâce à ImageAI). Si tensorflow était utilisé directement avec OpenCV et Keras, beaucoup plus de lignes de code auraient été écrites. Consultez le code commenté :

 

Mise en œuvre d'ImageAI

L'API IRIS pour exposer la détection d'objets en tant que Microservice IRIS de détection d'objets

Il est très facile d'appeler la méthode de classe python, c'est similaire d'appeler n'importe quelle méthode de classe objectcript, voir :

 

Microservice IRIS pour la détection d'objets dans les images

Vous pouvez faire beaucoup de choses avec Embedded Python et ImageAI. Pour en savoir plus sur ImageAI, consultez le site : https://github.com/OlafenwaMoses/ImageAI.

Cette application utilisant imageai participera au concours Python, si vous l'aimez, votez-la. Merci !

0
0 22
Discussion (0)3
Connectez-vous ou inscrivez-vous pour continuer