https://hajereducation.tn/category/matlab/
pour télécharger le rapport PDF
Pour voir video Test ====>
https://hajereducation.tn/traitement-dimage-matlab-tutorial/
voir aussi PYTHON IMAGE
https://hajereducation.tn/python-traitement-image-couleur/
=================================
Ouverture et lecture d’une image
Décomposition de l’image en trois plans de couleur R, G, B.
L’histogramme.
Quantification d’une image.
Echantillonnage d’une image.
Compression d’une image.
Faire une acquisition de l'image en temps réel par la caméra de ton pc
Intégration des programmes dans une seule interface GUI.
Ce cours est une introduction au traitements informatique des images. Le traitement d'images consiste à changer la nature d'une image, afin de:
1.Améliorer de l’information contenue pour aider à l'interprétation par l'homme,
2.La rendre plus adaptée pour une perception autonome de la machine.
https://hajereducation.tn/category/matlab/
pour télécharger le rapport PDF
Pour voir video Test ====>
https://hajereducation.tn/traitement-dimage-matlab-tutorial/
voir aussi PYTHON IMAGE
https://hajereducation.tn/python-traitement-image-couleur/
=================================
Ouverture et lecture d’une image
Décomposition de l’image en trois plans de couleur R, G, B.
L’histogramme.
Quantification d’une image.
Echantillonnage d’une image.
Compression d’une image.
Faire une acquisition de l'image en temps réel par la caméra de ton pc
Intégration des programmes dans une seule interface GUI.
Ce cours est une introduction au traitements informatique des images. Le traitement d'images consiste à changer la nature d'une image, afin de:
1.Améliorer de l’information contenue pour aider à l'interprétation par l'homme,
2.La rendre plus adaptée pour une perception autonome de la machine.
Graphistes, développeurs, chef de projet, il nous est tous arrivé de nous retrouver face à un conflit humain pouvant mettre en péril le projet sur lequel nous collaborons.
Pourtant bon nombre de situations critiques peuvent être évitées si on a conscience du mécanisme mental de nos collaborateurs. En effet, de nos choix de carrière à ceux devant la machine à café : bon nombre de nos comportements extérieurs et de nos émotions sont conditionnés par le fonctionnement de notre cerveau. Virginie vous propose donc un aperçu rapide de nos différents cerveaux et quelques clés pour mieux utiliser ces connaissances.
Ce sujet tout public s'adresse tout particulièrement aux curieux qui souhaitent tirer profit d'une meilleure compréhension de leur entourage professionnel.
1ère Présentation Atelier Vision par ordinateurSamir TABIB
Présentation de l'atelier :
Initiation à ce domaine,présentation de quelques applications,les processus de la vision artificielle et l'OpenCv,le projet à réaliser.
Étude et résolution numérique de deux modèles basés sur des équations aux dér...Ayoub Boudlal
Ce projet traite le débruitage d’images numériques corrompues en utilisant deux modèles basés sur des équations aux dérivées partielles. Le premier modèle étudié est l’équation de la chaleur, il repose sur un processus de diffusion isotrope pour un lissage de l’image traitée. Ce modèle présente un inconvénient majeur car il ne fait pas distinction entre le bruit et les contours de l’image. Pour remé- dier à cet inconvénient, la notion de diffusion anisotrope a été introduite, dont le principe est de diffuser fortement dans les zones à faibles gradients (zones ho- mogènes), et faiblement dans les zones à forts gradients (contours), c’est le cas du modèle de Pérona-Malik.
La résolution de ces modèles est effectuée en utilisant la méthode des différences finies. Les schémas utilisés sont implémentés sur Matlab et une comparaison de ces schémas est faite.
Enfin, un aperçu sur l’utilisation de la boîte à outils "Imagerie" pour le traitement d’images est présenté.
Le but du projet est de produire un programme permettant d'effectuer des operations de traitement et de manipulation d'image que l'on peut trouver dans des logiciels de retouche photo.
La vision par ordinateur en télédétection spatiale : état des lieuxVisionGEOMATIQUE2014
Depuis l’arrivée des premiers satellites d’observation de la Terre, les spécialistes en télédétection cherchent à extraire de l’information des bandes spectrales composant les images qu’ils ont captées à diverses résolutions spatiales. Les pixels qui constituent les images optiques sont classifiés selon leur réflectance à partir d’algorithmes de classification, supervisée ou non. Avec l’évolution de la technologie permettant aujourd’hui d’acquérir des images où chaque pixel peut représenter un carré de 50 cm de côté sur le terrain, ces types de classification sont plus ou moins adaptés. Vu la grande hétérogénéité de telles images, la classification orientée-objet est plus appropriée que la classification par pixel pour en extraire les éléments (objets) visibles, de la même manière que l’humain le ferait, en effectuant la reconnaissance par couleur, par texture, par forme et en fonction du contexte et des autres éléments environnants.
Les avancées dans des domaines parallèles tels que l’intelligence artificielle et la vision par ordinateur sont prometteuses pour la télédétection, car ces domaines s’intéressent justement à la reconnaissance automatisée d’objets sur des images de haute résolution.
Cette présentation tente de faire l’état de lieux de ces nouvelles méthodes de classification et montre différents résultats de développements réalisés par Effigis Geo-Solutions.
Graphistes, développeurs, chef de projet, il nous est tous arrivé de nous retrouver face à un conflit humain pouvant mettre en péril le projet sur lequel nous collaborons.
Pourtant bon nombre de situations critiques peuvent être évitées si on a conscience du mécanisme mental de nos collaborateurs. En effet, de nos choix de carrière à ceux devant la machine à café : bon nombre de nos comportements extérieurs et de nos émotions sont conditionnés par le fonctionnement de notre cerveau. Virginie vous propose donc un aperçu rapide de nos différents cerveaux et quelques clés pour mieux utiliser ces connaissances.
Ce sujet tout public s'adresse tout particulièrement aux curieux qui souhaitent tirer profit d'une meilleure compréhension de leur entourage professionnel.
1ère Présentation Atelier Vision par ordinateurSamir TABIB
Présentation de l'atelier :
Initiation à ce domaine,présentation de quelques applications,les processus de la vision artificielle et l'OpenCv,le projet à réaliser.
Étude et résolution numérique de deux modèles basés sur des équations aux dér...Ayoub Boudlal
Ce projet traite le débruitage d’images numériques corrompues en utilisant deux modèles basés sur des équations aux dérivées partielles. Le premier modèle étudié est l’équation de la chaleur, il repose sur un processus de diffusion isotrope pour un lissage de l’image traitée. Ce modèle présente un inconvénient majeur car il ne fait pas distinction entre le bruit et les contours de l’image. Pour remé- dier à cet inconvénient, la notion de diffusion anisotrope a été introduite, dont le principe est de diffuser fortement dans les zones à faibles gradients (zones ho- mogènes), et faiblement dans les zones à forts gradients (contours), c’est le cas du modèle de Pérona-Malik.
La résolution de ces modèles est effectuée en utilisant la méthode des différences finies. Les schémas utilisés sont implémentés sur Matlab et une comparaison de ces schémas est faite.
Enfin, un aperçu sur l’utilisation de la boîte à outils "Imagerie" pour le traitement d’images est présenté.
Le but du projet est de produire un programme permettant d'effectuer des operations de traitement et de manipulation d'image que l'on peut trouver dans des logiciels de retouche photo.
La vision par ordinateur en télédétection spatiale : état des lieuxVisionGEOMATIQUE2014
Depuis l’arrivée des premiers satellites d’observation de la Terre, les spécialistes en télédétection cherchent à extraire de l’information des bandes spectrales composant les images qu’ils ont captées à diverses résolutions spatiales. Les pixels qui constituent les images optiques sont classifiés selon leur réflectance à partir d’algorithmes de classification, supervisée ou non. Avec l’évolution de la technologie permettant aujourd’hui d’acquérir des images où chaque pixel peut représenter un carré de 50 cm de côté sur le terrain, ces types de classification sont plus ou moins adaptés. Vu la grande hétérogénéité de telles images, la classification orientée-objet est plus appropriée que la classification par pixel pour en extraire les éléments (objets) visibles, de la même manière que l’humain le ferait, en effectuant la reconnaissance par couleur, par texture, par forme et en fonction du contexte et des autres éléments environnants.
Les avancées dans des domaines parallèles tels que l’intelligence artificielle et la vision par ordinateur sont prometteuses pour la télédétection, car ces domaines s’intéressent justement à la reconnaissance automatisée d’objets sur des images de haute résolution.
Cette présentation tente de faire l’état de lieux de ces nouvelles méthodes de classification et montre différents résultats de développements réalisés par Effigis Geo-Solutions.
Join us for an enlightening presentation that delves into the fascinating world of Convolutional Neural Networks (CNNs). CNNs have emerged as a groundbreaking technology in the field of deep learning, revolutionizing various applications ranging from image recognition and natural language processing to autonomous vehicles and medical diagnosis.
Our presentation will provide a comprehensive overview of CNNs, exploring their architecture, capabilities, and real-world applications. We will begin by unraveling the fundamental concepts underlying CNNs, such as convolution, pooling, and non-linear activation functions. Through intuitive explanations and visual aids, we will demystify the inner workings of CNNs, making the topic accessible to both technical and non-technical audiences.
As we delve deeper, we will showcase how CNNs excel in image recognition tasks, leveraging their ability to automatically learn and extract meaningful features from visual data. We will discuss the hierarchical nature of CNN architectures, which enables them to capture both low-level features like edges and textures, as well as high-level semantic representations. Through engaging examples and case studies, we will illustrate how CNNs have achieved state-of-the-art performance in image classification, object detection, and image segmentation tasks.
Beyond image processing, our presentation will explore the versatility of CNNs in various domains. We will explore their applications in natural language processing, where they have proven effective in tasks like sentiment analysis, text classification, and machine translation. Additionally, we will delve into their usage in autonomous vehicles, where CNNs enable object detection, lane recognition, and even real-time decision-making.
Furthermore, we will highlight the impact of CNNs in the medical field, where they have revolutionized medical imaging analysis, aiding in the early detection of diseases such as cancer and Alzheimer's. Through remarkable case studies, we will demonstrate how CNNs have enhanced the accuracy and efficiency of medical diagnoses, potentially saving countless lives.
Lastly, we will discuss the latest advancements and ongoing research in the realm of CNNs, including emerging architectures, transfer learning, and explainability. We will also touch upon the ethical considerations and challenges associated with the widespread adoption of CNNs, ensuring a holistic understanding of this powerful technology.
Whether you are a student, researcher, industry professional, or simply curious about the cutting-edge developments in artificial intelligence, this presentation on CNNs promises to enlighten and inspire. Prepare to witness the incredible capabilities of CNNs and discover how they are reshaping the world around us.
Ce support correspond à une conférence qui s'intéresse à la mise en œuvre des Framework de Machines et Deep learning pour les applications web et mobiles. Principalement les Framwork TensorFlow.JS et DeepLeanring4J.
Je l'ai présentée au début dans mon établissement auquel j’appartiens, l’ENSET Mohammedia puis dans la conférence Carrefour des informaticiens, organisée par les étudiants de l'AIAC :
Académie internationale Mohammed VI de l'aviation civile.
et le code source est publié sur mon compte GitHub. La suite de cette série sera sans doute publiées dans les prochaines conférences :
https://github.com/mohamedYoussfi/angular-tensorflowJS
https://github.com/mohamedYoussfi/angular-ml5.js-mobilenet-feature-extractor
https://github.com/mohamedYoussfi/deeplearning4j-cnn-mnist-app
Les vidéos de la conférence sont publiée dans ma chaîne vidéo : https://www.youtube.com/user/mohamedYoussfi
Le plan de la présentation est suivant :
- Quelques Concepts de base à comprendre :
- Machines er Deep Learning, Les réseaux de neurones artificiels, MLP et CNN
- Les problèmes et les contraintes posées par les algorithmes d’apprentissage basés sur les réseaux de neurones
- Principaux catalyseurs qui ont redynamisé l’intelligence artificielle :
- Calcul de hautes performances à savoir les architectures massivement parallèles et les systèmes distribués
- La Virtualisation et le cloud Computing
- Big Data, IOT et Applications Mobiles
- Framework et Algorithmes de Machines et Deep Learning
- Réseaux et Télécommunications
- Open source
- L’écosystème des Framework de Machines et Deep Learning.
- L’architecture du Framwork TensorFlow
- Comment développer des applications de machines et Deep Learning pour les applications Web et Mobile en utilisant TensorFlow.JS et ML.JS
- Comment développer des applications de machines et Deep Learning pour les applications Java JEE en utilisant le Framework DeepLearning4J
Mot Clés :
Intelligence Artificielle, Machines learning, deep learning, TensorflowJS, Deeplearning4j, java, java script, angular
Une approche multi-agents pour la détection de contoursSlim Namouchi
Projet de Fin d’études: Diplôme d’ingénieur en informatique et Multimédias
Encadrant: M. Abdesslam BENZINOU, Maître de conférences HDR à l’ENIB
Encadrant: M. Imed Riadh FARAH, Maître de conférences HDR à l’ISAMM
1. Vision_industrielle_principes
1
1. Introduction
On appelle Traitement d'Images Numériques (Digital Image Processing) le traitement d'une image bidimensionnelle (2D) par un ordinateur.
Dans le traitement digital de l'image, le système d'acquisition convertit l'image en une matrice de points appelés pixels (contraction de picture
element) Une Image numérique est donc un tableau de nombres de taille n*m.
BTS MAI – P. RAYMOND mars-13
2. Vision_industrielle_principes
2
2. Perception des couleurs
C'est par la lumière que la couleur existe. Elle ne réside pas dans les objets mais dans la lumière qui les éclaire et dans leur propriété à absorber
certaines radiations tout en en réfléchissant d'autres. La couleur n'est donc qu'un impression, un effet physiologique produit par notre cerveau et
dont les causes sont captées par nos sens. La rétine est sensible aux rayonnements électromagnétiques de longueur d'onde comprise entre 380 et
700nm. Bien que notre œil soit capable de discerner 350 000 couleurs et d'en reconnaître 128, la sensibilité chromatique différentielle (faculté de
distinguer les variations de nuances entre les teintes) n'est pas uniforme tout au long du spectre.
Synthèse additive
La synthèse additive consiste à restituer une
couleur par addition de trois sources
lumineuses rouge, vert, bleu (RVB) [RGB:
red, green, blue]. Ce procédé est utilisé dans
les tubes cathodiques couleur.
Synthèse soustractive
La synthèse soustractive permet de restituer
une couleur par soustraction, à partir d'une
source de lumière blanche, avec des filtres
correspondant aux couleurs complémentaires :
jaune, magenta, cyan. Ce procédé est utilisé
en photographie et pour l'impression des
couleurs.
3. Vision_industrielle_principes
3
Pour les images en couleurs, on utilise 3
plans (Rouge, Vert, Bleu) et on associe un
octet à chaque pixel pour définir le niveau
d'intensité du pixel.
Pour les images en niveaux de gris, on
associe un octet à chaque pixel pour définir le
niveau de gris du pixel (255 pour le blanc et
0 pour le noir).
3. Histogramme (pour du gris)
k valeur de gris [0,255]
n nombre de pixel de l'image
knkH )(
nkH
255
0
)(
Les images ayant des valeurs groupées révèlent une composante significative de l'image entre les bornes des pics.
k
nk
L’histogramme des niveaux de gris
d’une image est une fonction qui
donne la Fréquence d’apparition de
chaque niveau de gris (couleur) dans
l’image.
4. Vision_industrielle_principes
4
4. Contraste et luminosité
Image normale contenant 24820
pixels.
Ajustement de la luminosité
d'une image en modifiant la
proportion de blanc dans toutes
les couleurs et dans tous les
niveaux de gris.
Augmentation de la luminosité
Diminution de la luminosité
5. Vision_industrielle_principes
5
Ajustement du contraste d'une
image
Par modification de la
différence entre les couleurs
adjacentes ou les niveaux de
gris.
Augmentation du constraste
Diminution du contraste
5. Transformation
Une anamorphose transforme le niveau de gris d'origine et aura un effet sur le contraste et la luminosité de l'image ( cf. contraste et luminosité)
)( ,, jiji pFp avec F la fonction de transfert
6. Vision_industrielle_principes
6
Inversion ou image en négatif obtenue par la fonction de transfert
jiji pp ,, 255
Egalisation qui accroît la dynamique globale de l'image en étendant les
valeurs sur l'ensemble [0,255] L'histogramme suivant montre comment une
égalisation permet de révéler plus de détails visible que l'image d'origine.
e
p
p
ji
ji
,
,
.255
e
7. Vision_industrielle_principes
7
6. Seuillage de l'image (Binarisation)
Il consiste généralement à séparer l'image en deux groupes de pixels ( seuillage binaire), les deux catégories étant les objets et le fond de
l'image. L'opération de seuillage a pour but d'isoler les pixels dont la valeur est comprise entre deux bornes fixes. Cette opération
permet de créer une image binaire à partir de l'image d'origine, soit pour isoler une partie de l'image (masquage), soit pour y effectuer des
transformations morphologiques.
les pixels appartenant au fond sont mis à 0.
les pixels appartenant aux objets sont mis à 255 (ou à 1 pour limiter la taille mémoire de l'image).
8. Vision_industrielle_principes
8
7. Opérations
Les opérations permettent le masquage, la comparaison ou la combinaisons d'images.
Opérateurs arithmétiques
Pour une image 8 bits
opérateurs logiques
masquer des images en niveau de gris à l'aide
d'image binaire.
* p=min(pa*pb,255) ET pa et 255 = pa
pa et 0 = 0
/ p=max(pa/pb,0) NON
ET
pa non et 255 = 0
pa non et 0 = 255
+ p=min(pa+pb,255) OU pa ou 255 = 255
pa ou 0 = pa
- p=max(pa-pb,0) NON
OU
pa non ou 255 = 0
pa non ou 0 = not pa
9. Vision_industrielle_principes
9
8. Filtrage
1,1 jip 1, jip 1,1 jip
jip ,1 jip , jip ,1
1,1 jip 1, jip 1,1 jip
filtre linéaire de matrice 3x3
ifc
heb
gda
avec 1,1,11,1, ......: jijijiji pipbpap
9. Erosion et dilatation
On remplace chacun des pixels de
l'image par une combinaison linéaire
(ou non linéaires) des pixels voisins
Par exemple détermination
d'un contour (filtre laplacien#1)
111
181
111
10. Vision_industrielle_principes
10
L'élément structurant est un masque binaire utilisé par la plupart des
fonctions morphologiques. Il est destiné à pondérer l'effet d'une
transformation morphologique en fonction de la forme et des contours des
objets concernés. Une transformation morphologique modifie la valeur
d'un pixel Po en fonction de la valeur prise par ses voisins. L'utilisation de
l'élément structurant permettra de prendre en compte tous les voisins
masqués par un 1 et d'ignorer tous les voisins masqués par un O.
Unc Erosion élimine les pixels isolés sur le fond et érode le contour
des objets en tenant compte de l'élément structurant.
Pour un pixel Po donné, l'élément structurant est centré sur PO. Les
pixels masqués par un élément structurant égal à 1 sont appelés Pi.
exemple
Si AND (Pi) =255, alors Po :=255 sinon Po :=Po
Cette fonction élimine les trous isolés dans les objets et dilate le contour
des objets en tenant compte de l'élément structurant.
Pour un pixel Po donné, l'élément structurant est centré sur PO. Les
pixels masqués par un élément structurant égal à 1 sont appelés Pi.
exemple
Si OR (Pi) = 0 alors Po :=0 sinon Po :=Po
11. Vision_industrielle_principes
11
10. Considérations matériels
10.1. Formation de l’image
Une "bonne" image est souvent une image où l'on a beaucoup d'informations, et qui se rapproche donc de celle captée par l'œil humain. Une
image trop simple, par exemple une image binaire, est "réductrice" en matière d'informations saisies et souvent moins reproductible dans des
conditions industrielles. Plus le "système de formation d'image" (c'est-à-dire les équipements mis en œuvre à ce niveau : caméra, optique,
éclairage) sera performant, meilleure sera l'image transmise au système d'analyse.
10.2. Caméra
Elle doit d'abord être choisie en fonction de la dynamique du produit au moment de l'acquisition. Si le produit est à l'arrêt, toutes les caméras
conviendront. Si par contre le produit ne s'arrête pas devant la caméra, il est recommandé de choisir une caméra progressive scan, ou à balayage
progressif, capable de synchroniser l'acquisition avec le passage du produit tout en gardant sa pleine résolution.
On utilisera une caméra numérique de préférence à une caméra analogique, car la première est mieux synchronisée et plus précise, même si elle
offre parfois une résolution plus faible. On n'utilise une caméra haute résolution (plus chère et plus lente qu’une caméra à résolution standard)
que lorsqu’elle apporte effectivement un gain en précision nécessaire.
10.3. Eclairage
Il faut qu'il soit le mieux adapté aux conditions dans lesquelles se déroule la "saisie" : sur-luminosité ou pénombre environnantes, surface
réfléchissante du produit à "visionner"… Le choix porte sur :
le type de source lumineuse (à LED, fluorescente (haute ou basse fréquence), halogène, à diodes laser, ...),
la géométrie de la source d'éclairage (les sources annulaires sont les plus fréquentes mais il existe aussi des spots, des plans, des raies...),
les filtres : filtres polarisants, filtres de couleur...
12. Vision_industrielle_principes
12
10.4. Optique
Elle sera choisie en fonction de la taille et de la forme de la pièce, ainsi que des contraintes d'intégration (distance, position de la pièce...).
Qu'il s'agisse de la caméra, de l'éclairage ou de l'optique, il existe sur le marché une grande variété de matériels performants. Une étude de
faisabilité bien conduite permettra de faire le choix du meilleur système de formation d'image.
10.5. Analyse de l'image
Cette fonction est déterminante car son résultat conditionne le traitement appliqué au produit contrôlé (suite de la fabrication ou mise au rebut).
Le système assurant cette opération doit tout d'abord satisfaire aux critères devenus incontournables dans l'industrie comme partout : puissance,
flexibilité, simplicité de mise en œuvre et convivialité d'emploi. Le système de vision doit aussi, et surtout, répondre à un nouvel impératif : la
robustesse. L'analyse de l'image repose en effet sur des outils permettant la reconnaissance de forme de l’objet à contrôler. Pour être efficaces,
"robustes", ces outils doivent pouvoir reconnaître une forme tout comme le ferait l'œil humain, c'est-à-dire en s’affranchissant des variations et en
étant capables de distinguer entre ce qui est acceptable et ce qui ne l'est pas.
Sur le thème des dix commandements, voici les dix règles auxquelles doivent se conformer ces outils :
Ils trouveront les objets malgré les changements de taille et d'orientation (0-360°)
Ils maintiendront la précision malgré les changements de taille et d'orientation
Ils maintiendront la vitesse malgré les changements de taille et d'orientation
Ils toléreront les variations d'éclairage et les ombres
Ils toléreront les manques et les inclusions, les objets se touchant ou se recouvrant
Ils t'affranchiront du flou, du manque de contraste et du bruit de l'image
Ils accepteront les modèles aux contours peu marqués
Ils apprendront par "show and go"
Ils fonctionneront sur des plates-formes standard
Ils seront reconnus sur le marché.
13. Vision_industrielle_principes
13
10.6. Communication avec l’environnement
Le résultat de l’analyse ("bon ou mauvais") doit être transmis aux automatismes qui prennent en charge la suite des opérations, ainsi qu’aux
opérateurs qui surveillent le processus de fabrication. Le système de vision doit donc être équipé :
d’E/S TOR pour gérer les signaux de base (présence pièce, signal d’éjection des défauts),
d’un écran opérateur avec une interface adaptée et configurable,
et, pour répondre à une demande plus récente mais en forte croissance, d'une interface avec un réseau standard de communication.
11. Exemples
15. Vision_industrielle_principes
15
Le système de vision a pour but le
contrôle de l'étiquetage de chaque
bouteille. Le système contrôle la
position des 3 étiquettes en absolu
et en relatif avec une tolérance de
1 à 2 mm. La conformité de
l'étiquette est également vérifiée
(logo, texte). Les 4 caméras
effectuent leur tâche à la cadence
de 12500 bouteilles/heure et
garantissent une production sans
défaut. Si trois défauts consécutifs
sont détectés, le système alerte la
machine pour permettre le
réglage.
Wella, Allemagne, utilise deux
systèmes Checkpoint pour garantir la
qualité de ses bouteilles de shampoing.
À la première station, chaque seconde,
le système contrôle trois bouteilles
selon deux angles et vérifie jusqu'à sept
caractéristiques, même si la taille, la
forme et la couleur diffèrent selon les
lots. Ces contrôles comprennent la
position et le type de l'étiquette et le
vissage du bouchon. La seconde station
vérifie que les bouteilles dans les packs
sont toutes présentes et correctement
emballées.
TRW produit plus de 19 millions de
soupapes par an. La société utilise un
système In-Sight pour garantir que tous les
envois à l'usine de moteurs d'Isuzu sont
corrects en vérifiant la présence d'un repère
sur la tête de soupape. PatFind permet à In-
Sight de localiser ce repère quelles que
soient la position et l'orientation de la
pièce, assurant ainsi que seuls des produits
conformes quittent l'usine.