Glossaire

C

CameraLink (CL) est une interface commune dédiée aux applications en Vision par ordinateur.

Spécifiée pour les transferts rapides d'images, l'interface supporte des profondeurs d'images de 8 à 16 bits et une horloge pixel maximum de 85Mhz.

Le standard CameraLink offre trois variantes :

  • BASE (max. 24 bits par coup d'horloge)
  • MEDIUM (max. par coup d'horloge)
  • FULL (max. par coup d'horloge)

MATRIX VISION offre les cartes d'acquisition CAMERALINK suivantes :

Features   mvGAMMA-CL mvTITAN-CL mvHYPERION-CLb mvHYPERION-CLe mvHYPERION-CLm mvHYPERION-CLf
Supported configurations 1x BASE yes yes yes yes yes yes
  2x BASE       yes yes  
  1x MEDIUM         yes yes
  1x FULL           yes
Driver (mvIMPACT Acquire) Windows® XP, Vista, 7
32 / 64 bits
XP, Vista, 7
32 / 64 bits
XP, Vista, 7
32 / 64 bits
XP, Vista, 7
32 / 64 bits
XP, Vista, 7
32 / 64 bits
XP, Vista, 7
32 / 64 bits
  Linux®     32 / 64 bits 32 / 64 bits 32 / 64 bits 32 / 64 bits
Bus PCI 32 bits / 33 MHz Rev. 2.1 32 bits / 33 MHz Rev. 2.1        
  PCI Express®     x1 x1 x4 x4
Continuous data rate MB/s 95 100
mvTITAN-CL/110: 110
200 200 640 640
Max. pixel clock MHz 66 66 85 85 85 85
tl_files/mv11/images/info/powerovercameralink.jpg
      yes yes yes yes
CCD vs. CMOS

Il existe deux technologies majeures de capteur image sur le marché : CCD et CMOS.

Normalement, les capteurs CCD offrent une meilleure qualité d'image, un bruit plus faible et sans "Fixed Pattern Noise". Les capteurs CMOS ont pour eux un prix nettement plus faible et certaines caractéristiques intéressantes et non atteignables par la technologie CCD.

Habituellement, les capteurs CCD offrent une meilleure dynamique, ce qui est un avantage énorme dans beaucoup d'applications où ils procurent de meilleures différences d'intensité lumineuse. Utiliser un capteur noir et blanc ou couleur dépends essentiellement de la tâche à accomplir. Certains capteurs ne sont disponibles que dans une seule version. Les capteurs couleurs voient leur capteur sensible à la lumière couvert par une structure-filtre colorée, chaque pixel recevant alors la lumière d'une seule couleur.

Cette structure colorée est transparente aux Infra-rouge (IR). Pour éviter la modification des couleurs lors de l'acquisition, un filtre anti-IR est nécessaire. A cause du masquage couleur de chaque pixel, la résolution spatiale est malgré tout réduite.

Si une certaine "précision couleur" est demandée, par exemple pour un contrôle de la dérive des couleurs sur une chaine d'impression graphique, ou si une précision spatiale des couleurs s'impose, vous pouvez choisir un modèle utilisant 3 capteurs, chacun d'eux recevant, par l'intermédiaire d'un prisme, une seule composante couleur Rouge, Verte ou Bleue.

Un autre paramètre important dans une acquisition d'image est le "shutter". Les capteurs CCD et CMOS peuvent fonctionner en mode "global shutter" (full frame), les capteurs CMOS les plus simples étant essentiellement disponibles en mode "Rolling shutter". Dans ce mode, l'image d'objets se déplaçant rapidement sous la caméra seront affectés  d'une déformation géométrique résultant de leur mouvement pendant la phase d'exposition.

Characteristiques CCD CMOS
Signal au niveau sortie pixel Paquet d'élection Voltage
Signal au niveau sortie capteur Voltage (analogique) Bits (numérique)
Signal au niveau sortie caméra Bits (numérique) Bits (numérique)
Taux de remplissage / ouverture Elevé Moyen
Interférence d'amplification Aucune Moyenne
Bruit système Bas Moyen
Complexité système Haute Bas
Complexité capteur Bas Haute
Composants caméra Circuit + plusieurs puces + objectif 1 puce + objectif
Recherche et coûts de développement Dépends de l'application Dépends de l'application
Coûts du système Dépends de l'application Dépends de l'application
Performance CCD CMOS
Réactivité Moyenne un peu meilleure
Dynamique Haute Moyenne
Uniformité pixels Haute Basse à moyenne
Uniformité du temps d'exposition Rapide, combinée Basse
Vitesse d'acquisition Moyenne à haute Meilleure
Fenêtrage Limité Etendu
Effet Anti-éblouissement Haut à aucun haut
Power supply and pulsing High voltage, different Lower voltage, easy

En bref ...

Les capteurs CCD offrent une meilleure qualité d'image, une meilleure sensibilité, dynamique ainsi qu'une exposition synchronisée de tous les pixels. Les capteurs CMOS permettent de réaliser des caméras plus compactes, offrant des cadences d'acquisition plus importantes, et sont donc plus souples dans leur utilisation.

D

Dual-GigE

Les interfaces actuelles comme GigE et USB 2.0 on une limite naturelle : La bande passante. Cette limite interdit l’utilisation de caméras rapides et très résolues. Les caméras Dual-GigE y remèdient et offrent donc le double de la bande passante (≤ 240 Mbytes/s) tout en étant « vue » du coté logiciel de façon identique, soit comme un simple « device ». Aucun complément technologique n’est nécessaire. Le standard “GigE Vision 2.0” définissant également Dual-GigE, cette gamme de caméra peut donc utiliser ce standard établi et fiable. Par rapport à des modèles 10-GigaEthernet, USB 3.0, CoaXpress, Camera Link HS, la programmation des mvBlueCOUGAR-XD est plus simple et leur consommation est nettement moindre. De plus, elles peuvent utiliser l’infrastructure réseau actuelle, ce qui n’est pas encore le cas pour le format 10-GigE (Réseau encore confidentiel et onéreux).

G

GenICam

GenICam est l'acronyme de "GEN" (Generic programming),  "I" (interface) et "CAM" (Cameras). C'est un standard générique d'accès et de modification des paramètres d'une unité électronique, à l'aide d'une interface unifiée.

Un élément "Genicam" donne l'accès à un "Genicam description File", soit dans sa mémoire interne, soit sur le disque dur ou sur un site web spécifique. Ce fichier peut être considéré comme un manuel d'utilisation de l'organe. Il propose un nom d'utilisateur, et différentes valeurs de paramètres offerts par l'organe, le format des lectures / écritures possiblement échangées avec l'organe. Cette description est écrite au format XML.

Pour plus d'information, merci d'explorer http://www.genicam.org.

GigE Vision

GigE Vision est un protocole réseau défini pour la communication entre un organe d'imagerie et son application. Ce protocole décrit complètement :

  • Découverte de l'organe
  • Transmission de données :
    • Données image
    • Données complémentaires
  • Lecture / Ecriture des paramètres

GigE Vision utilise UDP pour la transmission des données, dans le but de réduire la redondance d'informations du mode TCP.

Note: UDP ne garantit pas l'ordre dans lequel les paquets arrivent au client, ni son arrivée effective chez le client. Malgré tout, GigE Vision définit des mécanismes qui permettent de reconnaitre des paquets perdus. Ceci permet au créateur des pilotes d'organes de réaliser des algorithmes de reconstruction d'image ou de données en réclamant à l'organe de réenvoyer les paquets égaréss, jusqu'à ce que le buffer soit complet. Pour plus d'information, merci d'explorer http://www.machinevisiononline.org/public/articles/index.cfm?cat=167

Le pilote-filtre de capture GigE vision MATRIX VISIO, tout comme les "socket" de base d'acquisition de tous les produits GigE Vision MATRIX VISION, offrent la fonctionnalité de réenvoyer les paquets perdus, et donc de reconstruire complètement le buffer la plupart du temps. Ceci bien sûr n'est pas au bénéfice de la bande passante maximum de la transmission. Egalement, si la transmission est trop longtemps engorgée, les données risquent d'être définitivement perdues.

Les deux structures pilote vont permettent de paramétrer finement le mécanisme de réenvoi ainsi que délivrer des informations précises sur le volume de données perdu et réclamé. Ces informations et possibilités de configuration feront partie de l'environnement de développement. Plus plus d'information, merci d'explorer les descriptions d'interfaces correspondantes.

H

HRTC

Le Controleur Matériel Temps-Réel MATRIX VISION's (Hardware Real-Time Controller ou HRTC) est un composant équipant le FPGA interne, utilisé pour contrôler les entrées/sorties "critiques" et l'acquisition d'images. Pour cette raison, le HRTC remplace l'utilisation du PLC de la caméra et contrôle la totalité du processus d'acquisition.


Un programme HRTC consiste en une succession d'opérations pas à pas, exécutées par le contrôleur. Pour la création de cette séquence d'opérateurs, vous pouvez utiliser, par exemple, l'interface graphique  wxPropView.

tl_files/mv11/images/support/faq/wxPropView_HRTC_programm.jpg

Figure 1: Création d'un programme HRTC dans wxPropView

L'exemple en figure 1 montre comment réaliser une acquisition de 10 images/s en 5 lignes de programme.

Pour plus d'informations, merci d'explorer  "HRTC - Hardware Real-Time Controller" (here mvBlueFOX).

Note: Pour utiliser le HRTC, vous devez sélectionner le mode de trigger (TriggerMode) et la source du trigger (TriggerSource) (C++ syntax):

CameraSettings->triggerMode = ctmOnRisingEdge
CameraSettings->triggerSource = ctsRTCtrl

Dans wxPropView:

tl_files/mv11/images/support/faq/wxPropView_HRTC_setting.jpgFigure 2: Set HRTC as TriggerSource

Domaines d'utilisation et d'application

Les courants technologiques actuels semblent s'orienter vers l'usage de bus système comme IEEE1394, USB et Gigabit Ethernet, qui ne sont pas "Temps Réel". Si l'application réclame le pilotage complexe de triggers ou de flash, une caméra possèdant des entrées/sorties et triggers comme le mvBlueFOX peut être utilisée, ou nécessiter l'utilisation de cartes entrées/sorties additionnelles.

Mais l'utilisation des entrées/sorties de ces cartes additionnelles peut être compromise par les "latences" toujours possibles des bus systèmes. C'est pourquoi il semble logique de rapprocher la partie "Temps-Réel" de l'acquisition de la source d'images. Cela simplifie aussi notablement le câblage.


Les applications possibles (excerpt) sont :

  • génération de signaux de trig
  • Synchronisation de plusieurs caméras
  • Génération rapide de séquences d'images, avec des temps d'exposition et de contrôle du flash différents
  • Acquisition d'une image noire, puis blanche, pour constituer une image de référence
  • Exposition d'une image à l'aide de différentes longueurs d'onde (Rouge, Vert, Infrarouge)

tl_files/mv11/images/support/faq/Server_camera_en.jpg

Figure 3: Chaine de traitement, du capteur au serveur : Plus de composants interviennent, plus probables sont les frictions ...

Example: Décaler l'instant d'exposition d'une chaine de caméras

Si un délai d'acquisition est nécessaire entre plusieurs caméras, (ici un mvBlueFOX), le HRTC peut réaliser l'opération.

Dans ce cas, 1 caméra doit être "maitre". Le trigger externe qui va démarrer l'acquisition doit être connecté à au moins 1 entrée numérique de l'une des caméras. 1 sortie numérique doit être connectée à la caméra suivante. Ainsi, la caméra 1 utilise sa sortie digitale pour trigger l'acquisition de la caméra 2. Comment connecter les deux caméras est reproduit dans le schéma ci-après :

tl_files/mv11/images/support/faq/HRTC_sample_connection.jpg

Figure 4: Diagramme de connexion pour décaler l'acquisition d'une caméra par rapport à une autre

Dans le cas présent, nous avons connecté le trigger externe à l'entrée 0 de la caméra 1, et que sa sortie 0 est connectée à l'entrée 0 de la caméra 2.toutes les autres caméras peuvent ensuite être chainées de la même façon. Le HRTC de la caméra 1 doit être programmé comme suit :

0. WaitDigin DigIn0->On
1. TriggerSet 0
2. WaitClocks <trigger pulse width>
3. TriggerReset
4. WaitClocks <delay time>
5. SetDigout DigOut0->On
6. WaitClocks 100µs
7. SetDigout DigOut0->Off
8. Jump 0

<trigger pulse width> should not less than 100µs.

Quand les caméras sont prêtes à déclencher l'acquisition sur le front montant du trigger, l'exposition est <delay time> minus <trigger pulse width>. Si plus de deux caméras doivent être connectées comme cela, chaque caméra, exceptée la dernière, doit être programmée avec le programme ci-dessus. Bien entendu, les temps de décalage peuvent varier au choix.

tl_files/mv11/images/support/faq/HRTC_sample_diagram.jpg

Figure 5: Décalage de l'acquisition de la caméra

Produits

Les produits ci-dessous possèdent un HRTC :

M

Mode "Haute Dynamique" (High Dynamic Range)

Le mode HDR ((High Dynamic Range) augmente le niveau de contraste utilisable. Ceci est réalisé en divisant le temps d'intégration en 2 ou 3 phases. Le temps d'exposition de chacune des phases peut être fixé indépendamment des autres. De plus, il est possible de fixer quelle proportion de signal doit être retenu.

Fonctionnement

tl_files/mv11/images/support/faq/HDR_mode_01.gif

Figure 1: Diagramme du mode HDR du capteur -x00w

Description

  • Phase 0
    • Durant T1 tous les pixels sont intégrés, jusqu'à atteindre le niveau de signal défini au point 1.
    • Si 1 pixel atteint ce niveau, l'intégration de signal est interrompue.
    • Durant T1, aucun pixel ne peut dépasser un niveau de signal supérieur à T1.
  • Phase 1
    • Durant T2 tous les pixels sont intégrés, jusqu'à atteindre le niveau de signal défini au point 2.
    • T2 est toujours inférieur à T1 de façon à ce que le pourcentage, comparé au temps total d'exposition est inférieur.
    • De plus l'augmentation du signal durant T2 est inférieure à celle durant T1.
    • Le niveau de signal max. du point 2 est supérieur au point 1.
  • Phase 2
    • Durant T3, tous les pixels sont intégrés, jusqu'à possible saturation.
    • T3 esst toujours plus petit que T2, de sorte que le pourcentage, comparé au temps d'exposition total, soit encore plus faible.
    • De plus, l'augmentation du signal durant T3 est plus faible que durant T2.

Pour cette raison, les pixels les plus sombres sont intégrés le plus longtemps possible pendant le temps d'intégration total, permettant au capteur d'exprimer sa pleine sensibilité. Les autres pixels, qui sont sous le contrôle de chaque point d'inflexion, perdent une partie de temps d'intégration, d'autant plus qu'ils ont des chances d'être plus clairs.

tl_files/mv11/images/support/faq/HDR_mode_02.gif

Figure 2: Temps d'intégration de différents pixels clairs

Dans le diagramme vous voyez la ligne de signal de trois pixels clairs différents. La pente dépend de l'intensité de la lumière, et ce schéma est donc identique pour chacun des pixels de l'image (on assume que l'intensité lumineuse est constante pendant tout le temps d'intégration).

Etant donné que les pixels les plus clairs sont limités aux alentours des niveaux de signal S1 et S2, le temps total d'intégration est plus faible que celui des pixels sombres. En pratique, les divisions du temps d'intégration total sont très différentes. T1, par exemple, représente 95% de Ttotal, T2 seulement 4% et T3 seulement 1%. Ainsi, on peut modérer très fortement l'intensité des pixels les plus clairs. Cependant, si vous souhaitez diviser le temps d'intégration en 3 parties, telles que S2 = 2 x S1 et S3 = 3 x S1, une luminosité 100 fois plus importante est nécessaire pour 1 pixel pour passer de S2 à S3, comparé au passage de 0 à S1.

Utiliser le mode HDR sur le capteur -x00w

La Figure 3 présente l'utilisation du mode HDR. Ici, une séquence d'images a été créée avec un temps d'intégration entre 10ms et 100ms. Vous pouvez voir les 3 penes du mode HDR. Les "vagues" résultent de l'arrondi durant les trois phases d'exposition. Elles peuvent être partiellement ajustées pendant une période ligne du capteur.

tl_files/mv11/images/support/faq/HDR_mode_03.gif

Figure 3: Copie d'écran wxPropView mode HDR

Note concernant l'usage du mode HDR avec le mvBlueFOX-200w (Caméra USB 2.0)

  • En mode HDR, l'amplification de base est réduite à 0.7, pour pouvoir utiliser la grande et large plage dynamique du capteur.
  • Si le gain est manuellement augmenté, l'effet sera inverse.
  • Des temps d'exposition trop brefs n'ont aucun sens. Durant la troisième phase, si le temps d'exposition est ramené à la limite inférieure possible (à savoir le temps d'acquisition d'une ligne), le plancher de la sensibilité du capteur est atteint.

Paramètrages possibles du mvBlueFOX-200w

HDREnable

  • Off : Standard mode
  • On : HDR mode on, reduced amplification
    • HDRMode:
      • Fixed setting with 2 Knee Points. modulation 0 .. 33% / 1 .. 66% / 2 .. 100%
        • Fixed0: Phase 1 exposure 12.5% , Phase 2 31.25% of total exposure
        • Fixed1: Phase 1 exposure 6.25% , Phase 2 1.56% of total exposure
        • Fixed2: Phase 1 exposure 3.12% , Phase 2 0.78% of total exposure
        • Fixed3: Phase 1 exposure 1.56% , Phase 2 0.39% of total exposure
        • Fixed4: Phase 1 exposure 0.78% , Phase 2 0.195% of total exposure
        • Fixed5: Phase 1 exposure 0.39% , Phase 2 0.049% of total exposure
      • User: Variable setting of the Knee Point (1..2), threshold and exposure time proportion
        • HDRKneePointCount: Number of Knee Points (1..2)
        • HDRKneePoints
          • HDRKneePoint-0
            • HDRExposure_ppm: Proportion of Phase 1 compared to total exposure in parts per million (ppm)
            • HDRControlVoltage_mV: Control voltage for exposure threshold of first Knee Point (3030mV is equivalent to approx. 33%)
          • HDRKneePoint-1
            • HDRExposure_ppm: Proportion of Phase 1 compared to total exposure in parts per million (ppm)
            • HDRControlVoltage_mV: Control voltage for exposure threshold of first Knee Point (2630mV is equivalent to approx. 66%)
MvIMPACT Acquire

mvIMPACT Acquire est l'API (Interface de programmation d'application) actuelle pour tous les produits MATRIX VISION. Un certain nombre de langages de programmation sont supportés, comme :

  • C,
  • C++,
  • C# et
  • VB.NET.

R

Rolling Shutter

Certaines caméras industrielles MATRIX VISION  our caméras intelligentes utilisent des capteurs CMOS fonctionnant en mode Rolling Shutter. Cela signifie que l'exposition réelle de chaque ligne d'image commence et se termine à des moments différents. (Voir figure 1)

tl_files/mv11/images/support/faq/Rolling_shutter_01.gif

Figure 1: L'exposition de chaque ligne commence et s'arrête à des instants différents

La figure 1 a 2 sections. La partie gauche montre deux états du capteur avec un bloc de lignes qui se décale sur le capteur. La zone blanche détermine la zone sensible à la lumière. Cette zone se déplace de haut en bas de l'image. Par exemple, si vous choisissez un temps d'exposition de 100 lignes, cette surface aura 100 lignes de haut. Quand cette "fenêtre d'intégration" se déplace d'une ligne, cette ligne doit être réinitialisée (reset en bleu). Au sommet de la fenêtre, la ligne qui sort de la fenêtre doit être lue (read out, en rouge) après avoir été exposée pendant 100 lignes.

chaque ligne est "ouverte" à la lumière pendant le temps d'intégration défini par l'utilisateur. Cependant, cette "exposition" est bien décalée dans le temps. La section droite de la figure 1 tente de clarifier cela avec l'aide d'un diagramme Lignes/temps. Ligne après ligne, le départ de l'exposition se décale, soit se déplace vers la droite. De plus, la partie droite de la figure expose les phases de l'acquisition d'image en rolling shutter. Chaque ligne réalise un reset, une exposition, et un transfert des valeurs de pixels. Le temps entre le transfert de la première ligne et celui de la dernière définit la cadence d'acquisition. Pour résumer :

  
                                                      1
Nombre d'images/s = -----------------------------------------
                               temps de transfert * hauteur d'image

Si le temps d'exposition est plus long que le temps de transfert, il faut remplacer dans la formule le temps de transfert par le temps d'exposition.

Effets d'exposition lors d'un mouvement horizontal

Pendant le temps d'exposition, si un objet bouge horizontalement, vous obtiendrez une image déformée. La figure 2montre le déplacement de l'objet de gauche à droite. Durant l'acquisition décalée ligne à ligne due au principe du rolling shutter, qui n'a que trois lignes de haut pour la démonstration, vous notez les différents parties de l'objet dans différentes positions. Le résultat "composite" montre clairement la déformation géométrique de l'objet acquis. Egalement, l'objet peut être légèrement flou du à sa vitesse de déplacement.

tl_files/mv11/images/support/faq/Rolling_shutter_02.gif

Figure 2: Décalage de l'image de l'objet pendant l'acquisition

En regardant attentivement le mouvement ligne à ligne de l'objet, il est étonnant de constater la faible distance parcourue par l'objet. Par exemple,si nous manipulons un capteur à rolling shutter de 480 pixels à une fréquence d'acquisition de 30hz (30 images/s), un objet ayant une vitesse de 10m/s (soit 36km/h) couvrira une distance de 0,694 millimètres pendant chaque changement de ligne.


14400 lignes sont lues chaque seconde: 

  
                                      lignes
Lignes lues = 30Hz * 480 lignes = 14400 ------
                                        s

Autrement dit, toutes les 0.0000694 secondes un changement de ligne intervient :

  
                        1
line_change = ----- = 0.0000694 s
                    14400

Si l'objet a une vitesse de 10m/s, il couvre une distance de 0.694 mm pendant chaque changement de ligne :

  
s = v * t 
        m
s = 10 --- * 0.0000694 s
        s
s = 0.000694 m = 0.694 mm

Pour cette raison, un capteur à Rolling shutter est adapté à la capture d'objets en mouvement seulement à une cadence d'image suffisamment rapide.

Effets d'exposition lors d'un mouvement vertical

Durant une exposition, si l'objet se déplace verticalement, vous obtiendrez une image compressée ou dilatée verticalement. Cela dépend du sens de déplacement. La figure 3 montre un objet qui bouge verticalement en opposition avec le déplacement du capteur, qui n'a que trois lignes pour la démonstration. L'exemple montre que l'objet est compressé. L'image résultante le montre clairement.

tl_files/mv11/images/support/faq/Rolling_shutter_03.gif

Figure 3: Effet de compression consécutif à un déplacement vertical.

L'effet Rolling shutter peut aussi être utilisé à son avantage. L'intégration ligne à ligne réduit fortement le flou d'un objet en déplacement rapide. En conséquence, le temps d'intégration peut être doublé.

tl_files/mv11/images/support/faq/Rolling_shutter_04.gif

Figure 4: Réduction du bruit en mode Rolling shutter

Contrôle du flash sur capteurs CMOS à rolling shutter

Le contrôle d'un flash sur un capteur CMOS à rolling shutter est limité. Le temps d'exposition doit être suffisamment long pour éclairer toutes les lignes en même temps (voir figure 4 "Intégration de toutes les lignes"). le déclenchement du flash doit être dans la période "Intégration de toutes les lignes" et son temps d'exposition guère plus long que ce même laps de temps.

tl_files/mv11/images/support/faq/Rolling_shutter_05.gif

Figure 5: Fenêtre d'utilisation d'un flash

Dans ce modus operandi, vous devez garder à l'esprit qu'il n'y a pas de lumière supplémentaire pendant l'exposition des lignes. (Temps d'exposition).

S

SDK / Interfaces MATRIX VISION

SDK signifie "Software Development Kit"

mvSDK

  • La plus vieille interface de MATRIX VISION
  • Très proche du matériel
  • Longue à développer
  • Chaque matériel a sa propre DLL
  • Pas orientée objet
  • Plus "supporté" par le service technique

mvAcquireControl

  • successeur du mvSDK
  • Basé sur chaque driver de carte (mvDSK fonctionne au niveau matériel)
  • Interface C et C++ interface disponible pour l'utilisateur
  • Plus "supporté" par le service technique 

mvIMPACT Acquire

  • Interface actuelle depuis 2004
  • incompatible avec mvSDK et mvAcquireControl
  • orientée objet
  • Wrapper C and .NET disponible pour l'utilisateur
  • Toutes les applications basées sur mvIMPACT Acquire fonctionnent avec toutes les familles de produits MATRIX VISION
SNFC

Standard Feature Naming Convention de GenICam.

La dernière liste des "propriétés" peut être consultée ici : http://www.emva.org/genicam/genicam%E2%84%A2_document_download

Le fichier est appelé "GenICam™ Standard Features Naming Convention (PDF)".

T

Traitement d'image Numérique, Vision Industrielle

Le traitement d'images numériques, la Vision Industrielle sont couramment utilisés pour définir le traitement des données d'une image réelle.

A la différence du traitement manuel d'une image numérique (édition d'images), le traitement d'images numériques implique :

  • L'extraction automatique de critères spécifiques dans l'image acquise, pour d'éventuels traitements ultérieurs ou pour une analyse
  • Les données images ne sont pas toujours demandées "in fine", voire jamais affichées
  • Les acquisitions d'images et leur traitement est automatique, utilisant des procédures et séquences de traitement prédéfinies dans des systèmes sécurisés.
  • La compléxité de certains algorithmes de traitement d'images peut nécessiter du matériel spécifique pour éxecuter le traitement.

Domaines d'utilisation et d'application

Voici des exemples d'applications dans différents domaines d'utilisation :

Automation, industrie

  • Contrôle qualité de pièces détachées (dimensionnel, présence / absence de composants)
  • Contrôle de surfaces imprimées, de montage correct de composants sur circuits imprimés
  • Contrôle et suivi de production de matériaux produits en continu
  • Visualisation d'une production en continu dans une salle de contrôle

Microscopie (médecine, recherche)

  • Amélioration et analyse de phénomènes microscopiques
  • Acquisition et calcul d'images en microscopie électronique
  • Extraction de scan laser en ophtalmologie

Médecine

  • Diagnostic de fond d'oeil
  • Classification de brûlures
  • Acquisition de profils dentaires

Ingénierie de la Sécurité

  • Compression et enregistrement de séquences d'images dans les banques et les stations services
  • Analyse d'objets dans des images (technologie vidéo sensor)
  • Technologie Imagerie Infrarouge
  • Enregistrements des transactions sur DAB (Distributeur Automatique de Billets)

Ingénierie du trafic

  • Surveillance, reconnaissance et contrôle du trafic routier
  • Facturation, gestion de parking par lecture de plaques minéralogiques
  • Caméras embarqués : Contrôle de la distance inter-véhicule, rétroviseurs électroniques, reconnaissance de la signalisation horizontale, verticale
  • Surveillance, inspection d'éléments à haut risque (turbines d'aviation)

Commerce

  • Contrôle, évaluation de stock
  • Comptage clients pour optimiser les surfaces de vente

U

USB ou Firewire ?

Dans le domaine de la Vision industrielle, le processus de remplacement des caméras analogiques, connectées à une carte d'acquisition dans un PC, par une caméra numérique est bien avancé et inéluctable. Pour les applications les plus ambitieuses en termes de performances, les caméras ont toujours besoin de processeurs d'acquisition dédiés, mais pour les systèmes d'entrée et de milieu de gamme, les caméras USB 2.0 et Firewire semblent être des candidats très intéressants.

Pourquoi avons-nous USB comme interface pour nos caméras industrielles ?

La technologie USB présente, par rapport au FireWire, des avantages certains :

  • L'interface USB est présente sur tous les laptops, PCs et systèmes embarqués industriels.
  • L'interface USB garantit un transfert de données sécurisé.
  • L'allocation de bande passante est dynamique (a contrario de DCAM [1894-based Digital Camera Specification], qui fonctionne en Isosynchrone).

Quels avantages présente la caméra industrielle USB 2.0 mvBlueFOX from MATRIX VISION?

En plus des avantages inhérents à l'interface USB 2.0 et sa manipulation aisée, le mvBlueFOX offre des avantages complémentaires :

  • Le HRTC (Hardware Real-Time Controller) contrôle précisément et de façon flexible les I/O et l'acquisition
  • De nombreuses possibilités de trigger sont disponibles.
  • La caméra peut être contrôlée dynamiquement (Changement de paramètres "à la volée")
  • Chaque image peut être acquise avec ses propres paramètres
  • Un connecteur USB industriel est disponible. La caméra est alimentée par le bus USB.
  • Les capteurs CCD sont précisément ajustés au montage. La précision de placement est infèrieure à 1%.
  • Les caméras sont disponibles au format module OEM.
  • Les paramètres utilisateurs peuvent être sauvegardés dans la caméra.
  • Les pilotes performants comprennent de nombreuses fonctionnalités de traitement d'images.
  • Une interface utilisateur unifiée pour tous les produits MATRIX VISION (cartes d'acquisition, caméras) est disponible.
  • Les pilotes sont disponibles sous Linux (ainsi que pour les systèmes embarqués type ARM, PPC etc.).
USB3 Vision

USB3 Vision is a standard for the image processing industry, which defines the communication between image acquisition device and application via USB 3.0. Ce protocole décrit complètement :

  • Découverte de l'organe
  • Transmission de données :
    • Données image
    • Données complémentaires
  • Lecture / Ecriture des paramètres