Home > Videoanalyse - Analytics > VE150 – Erweiterte Bewegungserkennung
Der Algorithmus VE150 ist ideal für die Bewegungsverfolgung im Innen- und Außenbereich. Der Algorithmus kann zwischen Personen und Fahrzeugen unterscheiden und dabei erkennen, ob das Objekt stoppt, startet oder sich einfach nur durch die Szene bewegt. Auf der Grundlage dieser Merkmale können Alarmregeln aufgestellt werden.
Typische Anwendungsbereiche sind unter anderem:
• Gewerbegebäude, in denen Personen und Fahrzeuge erkannt werden sollen, und
• Militärstützpunkte, wo Objekte erkannt werden sollen, die eine Alarmzone betreten oder vordefinierte Bereiche durchqueren, sowie
• Autohändler und Baustellen, bei denen ganztags arbeitendes Wachpersonal keine kostengünstige Lösung für das Erkennen von Personen oder Fahrzeugen außerhalb der Betriebszeiten sind.
Der VE150-Algorithmus produziert im Vergleich mit herkömmlichen Algorithmen zur Bewegungserkennung eine wesentlich geringere Anzahl an Fehlalarmen, die durch Veränderungen in der Außenumgebung verursacht werden. Es sind verschiedene VE150-Betriebsarten verfügbar, die zur Personenzählung im Innenbereich und zur Erfassung der Verweildauer verwendet werden können.
Aufgabe 1: VE150 konfigurieren
So konfigurieren Sie den Algorithmus VE150:
1 In Symphony Client wählen Sie im Menü Server die Option Konfiguration. Das Dialogfeld Konfiguration wird geöffnet. In diesem Dialogfeld können Sie Geräte für den ausgewählten Server konfigurieren.
2 Klicken Sie im linken Fenster auf Geräte. Das Dialogfeld Geräte wird geöffnet.
3 Wählen Sie die Kamera, die Sie für die Verwendung mit der Videoanalyse konfigurieren möchten, und klicken Sie auf Bearbeiten.
4 Klicken Sie auf die Registerkarte Algorithmen und wählen Sie VE150. Da standardmäßig die Option VE250 ausgewählt ist, müssen Sie zuerst die Auswahl für VE250 aufheben.
5 Klicken Sie auf die Registerkarte Analysekonfiguration (.
Registerkarte „Analysekonfiguration“ für den VE150-Algorithmus
Registerkarte „Analysekonfiguration“
6 Wählen Sie in der Dropdown-Liste Algorithmen die Option Intel_VE150.
7 Klicken Sie auf die untergeordnete Registerkarte Bewegungsanalyse. Es wird ein aktuelles Videobild aus dem Video angezeigt.
Untergeordnete Registerkarte „Bewegungsanalyse“
8 Wählen Sie in der Dropdown-Liste Betriebsmodus eine Betriebsart aus. Im Feld Status wird der ausgewählte Betriebsmodus beschrieben.
• Analyse im Außenbereich
• Personenerkennung (45-Grad Kameras)
• Personenerkennung (Überkopf-Kameras)
• Personenzählung (Überkopf-Kameras)
• Erkennung falscher Bewegungsrichtung
• Einfache Objekterkennung (Blob Detection)
9 Legen Sie einen Bildbereich für die Bewegungserkennung der Kamera fest. Wenn das Bild hierfür nicht geeignet ist, klicken Sie auf Bild auswählen. Das Dialogfeld Bild auswählen wird geöffnet. Wählen Sie ein Bild in der Zeitleiste aus.
10 Maskieren Sie im angezeigten Videobild einen Bereich gelb, in dem sich bewegende Objekte erkannt werden sollen. (Sie haben noch Fragen zu diesem Konzept? Weitere Informationen hierzu finden Sie unter Masken: Bereiche, in denen Symphony Objekte verfolgt.)
• Wählen Sie die Option Löschen, um die gelbe Maske zu löschen.
• Wählen Sie die Option Zeichnen, um die gelbe Maske zu zeichnen.
• Mit dem Regler Größe können Sie die Strichstärke anpassen.
Untergeordnete Registerkarte „Kameraposition“
1. Klicken Sie auf die untergeordnete Registerkarte Kameraposition. Welche Optionen unter Kameraposition verfügbar sind, hängt davon ab, welchen Betriebsmodus Sie auf der untergeordneten Registerkarte Bewegungsanalyse ausgewählt haben.
Betriebsmodi: Analyse im Außenbereich, Personenerkennung (Überkopf-Kameras) und Erkennung falscher Bewegungsrichtung |
Legen Sie die Kameraposition relativ zu den Objekten im aufgezeichneten Bild fest:
Ändern Sie die drei Linien so, dass die Größe der Referenzpersonen in der aufgenommenen Szene exakt dargestellt wird. (Weitere Informationen hierzu finden Sie unter Perspektive.) • Ziehen Sie die Linien an den Linienendpunkten auf die gewünschte Länge. • Verschieben Sie die Linie, indem Sie den Mauszeiger auf der Mitte der Linie positionieren und ziehen. • Mit Linien wird die Entfernung entlang des Bodens dargestellt. • Der angegebene Wert soll nur den Bezug der Linien untereinander zeigen (Vordergrund im Vergleich zu einer Fläche in der Entfernung). Daher sind die Entfernungsangaben unwichtig. • Zum Verschieben einer Referenzperson klicken Sie mit der linken Maustaste auf einen Fuß der Person und ziehen Sie die Person mit der Maus an die gewünschte Stelle. • Zum Hinzufügen einer Referenzperson klicken Sie mit der rechten Maustaste an der gewünschten Stelle im Bild. • Zum Löschen einer Referenzperson klicken Sie mit der linken Maustaste auf eine Person und drücken Sie anschließend die Entf-Taste. Betriebsmodus „Analyse im Außenbereich“ |
Betriebsmodus: Personenerkennung (Überkopf-Kameras) |
Legen Sie die Kameraposition relativ zu den Objekten im aufgezeichneten Bild fest:
• Sie können alle türkisfarbenen Objekte konfigurieren. • Ziehen Sie den türkisfarbenen Mittelpunkt des mittleren Rahmens an eine Position direkt unterhalb der Kamera. • Ändern Sie die Größe des mittleren Rahmens mithilfe der Eckpunkte, sodass der Rahmen einer Person mit durchschnittlicher Größe entspricht. • Ändern Sie die türkisfarbenen Linien des äußeren Rahmens, sodass der Rahmen einer Person mit durchschnittlicher Größe entspricht. • Wenn die Kamera sehr hoch angebracht und senkrecht nach unten auf den Boden ausgerichtet ist, legen Sie für alle drei Rahmen dieselbe Größe fest. Betriebsmodus „Personenerkennung (Überkopf-Kameras)“ |
Betriebsmodus: Personenzählung (Überkopf-Kameras) |
Legen Sie die Kameraposition relativ zu den Objekten im aufgezeichneten Bild fest:
• Sie können alle türkisfarbenen Objekte konfigurieren. • Ziehen Sie den türkisfarbenen Mittelpunkt des mittleren Rahmens an eine Position direkt unterhalb der Kamera. • Ändern Sie die Größe des mittleren Rahmens mithilfe der Eckpunkte, sodass der Rahmen einer Person mit durchschnittlicher Größe entspricht.
Betriebsmodus „Personenzählung (Überkopf-Kameras)“ |
2 Klicken Sie auf Übernehmen, um die Einstellungen zu speichern.
1 Stellen Sie sicher, dass die Masken Kameraposition und Bewegungsanalyse ordnungsgemäß eingerichtet wurden, und klicken Sie anschließend auf die untergeordnete Registerkarte Zähllinie.
2 Die Option Zähllinie zeichnen ist standardmäßig ausgewählt.
3 Klicken Sie mit der Maustaste in das Bild und zeichnen Sie eine Linie. Objekte (Personen und Fahrzeuge), die diese Linienmarkierung überschreiten, werden gezählt.
4 Die Linie enthält Pfeile, die angeben, ob es sich um eine Bewegung in den eingezeichneten Bereich oder aus dem Bereich handelt.
5 Klicken Sie auf OK, um die Einstellungen zu speichern, oder klicken Sie auf die untergeordnete Registerkarte Erweitert, um weitere Einstellungen vorzunehmen.
Wichtig: Die untergeordnete Registerkarte Erweitert ist nur für erfahrene Benutzer vorgesehen. Die Werte sollten nur dann geändert werden, wenn der Algorithmus nicht wie erwartet funktioniert. |
1. Geben Sie eine Bildrate im Feld Analyse fps ein.
• Dieser Wert gibt an, wie viele Bilder vom System analysiert werden. Der Standardwert sollte üblicherweise nicht verändert werden. In einigen Fällen kann für eine geringere CPU-Auslastung die Bildrate reduziert werden. Dadurch kann allerdings die Leistung des Algorithmus beeinträchtigt werden.
• Wie bei Auflösung Analyse kann auch für Analyse FPS eine andere Bildrate als der unter Aufzeichnung (FPS) angegebene Wert festgelegt werden.
2 Ändern Sie ggf. die Einstellungen unter Auflösung Analyse.
• Wenn Sie für Auflösung Analyse denselben Wert wie für Auflösung Aufnahme festlegen, werden auch Objekte in großer Entfernung erkannt. Natürlich kann zur Entlastung der CPU die Bildrate des Videos für die Analyse reduziert werden. Dabei ist aber zu bedenken, dass eine geringere Bildrate zwar die CPU entlastet, gleichzeitig jedoch auch den Erkennungsbereich der Videoanalyse verkleinert.
3 Wählen Sie in der Dropdown-Liste Hintergrundmodell das Modell aus, das sich am besten für die Aufzeichnungsumgebung der Kamera eignet (z. B. ein Bereich mit viel Bewegung). Eine vollständige Beschreibung zur Verwendung von Hintergrundmodellen finden Sie in Verwendung von Hintergrundmodellen.
Wichtig: Die Anpassung des Hintergrundmodells ist die beste Methode, Fehlalarme zu verringern. (Es wird jedoch mehr CPU benötigt.) |
Verwendung von Hintergrundmodellen
Hintergrundmodell |
Verwendung |
Statisch |
Verwenden Sie dieses Modell in Situationen mit relativ statischem Hintergrund (keine regelmäßige Bewegung im Hintergrund, z. B. schwankende Bäume). Es ist das schnellste Symphony-Hintergrundmodell. |
Dynamisch |
Dieses Modell wird in Szenen mit sich regelmäßig bewegenden Objekten verwendet (z. B. der Zweig eines Baumes, der sich bei gleichmäßigem Wind vor und zurück bewegt, oder bei instabiler Befestigung der Kamera). Obwohl dieses Hintergrundmodell sowohl statische als auch dynamische Hintergründe verarbeiten kann, sorgt es für eine stärkere CPU-Auslastung als das Modell Statisch und wird daher nicht für statische Hintergründe empfohlen.
Wichtig: Umgebungen, die tagsüber statisch sind, können sich nachts beispielsweise durch Regen in eine dynamische Umgebung ändern. Sie sollten daher die Einstellung Dynamisch wählen. |
Dynamisch (Dual Layer) |
Dieses Modell entspricht dem Hintergrundmodell Dynamisch, kann jedoch zusätzlich Objekte verfolgen, die sich für kurze Zeit nicht bewegen. Verwenden Sie dieses Modell in Außenbereichen, in denen Sie beispielsweise Personen verfolgen möchten, die 30 bis 60 Sekunden stillstehen. |
Spatio-Temporal |
Dieses Hintergrundmodell verfolgt nur gleichmäßige Bewegungen und kann daher die Anzahl der Fehlalarme, die durch Äste und andere zufällig durch den Wind bewegte Objekte ausgelöst werden, drastisch reduzieren. Dieses Modell führt zu einer stärkeren CPU-Auslastung und reduziert den Erkennungsbereich der Videoanalyse. |
4 Mehrere Optionen und Standardeinstellungen werden abhängig davon angezeigt, welcher Betriebsmodus und welches Hintergrundmodell ausgewählt wurden. Bevor Sie eine Option auswählen, lesen Sie zunächst die in Erweiterte Optionen, die je nach ausgewähltem Hintergrundmodell verfügbar sind aufgeführten Informationen zu dieser Option.
Erweiterte Optionen, die je nach ausgewähltem Hintergrundmodell verfügbar sind
Option |
Beschreibung |
Standardeinstellung |
Typisches Verhalten lernen |
Ermittelt die prozentuale Bewegungszeit jedes Pixels und kann diese Zeit nachträglich ignorieren. Diese Einstellung ist z. B. bei der Überwachung von Booten auf dem Wasser sinnvoll. |
Falsch |
Optionen |
||
Darstellung |
Mögliche Einstellungen: manuell anpassen, leuchtend/glänzend, matt grau |
Manuell anpassen |
Untere Grenze |
Verfügbar, wenn „Manuell anpassen“ ausgewählt wurde |
0,70 |
Obere Grenze |
Verfügbar, wenn „Manuell anpassen“ ausgewählt wurde |
1,50 |
Modus |
Mögliche Einstellungen: Kohärenz-Motion, Abnormales Verhalten, Falsche Richtung |
Kohärenz-Motion |
Objektform ignorieren |
Erkennt nur Bewegungsmuster. Darstellungen werden nicht berücksichtigt. |
Wahr |
Schwellwert |
Erkennungsschwellwert für spatio temporale (räumlich-zeitliche) Muster. |
0,03 |
Bg Frames |
Verfügbar, wenn „Abnormales Verhalten“ ausgewählt wurde |
255 |
Fg. Frames |
Verfügbar, wenn „Abnormales Verhalten“ ausgewählt wurde |
10 |
Richtung |
Verfügbar, wenn „Falsche Richtung“ ausgewählt wurde. Schreibgeschützt. |
242 |
Kontrast (Vordergrund) |
Legt den Mindestkontrast fest, den ein Objekt aufweisen muss, damit es als Vordergrundobjekt erkannt wird. Wichtig: Wenn hier ein hoher Wert festgelegt ist, werden Objekte mit einer ähnlichen Farbe wie der Hintergrund nicht als gültige zu verfolgende Objekte erkannt. |
Niedrig |
Hintergrund zurücksetzen nach Bildinhaltsänderung (%) |
Wenn sich dieser Prozentsatz des Bildes ändert, wird der Hintergrund zurückgesetzt. |
100 |
Kontrast (Vordergrund) für Erkennung von Kameraabdeckung |
Legt den Mindestkontrast zwischen Hintergrund und Vordergrund fest, ab dem eine Veränderung als Kameramanipulation angesehen wird. |
Niedrig |
Zeit, um Hintergrund zu lernen (sek) |
Bestimmt die ungefähre Dauer, bis ein Vordergrundobjekt, das sich nicht mehr bewegt, in den Hintergrund übernommen wird. Wichtig: Wenn sich ein Objekt periodisch bewegt und die Periode größer als die angegebene Zeit ist, wird das Objekt immer als Vordergrundobjekt angesehen (und niemals in den Hintergrund übernommen). Der Hintergrund wird auf Grundlage der letzten Videoeinstellung für Hintergrund aktualisieren (sek) ermittelt. Der Hintergrund wird nicht nur beim Start des Algorithmus, sondern grundsätzlich immer aktualisiert. |
15 |
Pause
nach großer Hintergrund- |
Hier können Sie festlegen, wie lange nach einer Zurücksetzung des Hintergrunds gewartet werden soll, bis die Objektverfolgung fortgesetzt wird. Idealerweise sollte dieser Wert „Null“ sein. Wenn jedoch ein bekanntes Beleuchtungsproblem vorliegt, das bei einem sofortigen Start der Verfolgung Fehlalarme verursachen würde, können Sie hier angeben, wie viele Sekunden bis zur Stabilisierung der Lichtverhältnisse gewartet wird. |
0 |
Oberer Schwellwert für Kontrast |
Der Kontrast des überwachten Objekts darf sich bis zu diesem Wert von dem gelernten Hintergrundmodell unterscheiden. Ist der Wert höher, wird das Objekt als Vordergrund erkannt. Wenn Sie einen niedrigen Wert (z. B. 5) festlegen, reagiert das Hintergrundmodell empfindlicher auf minimale Änderungen der Pixelintensität.
Hinweis: Die Bedeutung des Werts kann je nach Hintergrundmodell unterschiedlich sein. |
25 |
Geisterpixel entfernen |
Alle Pixel, deren Werte sich eine bestimmte Zeit lang nicht ändern, werden nicht für den Vordergrund berücksichtigt. |
Wahr |
Langsame
Objekte erkennen/Objekt- |
Erfasst Objekte, die sich sehr langsam durch das Videobild bewegen. Es kann sich auch um ein Objekt handeln, das sich direkt auf die Kamera zubewegt oder von dieser entfernt und somit als langsames Objekt erscheint.
Wenn die Option Langsame Objekte erkennen deaktiviert ist, werden diese Objekte eher Teil des Hintergrunds und somit nicht verfolgt. Durch Aktivierung dieser Option werden diese Objekte verfolgt.
Wichtig: Beachten Sie, dass diese Option möglicherweise die Anzahl an Fehlalarmen in Situationen erhöht, in denen sich ein Objekt im Videobild über einen längeren Zeitraum nicht bewegt. |
Falsch |
Empfindlichkeit Schatten |
Steuert, wie stark Schatten (Reduzierungen in der Beleuchtung) bei der Verfolgung sich bewegender Objekte ignoriert werden. Wenn Sie den Wert mithilfe des Reglers erhöhen (nach rechts), kann der Algorithmus mehr Schattenbereiche korrekt ignorieren.
Hinweis: Dadurch erhöht sich jedoch auch die Wahrscheinlichkeit, dass eine Person in dunkler Kleidung vor einem hellen Hintergrund als Schatten klassifiziert wird. |
Mitte (deaktiviert) |
Schlaglicht Empfindlichkeit |
Steuert, wie stark Erhöhungen der Beleuchtungsintensität ignoriert werden. Eine Erhöhung der Beleuchtungsintensität tritt aufgrund einer Lichtquelle auf, z. B., wenn ein Autoscheinwerfer aufleuchtet oder aus einem bedeckten Tag ein sonniger Tag wird. Wenn Sie den Wert mithilfe des Reglers erhöhen (nach rechts), kann der Algorithmus stärkere Beleuchtungen korrekt ignorieren.
Hinweis: Dadurch erhöht sich jedoch auch die Wahrscheinlichkeit, dass eine Person in heller Kleidung vor einem dunklen Hintergrund als Beleuchtungssteigerung klassifiziert wird. |
Mitte (deaktiviert) |
Auf Wolken prüfen |
Mit dieser Option können Bewegungen von Wolken ignoriert werden. |
Falsch |
Hintergrund auf plötzliche Bewegung prüfen |
Versucht, ungewollte Verfolgungen zu entfernen, die durch plötzliche Bewegungen im Hintergrund aufgrund von Wind verursacht werden. Zusätzlich werden ungewünschte Verfolgungen durch plötzliche Bewegungen der Kamera eliminiert. |
Falsch |
Maximaldistanz in Pixeln |
Verfügbar, wenn die Option Hintergrund auf plötzliche Bewegung prüfen aktiviert wird. Eine plötzliche Bewegung wird definiert als Bewegung eines Objekts oder der Kamera bis zu dieser Anzahl an Pixeln. |
5 (deaktiviert) |
Zeit
bis Langzeit- |
Diese Option ist nur für das Hintergrundmodell „Codebook (Dual-Dynamic)“ verfügbar. |
Falsch (deaktiviert) |
Zeit
bis Kurzzeit- |
Diese Option ist nur für das Hintergrundmodell „Codebook (Dual-Dynamic)“ verfügbar. |
Falsch (deaktiviert) |
Zeit
um Kurzzeit- |
Diese Option ist nur für das Hintergrundmodell „Codebook (Dual-Dynamic)“ verfügbar. |
Falsch (deaktiviert) |
Anfangs-Hintergrundmodell lernen in (sek) |
Diese Option ist nur für das Hintergrundmodell „Codebook (Dual-Dynamic)“ verfügbar. |
Falsch (deaktiviert) |
Klassifikation |
||
Automatische Klassifikation |
Objekte werden automatisch klassifiziert, z. B. als Fahrzeuge, Personen oder unbekannte Objekte. Umfasst zudem die Farbkennzeichnung. |
Wahr |
Alle erkannten Objekte werden als Fahrzeuge klassifiziert |
|
Falsch |
Alle erkannten Objekte werden als Personen klassifiziert |
|
Falsch |
Alle erkannten Objekte werden als Unbekannt klassifiziert |
|
Falsch |
Objekte erkennen |
||
Konturbasierte Segmentierung verwenden |
Bessere Segmentierung sich bewegender Objekte durch Verwendung der Kontur. |
Wahr |
Nur Menschen trennen |
Verfügbar, wenn Konturbasierte Segmentierung verwenden aktiviert wurde. Versucht, nahe Personen als individuell verfolgte Objekte zu behandeln. Es besteht die Möglichkeit, dass große Fahrzeuge als mehrere kleinere Objekte angezeigt werden. |
Falsch |
Verbinde Objekte näher als (Meter) |
Alle erkannten Objekte, die sich in der angegebenen Entfernung zueinander befinden, werden zu einem Objekt verbunden. |
2,5 |
Kleinste Objektgröße (Pixel) |
Objekte mit einer geringeren Breite als die Kleinste Objektgröße werden vom Algorithmus ignoriert. |
2 |
Erfasse keine Objekte größer als (% von Bildfläche) |
Wenn die Breite oder die Höhe eines Objekts größer als der angegebene Prozentsatz der Bildbreite bzw. Bildhöhe ist, wird es ignoriert. |
90 |
Personenzählung mithilfe einer Zähllinie |
||
Nur
zusammen- |
Sucht während der Personenzählung nach zusammenhängenden Segmenten. Versucht nicht, für jede Richtung alle Pixel zu akkumulieren. |
Falsch (deaktiviert) |
Größenverhältnis für min. Objektbreite |
Bruchteil der Objektbreite, der als minimale Personenbreite angesehen wird (standardmäßig 0,33). Wenn die Breite eines Objekts beispielsweise 9 Pixel ist und nur 3 Pixel davon die Zähllinie in eine Richtung überqueren, wird das Objekt nicht gezählt. |
0,33 (deaktiviert) |
Größenverhältnis für max. Objektbreite |
Bruchteil der Objektbreite, der als maximale Personenbreite angesehen wird (standardmäßig 1,88). Der Wert wird nur berücksichtigt, wenn die Option Mehrfachzählung in Objektbreite zulassen aktiviert ist. Werden mehr Pixel gezählt, werden diese als weitere Person betrachtet. Wenn die Breite eines Objekts beispielsweise 9 Pixel ist und mehr als 9*1,88=16,92 Pixel die Zähllinie in eine Richtung überqueren, werden zwei Personen gezählt. |
1,85 (deaktiviert) |
Mehrfachzählung in Objektbreite zulassen (Schulter an Schulter) |
Berücksichtigt den Fall, dass mehrere Personen gleichzeitig nebeneinander die Linie überqueren. |
Wahr (deaktiviert) |
Dauer Linienüberquerung (Sekunden) |
Die Zeit, die Personen zum Überqueren der Linie benötigen. |
1,00 (deaktiviert) |
Größenverhältnis für min. Objektlänge |
Zeit, die für die Erkennung des Objekts erforderlich ist, gegenüber der Zeit, die für das Überqueren der Linie benötigt wird. Bei einer Analyserate von 10 FPS muss beispielsweise ausreichend Bewegung in mindestens zwei aufeinander folgenden Bildern erkannt werden und zusätzlich muss die Objektbreite mindestens 3 Pixel betragen, damit die Person gezählt wird. |
0,30 (deaktiviert) |
Größenverhältnis für max. Objektlänge |
Zeit, die für das Überqueren der Linie benötigt wird, gegenüber der Zeit, die zum Erkennen weiterer Personen, die sich direkt hinter der gezählten Person befinden, erforderlich ist. Damit Personen mit einem Kinder- oder Einkaufswagen nicht doppelt gezählt werden, wird der Standardwert 3 verwendet. Wenn dies für Ihre Umgebung nicht zulässig ist, ändern Sie den Wert beispielsweise in 2,2. |
3,00 (deaktiviert) |
Mehrfachzählung in Objektlänge zulassen |
Berücksichtigt den Fall, dass mehrere Personen hintereinander ohne Lücken die Linie überqueren. |
Wahr (deaktiviert) |
Objekte verfolgen |
||
Alle Objekte als Vordergrund |
Alle erkannten Objekte werden zu Vordergrundobjekten und infolgedessen angezeigt. |
Falsch |
Überlappende Objekte nicht verbinden |
Wenn sich zwei getrackte Objekte überschneiden, werden diese nicht als ein Objekt verbunden. |
Wahr |
Vordergrund- |
Legt fest, wie empfindlich der Algorithmus beim Verfolgen von Objekten reagiert. Mit dieser Einstellung können Sie Fehlalarme aufgrund sich im Wind bewegender Bäume reduzieren bzw. die Wahrscheinlichkeit erhöhen, dass auch schlecht sichtbare Objekte verfolgt werden (z. B. Personen, die auf einem Parkplatz teilweise durch Fahrzeuge verdeckt sind). |
Mittel |
Minimaldistanz definieren, die sich ein Objekt bewegen muss, um als Objekt behandelt zu werden |
Erfasst nur Objekte mit einer bestimmten Länge. |
Falsch |
Minimaldistanz (Meter) |
|
1,0 |
Durch Schnee verursachte Fehlerkennung reduzieren |
Versucht, durch Schnee verursachte Verfolgungen zu minimieren. |
Wahr |
Tracke kleine Objekte |
Objekte, die kleiner als 5/16 Meter sind, werden nicht als Schnee gelöscht. |
Falsch |
Aufgabe 2: Regel mit dem VE150-Algorithmus erstellen
So erstellen Sie eine Regel mithilfe des VE150-Algorithmus:
1 Bevor Sie eine Regel erstellen, die den VE150-Algorithmus verwendet, müssen Sie den VE150-Algorithmus zunächst konfigurieren.
2 Wählen Sie im Menü Server die Option Konfiguration und klicken Sie anschließend auf Regeln.
3 Klicken Sie auf Neu. Der Regelassistent wird geöffnet. Lesen Sie die Übersicht und klicken Sie anschließend auf Weiter.
4 Aktivieren Sie das Kontrollkästchen neben dem Namen der Kamera. Wenn es sich um eine PTZ Kamera handelt, aktivieren Sie das Kontrollkästchen für die Kameratour-Position.
5 Wählen Sie in der Dropdown-Liste Algorithmus auswählen die Option VE150.
6 Angenommen, Sie haben für eine digitale Grenze den Modus Analyse im Aussenbereich ausgewählt:
a. Klicken Sie auf Alle Grenzen oder Lösche Zaun, um die digitale Grenze zu zeichnen bzw. zu löschen. Die Pfeile legen fest, in welcher Richtung sich das Objekt durch die Linie(n) bewegen muss, um einen Alarm auszulösen.
b. Doppelklicken Sie auf die Pfeile, um die Eigenschaften zu ändern.
• Rot weist darauf hin, dass ein Objekt, das die Linie in dieser Richtung überquert, einen Alarm auslösen wird.
• Der grüne Pfeil bedeutet, dass ein Objekt, das die Linie in dieser Richtung überquert, keinen Alarm auslöst.
• Es können mehrere Grenzlinien gezeichnet werden.
Wichtig: Wenn Alle Zäune ausgewählt wurde, muss das Objekt alle gezeichneten Grenzen durchqueren, um den Alarm auszulösen. |
7 Zum Einrichten einer Alarmzone müssen Sie die entsprechende Alarmzone markieren:
• Wählen Sie die Option Löschen, um die rote Maske zu löschen.
• Wählen Sie die Option Zeichnen, um die rote Maske zu zeichnen.
• Mit dem Regler Größe können Sie die Strichstärke anpassen.
8 Die folgenden Einstellungen gelten nur für Alarmzonen:
• Die Option Jede Bewegung in Maske gibt an, dass sich das Objekt für die Auslösung eines Alarms an einer beliebigen Stelle in der roten Alarmzone befinden kann. Wenn Sie beispielsweise möchten, dass ein Alarm bei Fahrzeugen ausgelöst wird, die sich an einer beliebigen Stelle in der Alarmzone bewegen, wählen Sie Jede Bewegung in Maske.
• Bewegung endet in Maske bedeutet, dass das Objekt in der Alarmzone angehalten hat. Wenn ein Alarm bei Fahrzeugen ausgelöst werden soll, die in der Alarmzone stoppen, wählen Sie Bewegung endet in Maske.
• Bewegung startet in Maske bedeutet, dass das Objekt in der Alarmzone mit der Bewegung begonnen hat. Wenn ein Alarm bei Fahrzeugen ausgelöst werden soll, die in der Alarmzone geparkt sind und sich zu bewegen beginnen, wählen Sie Bewegung startet in Maske.
9 Aktivieren Sie das Kontrollkästchen Klasse, um bestimmte Objektklassen zu filtern bzw. zu erfassen.
10 Klicken Sie auf Weiter, um mit dem nächsten Schritt im Assistenten fortzufahren. Weitere Informationen finden Sie unter Regeln im Regelassistenten.
Regelassistent
Hinweis: Unter normalen Umständen kann der
VE150-Algorithmus eine Person in einem Abstand von 30 Metern
und ein Fahrzeug in einem Abstand von 45 Metern zur Kamera
erkennen (4CIF oder 640 x 480 und ausreichende Lichtverhältnisse
vorausgesetzt). Diese Entfernungen hängen von der Linse und dem
verwendeten Zoom ab. |
• Stellen Sie sicher, dass die korrekte Bildrate verwendet wird und dass für eine ordnungsgemäße Analyse ausreichend CPU-Leistung auf dem System verfügbar ist.
• Überprüfen Sie auf der Registerkarte Kameraposition, ob die Perspektive ordnungsgemäß festgelegt wurde.
• Wenn durch Bäume oder Reflektionen zu viele Fehlalarme auftreten, wählen Sie das Modell für den dynamischen Hintergrund (Registerkarte Umgebung). Bleiben die Probleme weiterhin bestehen, wenden Sie sich an Aimetis.