{"id":860,"date":"2024-11-25T17:12:04","date_gmt":"2024-11-25T09:12:04","guid":{"rendered":"https:\/\/www.mskyeye.com\/?p=860"},"modified":"2025-01-13T15:21:02","modified_gmt":"2025-01-13T07:21:02","slug":"cooperative-mode-and-practical-application-of-photoelectric-and-radar-in-target-recognition","status":"publish","type":"post","link":"https:\/\/www.mskyeye.com\/de\/kooperativer-modus-und-praktische-anwendung-von-photoelektrik-und-radar-bei-der-zielerkennung\/","title":{"rendered":"Kooperativer Modus und praktische Anwendung von Lichtschranke und Radar bei der Zielerkennung"},"content":{"rendered":"<p>Erstens kann die Zusammenarbeit zwischen Fotoelektrik und Radar bei der Zielerkennung haupts\u00e4chlich auf folgende Weise erfolgen:<br \/>\n1. Datenfusion und komplement\u00e4re Identifikation<br \/>\nDatenschichtfusion: Die vom Radar erhaltenen Zielentfernungs-, Geschwindigkeits- und Azimutdaten usw. werden auf Datenebene mit dem vom fotoelektrischen System erhaltenen Zielbild, der Zielfarbe, der Zieltextur usw. fusioniert. Beispielsweise werden durch die Verwendung eines Kalman-Filters und anderer Algorithmen die beiden Datenarten gewichtet und fusioniert, um genauere Zielzustandsinformationen zu erhalten, die eine umfassendere Datenbasis f\u00fcr die nachfolgende Identifizierung bieten.<br \/>\nFusion von Merkmalsebenen: Extrahieren Sie Merkmale aus Radardaten und fotoelektrischen Bilddaten, wie z. B. Merkmale der Radarstreuungsquerschnittsfl\u00e4che, Dopplerfrequenzmerkmale sowie fotoelektrische Form-, Kanten- und Temperaturverteilungsmerkmale und andere Merkmale, und fusionieren Sie diese Merkmale dann, um einen repr\u00e4sentativeren und unterscheidbareren gemeinsamen Merkmalsvektor f\u00fcr die Zielklassifizierung und -erkennung zu bilden.<br \/>\nFusion auf Entscheidungsebene: Das Radar- und das fotoelektrische System identifizieren und beurteilen das Ziel unabh\u00e4ngig voneinander und f\u00fchren dann die Erkennungsergebnisse der beiden zusammen, um eine Entscheidung zu treffen. Beispielsweise werden Abstimmungsverfahren, Bayessche Argumentation und andere Methoden verwendet, um die Erkennungsergebnisse der beiden Sensoren umfassend zu ber\u00fccksichtigen und so die Genauigkeit und Zuverl\u00e4ssigkeit der Zielerkennung zu verbessern.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-863 aligncenter\" src=\"https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/1-1024x1024.jpg\" alt=\"\" width=\"737\" height=\"737\" srcset=\"https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/1-1024x1024.jpg 1024w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/1-300x300.jpg 300w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/1-150x150.jpg 150w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/1-768x768.jpg 768w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/1-12x12.jpg 12w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/1.jpg 1280w\" sizes=\"auto, (max-width: 737px) 100vw, 737px\" \/><\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>2. Zielpositionierung und Zielf\u00fchrungserkennung<br \/>\nPhotoelektrische Radarf\u00fchrung: Das Radar f\u00fchrt zun\u00e4chst eine Fernerkennung und eine grobe Positionierung des Ziels durch, bestimmt die ungef\u00e4hre Ausrichtung und Entfernung des Ziels und richtet dann die optische Linse oder den Infrarotdetektor des photoelektrischen Systems auf das Ziel aus, sodass das photoelektrische System die Bildinformationen des Ziels schnell und genau erfassen und eine genaue Positionierung und detaillierte Identifizierung des Ziels erreichen kann.<br \/>\nPhotoelektrisch unterst\u00fctztes Radar: In einigen komplexen Szenen, wenn das Radar gest\u00f6rt ist oder das Zielsignal schwach ist, kann das photoelektrische System durch die Bilderkennung des Ziels die Anfangsposition oder zus\u00e4tzliche Positionsinformationen des Ziels f\u00fcr das Radar bereitstellen, dem Radar dabei helfen, das Ziel effektiver zu suchen und zu verfolgen und die Zielerfassungsf\u00e4higkeit des Radars verbessern.<br \/>\nKlassifizierung und Anerkennung komplement\u00e4rer Vorteile<br \/>\nNutzen Sie die Allwetterf\u00e4higkeit des Radars: Das Radar ist nicht durch Licht, Wetter und andere Bedingungen eingeschr\u00e4nkt und kann Ziele in rauen Umgebungen erkennen und identifizieren. Beispielsweise kann das Radar nachts, bei Nebel, Regen und anderen Bedingungen normal arbeiten und das Ziel anhand seiner elektromagnetischen Reflexionseigenschaften klassifizieren, um es beispielsweise zwischen verschiedenen Flugzeugtypen, Fahrzeugen usw. zu unterscheiden.<br \/>\nDas fotoelektrische System verf\u00fcgt \u00fcber eine hochaufl\u00f6sende Bildgebungsfunktion und kann detaillierte Informationen zum Erscheinungsbild und zur Textur des Ziels erhalten. Bei einigen Zielen mit offensichtlichen visuellen Merkmalen, wie bestimmten Flugzeugtypen, Schiffen usw., kann das fotoelektrische Bild genau klassifiziert und identifiziert werden. Gleichzeitig kann das fotoelektrische System auch eine multispektrale Bildgebungstechnologie verwenden, um das Tarnziel zu identifizieren.<\/p>\n<p>&nbsp;<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-867 aligncenter\" src=\"https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/3812165315f4fb80be8a4731dd195bf-1024x692.png\" alt=\"\" width=\"1024\" height=\"692\" srcset=\"https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/3812165315f4fb80be8a4731dd195bf-1024x692.png 1024w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/3812165315f4fb80be8a4731dd195bf-300x203.png 300w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/3812165315f4fb80be8a4731dd195bf-768x519.png 768w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/3812165315f4fb80be8a4731dd195bf-18x12.png 18w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/3812165315f4fb80be8a4731dd195bf.png 1056w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p>&nbsp;<\/p>\n<p>3. Dynamisches Monitoring und kollaborative Identifizierung<br \/>\nRelaisverfolgung und -identifizierung: W\u00e4hrend der Bewegung des Ziels k\u00f6nnen das Radar und das fotoelektrische System eine Relaisverfolgung durchf\u00fchren. Wenn das Ziel weit entfernt ist, verfolgt das Radar das Ziel weiter, und wenn sich das Ziel allm\u00e4hlich n\u00e4hert, leitet das fotoelektrische System f\u00fcr eine genauere Verfolgung und Erkennung weiter, wodurch die Vorteile der beiden in unterschiedlichen Entfernungssegmenten voll ausgenutzt werden, um w\u00e4hrend des gesamten Prozesses eine stabile Erkennung des Ziels zu erreichen.<br \/>\nGemeinsame Zustandssch\u00e4tzung: Durch die gemeinsame Verarbeitung der von Radar und fotoelektrischem System erfassten Daten k\u00f6nnen der Bewegungszustand und die Lage\u00e4nderung des Ziels in Echtzeit gesch\u00e4tzt werden. Beispielsweise werden die Geschwindigkeitsinformationen des Radars und die Bildsequenz des fotoelektrischen Systems verwendet, um die Bewegungsbahn und den Drehwinkel des Ziels zu analysieren, um das Verhaltensmuster und die Absicht des Ziels genauer zu identifizieren und die dynamische Erkennungsf\u00e4higkeit des Ziels zu verbessern.<\/p>\n<p>4. Gemeinsame Erkennung basierend auf maschinellem Lernen<br \/>\nGemeinsames Trainingsmodell: Radar- und fotoelektrische Daten werden als Eingaben verwendet, um gemeinsam maschinelle Lernmodelle wie neuronale Netzwerke und Support Vector Machines zu trainieren, sodass das Modell die intrinsische Assoziation und Merkmalskombination zwischen den beiden Daten lernt, um eine genauere Zielerkennung zu erreichen. Durch Training und Optimierung des Modells mit einer gro\u00dfen Menge gekennzeichneter Daten k\u00f6nnen die Erkennungs- und Generalisierungsf\u00e4higkeit des Modells auf verschiedene Arten von Zielen verbessert werden.<br \/>\nTransfer-Learning-Anwendung: \u00dcbertragen Sie das Wissen und die Merkmalsdarstellung eines anhand von Sensordaten trainierten Modells auf die Daten eines anderen Sensors, um die Zielerkennung zu unterst\u00fctzen.<\/p>\n<p>Praktische Anwendung des kooperativen Radarmodus bei der Zielerkennung<\/p>\n<p>&nbsp;<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-862 aligncenter\" src=\"https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/\u5fae\u4fe1\u622a\u56fe_20241125163957.jpg\" alt=\"\" width=\"754\" height=\"432\" srcset=\"https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/\u5fae\u4fe1\u622a\u56fe_20241125163957.jpg 754w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/\u5fae\u4fe1\u622a\u56fe_20241125163957-300x172.jpg 300w, https:\/\/ljcloudglobal.oss-cn-hongkong.aliyuncs.com\/wp-content\/uploads\/liaowang\/2024\/11\/\u5fae\u4fe1\u622a\u56fe_20241125163957-18x10.jpg 18w\" sizes=\"auto, (max-width: 754px) 100vw, 754px\" \/><\/p>\n<p>&nbsp;<\/p>\n<p>1. Bereich der milit\u00e4rischen Luftverteidigung<br \/>\nAnwendungen zur Datenfusion und komplement\u00e4ren Identifikation: In Luftverteidigungssystemen k\u00f6nnen Radare herankommende Luftziele wie Kampfjets und Marschflugk\u00f6rper auf gro\u00dfe Entfernungen erkennen. Das Radar kann schnell Informationen wie Entfernung (z. B. 300 km Entfernung), Geschwindigkeit (z. B. Mach 2 Fluggeschwindigkeit) und Azimut (z. B. Azimut ist 30 Grad Nord nach Ost) des Ziels erfassen. Gleichzeitig richten fotoelektrische Systeme (z. B. Infrarot-W\u00e4rmebildkameras und optische Kameras) entsprechend den vom Radar bereitgestellten Daten in die Richtung des Ziels. Das fotoelektrische System erh\u00e4lt hochaufl\u00f6sende Bilder des Ziels. Beispielsweise k\u00f6nnen die thermischen Eigenschaften des Zielmotors durch die Infrarot-W\u00e4rmebildkamera ermittelt werden und die Details wie der Umriss und die Fl\u00fcgelform des Ziels k\u00f6nnen durch die optische Kamera gesehen werden. Die Daten des Radars und des fotoelektrischen Systems werden in der Merkmalsebene fusioniert, und der gemeinsame Merkmalsvektor wird durch die elektromagnetischen und optischen Eigenschaften des Ziels erstellt, der verwendet wird, um das angreifende Ziel vom feindlichen Kampfjet oder der T\u00e4uschungsbombe zu unterscheiden.<br \/>\nBeispiel f\u00fcr Zielortung und Zielf\u00fchrung: Wenn das Fr\u00fchwarnradar ein verd\u00e4chtiges Ziel erkennt, das sich dem Luftraum n\u00e4hert, wird es das fotoelektrische System der Luftverteidigungsposition anweisen, das Ziel zu erfassen. In den Luftverteidigungsanlagen im Grenzgebiet beispielsweise erkennt das Radar zuerst die Aktivit\u00e4t des Ziels im Luftraum 200 Kilometer von der Grenze entfernt und sendet die Orientierungsinformationen des Ziels an das fotoelektrische System. Die optischen und Infrarotger\u00e4te des fotoelektrischen Systems passen die Ausrichtung schnell an und bilden das Ziel ab. Das fotoelektrische System kann erkennen, dass es sich bei dem Ziel um einen J\u00e4ger mit einer bestimmten Form handelt, und dann die Entfernungs- und Geschwindigkeitsinformationen des Radars kombinieren, um zu beurteilen, ob es eine Bedrohung darstellt, und so eine Grundlage f\u00fcr Entscheidungen zur Luftverteidigung bieten.<br \/>\nSzenario f\u00fcr dynamische \u00dcberwachung und kooperative Identifizierung: W\u00e4hrend des Flugs des Ziels verfolgt das Radar kontinuierlich die Position und Geschwindigkeits\u00e4nderungen des Ziels. Wenn das Ziel in den effektiven Identifizierungsbereich des fotoelektrischen Systems eintritt (z. B. innerhalb von 50 Kilometern von der Verteidigungsposition), leitet das fotoelektrische System es zur genaueren Identifizierung weiter. Beispielsweise kann ein elektrooptisches System die Angriffsabsicht eines Ziels weiter bestimmen, indem es den Waffentyp betrachtet, der unter dem Fl\u00fcgel des Ziels montiert ist. Gleichzeitig werden durch die gemeinsame Verarbeitung von Radar- und fotoelektrischen Systemdaten die Man\u00f6veraktionen des Ziels, wie z. B. Tauchen, Kreisen usw., analysiert, der Bedrohungsgrad des Ziels in Echtzeit gesch\u00e4tzt und dynamische Informationen f\u00fcr die Abfangentscheidung des Luftverteidigungssystems bereitgestellt.<\/p>\n<p>2. Bereich der Schiffs\u00fcberwachung<br \/>\nErg\u00e4nzender Klassifizierungs- und Identifizierungsfall: Bei der \u00dcberwachung von Schiffen in H\u00e4fen oder Seegebieten kann das Radar bei jedem Wetter eingesetzt werden. An nebligen Tagen kann das Radar Schiffsziele in den umliegenden Gew\u00e4ssern erkennen und gro\u00dfe Frachtschiffe von kleinen Fischerbooten unterscheiden, indem es elektromagnetische Eigenschaften wie den Streuquerschnitt des Radars der Ziele analysiert. Bei sch\u00f6nem Wetter kommen fotoelektrische Systeme wie optische Marineteleskope und Infrarot-W\u00e4rmebildkameras zum Einsatz. Das fotoelektrische System kann detaillierte Informationen zum Erscheinungsbild des Schiffs erfassen, wie etwa den Schiffstyp, den Schiffsnamen, die Form des \u00dcberbaus usw., und kann auch das Energiesystem des Schiffs durch Infrarotbilder beobachten. Durch die Allwettererkennungsf\u00e4higkeit des Radars und die hochaufl\u00f6senden Bildgebungsvorteile des fotoelektrischen Systems k\u00f6nnen Schiffe genau klassifiziert und identifiziert werden, beispielsweise zur Identifizierung von \u00d6ltankern, Containerschiffen oder Kriegsschiffen.<br \/>\nGemeinsame Erkennungspraxis basierend auf maschinellem Lernen: In einem maritimen Verkehrsmanagementsystem werden Daten von Radar- und elektrooptischen Systemen als Eingaben verwendet, um Modelle f\u00fcr maschinelles Lernen zu trainieren. Eine gro\u00dfe Anzahl von Schiffsradar-Echodaten und entsprechenden fotoelektrischen Bilddaten werden gesammelt, um das Modell zu trainieren. Beispielsweise wird durch das Support Vector Machine-Modell die Verbindung zwischen den elektromagnetischen Eigenschaften des Schiffs in den Radardaten und den Erscheinungsmerkmalen im fotoelektrischen Bild gelernt. Wenn ein neues Ziel auftaucht, kann das Modell anhand der vom Radar- und fotoelektrischen System bereitgestellten Daten den Typ, die Gr\u00f6\u00dfe und den Fahrstatus des Schiffs genau identifizieren, wodurch die Effizienz und Genauigkeit der maritimen Schiffs\u00fcberwachung verbessert wird.<\/p>\n<p>3. Intelligenter Transport<br \/>\nDatenfusion und komplement\u00e4re Erkennung Beispiel: Im Umgebungserkennungssystem eines autonomen Fahrzeugs kann das Bordradar den Abstand der umgebenden Fahrzeuge (z. B. das Fahrzeug vor dem Auto in 10 Metern Entfernung), die Geschwindigkeit (z. B. die relative Geschwindigkeit von 5 Metern\/Sekunde) und andere Informationen erfassen. Gleichzeitig kann das fotoelektrische Bordsystem (z. B. die Kamera) ein Bild des Erscheinungsbilds des Fahrzeugs erhalten, einschlie\u00dflich Nummernschild, Fahrzeugfarbe, Modell usw. Durch Datenfusion werden das Entfernungsgeschwindigkeitsmerkmal des Radars und das fotoelektrische Erscheinungsbildmerkmal in der Merkmalsebene kombiniert, um den gemeinsamen Merkmalsvektor zu erstellen. Durch Verwendung dieses gemeinsamen Merkmalsvektors k\u00f6nnen die umgebenden Fahrzeuge genauer als gew\u00f6hnliche Autos, SUVs oder Lastwagen identifiziert werden, und die relative Positionsbeziehung zwischen den Fahrzeugen kann in Echtzeit beurteilt werden, wodurch dem Entscheidungssystem autonomer Fahrzeuge genauere Umgebungsinformationen bereitgestellt werden.<br \/>\nAnwendung zur Relaisverfolgung und -identifizierung: Im intelligenten Verkehrs\u00fcberwachungssystem kann das Langstreckenradar zur Fahrzeug\u00fcberwachung auf der Autobahn das Fahrzeug verfolgen und Informationen zur Fahrbahn und Geschwindigkeit des Fahrzeugs erhalten. Durch die Relaisverfolgung und -identifizierung von Radar- und Fotoelektriksystemen werden eine effektive \u00dcberwachung des Verkehrsflusses und eine genaue Steuerung der Fahrzeuge realisiert.<\/p>","protected":false},"excerpt":{"rendered":"<p>Erstens erfolgt die Zusammenarbeit zwischen Fotoelektrik und Radar bei der Zielerkennung haupts\u00e4chlich auf folgende Weise: 1. Datenfusion und komplement\u00e4re Identifizierung Datenschichtfusion: Die vom Radar erhaltenen Zielentfernungs-, Geschwindigkeits- und Azimutdaten und andere Daten werden auf Datenebene mit dem Zielbild, der Farbe, der Textur und anderen Daten fusioniert, die vom Fotoelektriksystem erhalten wurden. Zum Beispiel [\u2026]<\/p>","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"rank_math_lock_modified_date":false,"footnotes":""},"categories":[3],"tags":[],"class_list":["post-860","post","type-post","status-publish","format-standard","hentry","category-news"],"_links":{"self":[{"href":"https:\/\/www.mskyeye.com\/de\/wp-json\/wp\/v2\/posts\/860","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.mskyeye.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.mskyeye.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.mskyeye.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.mskyeye.com\/de\/wp-json\/wp\/v2\/comments?post=860"}],"version-history":[{"count":2,"href":"https:\/\/www.mskyeye.com\/de\/wp-json\/wp\/v2\/posts\/860\/revisions"}],"predecessor-version":[{"id":869,"href":"https:\/\/www.mskyeye.com\/de\/wp-json\/wp\/v2\/posts\/860\/revisions\/869"}],"wp:attachment":[{"href":"https:\/\/www.mskyeye.com\/de\/wp-json\/wp\/v2\/media?parent=860"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.mskyeye.com\/de\/wp-json\/wp\/v2\/categories?post=860"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.mskyeye.com\/de\/wp-json\/wp\/v2\/tags?post=860"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}