Welcome,{$name}!

/ Ausloggen
Deutsch
EnglishDeutschItaliaFrançais한국의русскийSvenskaNederlandespañolPortuguêspolskiSuomiGaeilgeSlovenskáSlovenijaČeštinaMelayuMagyarországHrvatskaDanskromânescIndonesiaΕλλάδαБългарски езикAfrikaansIsiXhosaisiZululietuviųMaoriKongeriketМонголулсO'zbekTiếng ViệtहिंदीاردوKurdîCatalàBosnaEuskera‎العربيةفارسیCorsaChicheŵaעִבְרִיתLatviešuHausaБеларусьአማርኛRepublika e ShqipërisëEesti Vabariikíslenskaမြန်မာМакедонскиLëtzebuergeschსაქართველოCambodiaPilipinoAzərbaycanພາສາລາວবাংলা ভাষারپښتوmalaɡasʲКыргыз тилиAyitiҚазақшаSamoaසිංහලภาษาไทยУкраїнаKiswahiliCрпскиGalegoनेपालीSesothoТоҷикӣTürk diliગુજરાતીಕನ್ನಡkannaḍaमराठी
Zuhause > Nachrichten > GESPONSERTE INHALTE: Maschinen (einfach) sehen mit Embedded Vision

GESPONSERTE INHALTE: Maschinen (einfach) sehen mit Embedded Vision

Für die meisten Menschen ist das Sehen intuitiv. Für Maschinen ist das Sehen eine unglaublich komplexe Aufgabe.

Embedded Vision (EV) repliziert die menschliche Fähigkeit, das, was wir sehen, zu übersetzen und zu nutzen, um etwas zu tun. Mit Ausnahme von Hornhäuten und Retinas macht EV das mit Kameras, Kabeln und CPUs.

Ja, diese Technologie hilft Maschinen, "zu sehen", indem sie Informationen aus Bildern in Echtzeit extrahiert. Dies geschieht auch unter verschiedenen Lichtbedingungen. Außerdem muss es in eine Vielzahl von Umweltanwendungen einfließen.

Ein wichtiger Teil von Cadillacs 2018 CT6 mit Super Cruise ist eine gebrandmarkte Art, das autonome Fahren auf höherer Ebene zu beschreiben, "eine präzise Lidar - Kartendatenbank, die detaillierte Informationen über die Zukunft liefert." Forscher der Stanford University nutzen EV, um Smartphones zu verwandeln Hautkrebs-Nachweisgeräte. EV-angetrieben Augmented-Reality-Brille revolutionieren die Fabrikarbeit und machen sie intelligenter und sicherer.

Wenn diese Anwendungen entstehen, kann es bei der heutigen Geschäftsgeschwindigkeit schwierig sein, sich an neue Algorithmen und Bildsensoren anzupassen. Fügen Sie Ingenieure hinzu, die neue und aufkommende Techniken verwenden, um hochwertige, langlebige Designs zu erstellen. Vergessen Sie nicht, dass Bilder mit höherer Auflösung mehr Rechenleistung benötigen, um die Daten zu verarbeiten und aussagekräftige Informationen daraus zu extrahieren.

Komplex, oder? Aber es gibt eine Möglichkeit, durch sie zu navigieren. Es kommt gerade rechtzeitig, in Anbetracht der Markt sollte bis 2022 bis 18 Milliarden Dollar.

In früheren Embedded-Vision-Technologien implementierten externe Prozessoren Algorithmen für die Bildverarbeitung und -analyse. Diese externen Anpassungen haben die Aufgabe erfüllt, aber ihre proprietären Eigenschaften machten die Anpassung schwierig, da sich die Technologie verbesserte.

Mit dem Aufkommen von All Programmable SoCs (Systems-on-a-Chip) beschleunigen Software-Engpässe jedoch mit leistungsstarker programmierbarer Logik. Dies geschieht unter Beibehaltung der Rekonfigurierbarkeit, die für ein schnelles Upgrade erforderlich ist. Mit anderen Worten, Software und Hardware sind flexibel. Anstelle von externen Ergänzungen, die meisten der Technologie, die EV-Rennen Leben auf dem Chip oder im Algorithmus.

Entwickler können einen softwaredefinierten Entwicklungsablauf in einer vertrauten, auf Eclipse basierenden Umgebung mit C- und C ++ - Sprachen wählen. Es steht ihnen sogar frei, hardwareoptimierte Bildverarbeitungsbibliotheken wie OpenCV zu nutzen, um das richtige Gleichgewicht zwischen Hardware- und Software-eingebetteten Bildverarbeitungsalgorithmen zu finden. Designs spielen zu den Stärken des Teams hinter ihnen.

Diese gebündelten Entwicklungsboards und Referenzdesigns ermöglichen es Systemarchitekten, eingebettete Vision-Lösungen in Rekordzeit zu erstellen - und dies mit einer Rekord-Flexibilität.

So bringt man Klarheit in die Komplexität. Und so bleibt die Zukunft der Embedded Vision in Sicht.

Denk immer noch, dass es nicht für dich ist? Sehen Sie, wie wir es gemacht haben kaputt die Mythen um All Programmierbare Technologie.

Von Avnet