Kontaktieren Sie FRAMOS
Haben Sie Fragen oder benötigen Sie technischen Support?
Wir sind für Sie da - kontaktieren Sie uns!

Mit dem Absenden des Formulars bestätigen Sie unsere Datenschutzerklärung gelesen und verstanden zu haben.
Kontakt
Die Entwicklung und Implementierung von Produkten und Anwendungen mit integrierter Bildverarbeitung kann ein steiniger Weg sein. Die Beratung durch einen Experten ist daher immer hilfreich, um den richtigen Weg von der Technologie zur Entwicklung und von der Implementierung zur Massenproduktion zu finden. Sarah Wu von FRAMOS ist Expertin in Sachen Bildverarbeitung. Jeden Tag berät sie Kunden bei der Entwicklung von Vision-Lösungen, die von einem einzelnen Bildsensor bis zu einem kompletten Embedded-Vision-System reichen können.
Wissen lässt sich mit einem spielerischen Ansatz und einer hohen User-Interaktion leichter vermitteln, besser austauschen und tiefer verankern. Auf diesem Grundsatz entwickeln eLearning-Anbieter neuartige interaktive Anwendungen. 3D-Bildverarbeitung ermöglicht die intuitive Gestensteuerung für eine präzise Interaktion zwischen Anwender und Software. Die dafür benötigte Tiefenerfassung kann heute mit kleinen Stereo Vision-Modulen einfach und unkompliziert in mobile Geräte integriert werden und ermöglicht immersive Anwender-Interaktionen und eine intuitive User Experience. Der Artikel zeigt, wie diese Art der Interaktion ausschließlich mit 3D möglich wird und welche Vorteile die 3D-Technologie für Entwickler und Firmen bereithält, die virtuelle Welten zur innovativen Zusammenarbeit nutzen möchten.
Verrauschte Bilder in Vision-Systemen sind aus Nutzersicht zweifelsohne keine guten Bilder, und dieses Problem wird durch die hohe Empfindlichkeit des menschlichen Auges verstärkt. Auch für Algorithmen führt Rauschen zu einer erschwerten und weniger exakten Analyse. Für einen Kamerahersteller dagegen enthält das Rauschen eine Fülle von Informationen über den Sensor und die zugrunde liegende Elektronik. Das Rauschen ist der beste Freund des Entwicklers. Eine sorgfältige Auswertung des Bildrauschens führt zum bestmöglichen Kameradesign und mittelbar auch zum bestmöglichen Bild für einen bestimmten Sensor.
Von Consumer-Sensoren über industrielle Detektoren bis zu speziellen Aufgaben – die schiere Anzahl an off-the-shelf-Sensoren ist enorm. Individuelle Sensoren dagegen gelten als teuer und langwierig in der Entwicklung. Es gibt jedoch überzeugende Gründe, sich damit zu befassen, ob und wie ein Custom-Sensor helfen kann, die Herausforderungen individueller Vision-Applikationen besser zu meistern und die Performance deutlich zu erhöhen. Auch ohne lange Entwicklungszeiten.
Der 10GigE-Standard bietet sämtliche Vorteile von GigE Vision und ist dank damit verbundenem IP-Trust, verschiedener Kabel-Optionen und der einfachen Synchronisation mehrerer Kameras die führende Schnittstelle für Machine-Vision-Anwendungen. Der kürzlich vorgestellte Nachfolger 25GigE Vision bietet ebenfalls sämtliche GigE-Vorteile, hat aber eine 2,5-mal höhere Datenübertragungs- und Bildrate als 10GigE. Er ist die Antwort auf die immer höheren Anforderungen an Auflösung und Geschwindigkeit – durch welche Fortschritte in der industriellen Automatisierung und zukunftsweisende Vision-Systeme im Consumer-Bereich erst möglich werden.
Für die Aufnahme des optimalen Bildes in einem Vision-System halten die Lichtbedingungen oder das zu betrachtende Objekt oft einige Herausforderungen bereit. Zuviel Licht, Reflexionen, Dunst oder glänzende Materialien können die Bildqualität und damit die Ergebnisse der Bildanalyse und Inspektion schmälern. Der Einsatz von Polarisationsfiltern oder -sensoren reduziert die Blendung und Reflexion von Oberflächen, so dass sich die Sichtbarkeit von Strukturen, Fehlern oder Formen erhöht.
Suchen Sie ein sofort einsatzfähiges Sensormodul, um Ihre Time-to-Market zu verkürzen? Das IMX378-Modul für Embedded Vision-Produkte eignet sich hervorragend, um menschliche Aktivitäten aufzunehmen und Geräte mit einem zusätzlichen "Sinn" auszustatten. Das Modul liefert hochwertige und stabile Bilder für Consumer-Geräte, VR/AR/MR-Systeme, Kopfkameras, sich freie bewegende Roboter, Dronen sowie Vision-Systeme mit künstlicher Intelligenz drinnen wie draussen.
Wie funktionieren datenbasierte Geschäftsmodelle und wie können 3D-Daten in disruptiven Industrien für innovative Geschäftsideen genutzt werden? Dr. Christopher Scheubel hat in seinem Vortrag auf dem Embedded Vision Summit in Santa Clara über das Potenzial der 3D-Technologie für neuartige Business Cases und resultierende Wettbewerbsvorteile gesprochen.
Der sofort integrierbare FRAMOS Processing Block für Sony’s CMOS Global-Shutter-Bildsensoren der 3. Generation mit SLVS-EC-Schnittstelle unterstützt eine verkürzte Time-to-Market und verbesserte Performances für die Vision-Entwicklung mit FPGAs von Xilinx.
Die Evolution hat den Menschen mit zwei Augen ausgestattet. Aus gutem Grund: nur so können wir räumlich sehen und damit nicht nur Formen und Umrisse erkennen, sondern auch Entfernungen einschätzen. Was für uns ganz natürlich ist, ist in der industriellen Bildverarbeitung eine komplexe Aufgabe: Wie entstehen 3D-Bilder genau und welche Technologien helfen bei der Umsetzung, um Maschinen das Sehen und Denken beizubringen?
Die nächste Entwicklungsstufe der der Bildverarbeitung macht Maschinen zu intelligenten Partnern - Innovative und komplett integrierte Anwendungen in Industrie und Alltagsleben profitieren von der Kombination aus 3D Technologie und Künstlicher Intelligenz.
Der Kern jedes Vision-Systems ist der Bildsensor. Die korrekte Auswahl des passenden Sensors auf der Basis seiner Leistung ist daher entscheidend für eine erfolgreiche Anwendung.
1 von 3
Click here to opt-out of Google Analytics