Zur Person
Werdegang
seit 03.2023 | Prorektor für Forschung und Transfer der Fachhochschule Dortmund |
seit 03.2013 | Professor für Computer Vision und Robotik an der Fachhochschule Dortmund |
2010 – 2013 | Professor für Elektrotechnik an der Fachhochschule Bielefeld |
2009 – 2010 | Lehrbeauftragter an der Fachhochschule Dortmund |
2003 – 2010 |
Hella KGaA Hueck & Co. in Lippstadt
Projektleitung Taskforce Radarsysteme |
1997 – 2003 |
Wissenschaftlicher Mitarbeiter an der Universität Paderborn
Promotionsstipendium am Graduiertenkolleg am Heinz Nixdorf Institut
|
Forschung
Abgeschlossene Forschungsprojekte
Forschungsprojekte
MessEnd - Messendes 3D-Endoskop
Projektart: öffentliche Förderung (BMBF, KMU-innovativ Medizintechnik)
Laufzeit: 3 Jahre
Bislang nutzen Mediziner 3D-Endoskope, um ihre Krankheitsdiagnose auch visuell zu untermauern. Dabei produzieren die Endoskope allerdings nur Bilder, auf deren Basis der behandelnde Arzt Abstände in der erkrankten Körperregion abschätzen muss. Für die minimal-invasive Chirurgie und die Frage, ob und in welchem Umfang operiert werden muss, sowie für die
entsprechende Therapieempfehlung, sind aber Größenbestimmungen von Läsionen bzw. die genaue Vermessung der Abstände zwischen diesen von zentraler Bedeutung.
Das messende 3D-Endoskop ermöglicht dem Mediziner, die Größe von beispielsweise Tumoren, Zysten etc. in der zu behandelnden Region genau zu bestimmen und auf Basis exakter – und nicht geschätzter – Werte die Therapie zu definieren.
Software4Robots
Projektart: öffentliche Förderung (BMBF, FH Ingenieurnachwuchs)
Laufzeit: 4 Jahre
Unbemannte Flugobjekte (Unmanned Aerial Vehicle – UAV) dringen aus dem Bereich der Spielgeräte (Drohnen) immer weiter in den professionellen Einsatz vor. So sind die Vorteile bei Brandbekämpfung, Brandabwehr und der Überwachung kritischer Infrastrukturen von Feuerwehren und Hilfsorganisationen erkannt.
Das Partner Institut für Feuerwehr- und Rettungstechnologie stellt die Verknüpfung zur zivilen Sicherheitsforschung her. Der Partner Jet Propulsion Laboratory (JPL) in Kalifornien eröffnet internationale Zugänge im Bereich Raumfahrt. Über den Partner smart mechatronics GmbH erfolgt die Validierung und Erprobung.
AVATAR – Audiovisuelles individualisiertes Assistenzsystem als Therapieunterstützung bei kindlichen phonetisch-phonologischen Artikulationsstörungen
Projektart: öffentliche Förderung (EFRE, Leitmarkt.NRW LifeSciences)
Laufzeit: 3 Jahre
Die Therapie kindlicher Artikulationsstörungen – wie etwa Lispeln –fordert von Kindern und Eltern auch ein intensives Üben zu Hause. Das neue Forschungsprojekt „AVATAR“ entwickelt zur Unterstützung einen „Logopädie-Assistenten“.
Auf den Punkt gebracht besteht das Projekt aus audio-visueller Spracherkennung, Sprechübungen und einem Avatar als persönlichem Helfer. Aus dem aufgenommenen Audio- und Videosignal werden markante Merkmale mit einer speziellen Software für Signalverarbeitung gewonnen. Das System fusioniert dann die Audio- und Videosignale mittels künstlicher neuronaler Netze, um Aussprache-Fehler klassifizieren zu können. Der Avatar erkennt automatisch, wie das Kind die Laute bildet und unterstützt kindgerecht die Bildung korrekter Laute.
Hyperspectral Imaging
Projektart: öffentliche Förderung (MIWF, FH-Basis 2014)
Laufzeit: >5 Jahre
Intelligente Kamerasensoren mit neuartigen Hyperspektralen Bildsensoren ermöglichen im Gegensatz zu gewöhnlichen Kamerasystemen eine spektrale Analyse der Bilddaten. Somit gewinnt man nicht eine Bildmatrix, sondern ein Kubus mit der Wellenlänge als dritte Dimension. Hierdurch wird eine genauere Analyse und Erkennung der betrachteten Objekte möglich, was z.B. Anwendung in der Medizintechnik (Krebsdiagnostik), Agrarwirtschaft (Umweltana-lysen) oder auch der Automatisierungstechnik (Qualitätssicherung) finden kann.
Robotik
Projektart: öffentliche Förderung (MIWF, FH-Basis 2013)
Laufzeit: >5 Jahre
Das Institut IfIT verfügt über eine mit öffentlichen Fördermitteln finanierte Master-Slave 6-Achs Robotermanipulatoreinheit der Firma DENSO mit hoher Positioniergenauigkeit, wie sie in der Fertigungsautomatisierung für fest einprogrammierte Prozesse, z.B. der Automobilindustrie eingesetzt wird. Ein Schwerpunkt der geplanten Forschungsaktivitäten ist die intelligente Ansteuerung der Robotereinheit mit Hilfe einer Multisensorplattform, um die Bewegungen der Greifer für komplexe Manipulationsaufgaben zu regeln.
In Synergie mit vorhandenen Projekten und Kompetenzen der Fachhochschule sind mit dem Aufbau vielfältige Szenarien der Automatisierungstechnik realisierbar. Bei mehr als einem Manipulator spielen aber intelligente Systeme mit komplexer Sensorik und Regelung eine immer größere Bedeutung. Der Trend zeigt zudem den Bedarf an Produktionsstätten auf, die nicht nur fest einprogrammierte Abläufe, sondern auch unbekannte, sich wechselnde Bedingungen und Anforderungen bedienen können. Im industriellen Umfeld kommen derartige Robot-Vision Systeme bereits zum Einsatz, wobei das Potenzial hier noch nicht ausgeschöpft scheint.
Neben der Automatisierungstechnik soll das Haupteinsatzfeld der Manipulatoreinheit in der Medizintechnik, genauer der Medizinrobotik liegen. Auf Basis des 3D-Endoskops als optischer Sensor werden herausfordernde Themen wie die automatische Navigation / Bahnführung oder die Positionsregelung medizinischer Instrumente in aktuellen Forschungsaktivitäten verankert. Das 3D-Endoskop wird mit Algorithmen der Bildanalyse zu einem messenden Instrument ausgebaut. Auf dieser Basis wird man in der Lage sein, die räumliche Lage von Objektpunkten zu messen. Ist diese Information verfügbar, lassen sich Instrumente oder das Endoskop selbst autonom oder semi-autonom durch Verfahren der Regelungstechnik in der Position stabilisieren, in komplexen Bewegungsbahnen führen oder gar für medizinische Eingriffe nutzen. Im Folgenden seien exemplarisch zwei Applikationsszenarien genannt.
- Operative Eingriffe durch kleinste Öffnungen im Körper stellen sehr hohe Anforderungen an die Geschicklichkeit des Chirurgen bei der Handhabung der Instrumente. Hier steht die intrakorpale Positions- und Lageregelung im Vordergrund, welche eine echtzeitfähige Ansteuerung der Manipulatoreinheit bzw. der Instrumente voraussetzt.
- Das autonome Agieren im Operationsgebiet und die Durchführung von Teilaufgaben durch den Roboter soll den Mediziner unterstützen und z.B. durch die Positionierung von medizinischen Instrumenten von Routinearbeiten entlasten. Die höchste Herausforderung an ein technisches System und die zugleich sicherheitskritischste Applikation wäre jedoch sicherlich der aktive chirurgische Eingriff, also das Durchtrennen und Veröden von Gewebestrukturen und Gefäßen oder die Ausführung eines Nahtvorgangs. Laparoskopische Operationen sind für den Mediziner von besonderem Schwierigkeitsgrad, da das Fehlen der taktilen Rückkopplung eine sehr gute Hand-Auge-Koordination erforderlich macht, so dass ein aktives Assistenzsystem Vorteile liefert.
Assistierte 3D-Endoskopie
Projektart: öffentliche Förderung (MIWF, FH-Basis 2012)
Laufzeit: >5 Jahre
Wie auch in zahlreichen Veröffentlichungen, Studien und Positionspapieren [VDE/DGBMT] aufgezeigt, nehmen assistive Technologien in der Medizin und Chirurgie einen immer größeren Stellenwert ein. Die 3D-Endoskopie, auf dem Markt mit ein paar wenigen Produkten bereits verfügbar, zählt zu diesen Technologien, die durch das dreidimensionale Sehen dem Chirurgen eine optimierte Handhabung der Instrumente ermöglicht. Der Fokus aktueller Forschungsgruppen geht aber noch über der reinen 3D-Visualisierung hinaus [DRL: Medizinische Assistenzsysteme, TU München: SFB 453 Wirklichkeitsnahe Telepräsenz und Teleaktion]. Zukünftige Systeme werden den Chirurgen durch gezielte computergestützte Zusatzinformationen unterstützen oder gar (semi-) autonom Teilaufgaben übernehmen, um entweder zur Entlastung Routinearbeit zu erledigen oder präzisere Manipulationen durchzuführen. Dieser Entwicklungsschritt stellt den Übergang von der reinen Visualisierung bis hin zur OP-Robotik dar.
Voraussetzung derartiger innovativer Assistenzsysteme ist u.a. die exakte räumliche Vermessung des Arbeitsbereiches des Endoskops, z.B. im Bauchraum. Dieser beinhaltet Gefäße, Organe, krankhafte Veränderungen/Objekte oder auch medizinische Instrumente. Das 3D-Endoskop kann aber prinzipiell nicht nur eine stereoskopische Tiefenwahrnehmung für den Operateur leisten. Mit Hilfe von Methoden der Stereobildverarbeitung, wie im industriellen Alltag bereits etabliert, kann aus den Bilddaten der beiden Optiken des 3D-Endoskops (der Stereokamera) die dritte Dimension rekonstruiert werden. Man ist damit in der Lage das Endoskop zusätzlich als Messinstrument für die räumliche Lage von Objektpunkten zu erweitern. Erste Forschungsansätze zur 3D-Rekonstruktion [FH Reutlingen/IFA: Messendes 3D-Endoskop] und die damit verbundenen Assistenzsysteme gibt es bereits, marktfähige Realisierungen und Produkte im medizinischen Umfeld lassen jedoch noch auf sich warten. Hier sind noch erhebliche Forschungsanstrengungen nötig, wofür das beschriebene Forschungsprojekt seinen Beitrag liefern soll. Die Performance aktueller embedded Prozessoren verspricht jedoch eine echtzeitfähige Implementierung von Live-Stereobildverarbeitung und damit die Realisierbarkeit medizinischer Produkte.
Gegenstand der geplanten Forschungsaktivitäten ist zum einen die echtzeitfähige 3D-Rekonstruktion in endoskopischen Bilddaten unter dem Gesichtspunkt zukünftiger Assistenzsysteme. Neben der Entwicklungsmethodik und den Algorithmen zur (Stereo-)Bildverarbeitung, spielt im Rahmen der angewandten Forschung auch die Implementierung der Verfahren auf produktnaher Hardware (embedded Prozessoren) eine Rolle, um die prototypische Reife demonstrieren zu können. Hierfür besteht noch großer Forschungs- und Entwicklungsbedarf. Im Folgenden seien exemplarisch zwei Applikationen beschrieben.
- Eine mögliche Assistenzfunktion ist die Überlagerung (Augmentierung/Overlay) des 3D-Bildes mit virtuellen Zusatzinformationen. Dies können z.B. präoperative Daten aus anderen diagnostischen Untersuchungen sein, wie die Vermessung von Gefäßen und Gewebestrukturen, Organe oder zu lokalisierende Objekte/Anomalien mittels US/CT. Die eingebrachten Zusatzinformationen dienen der Orientierung und Navigation von Endoskop und Instrumenten und können so auch helfen, Verletzungen von empfindlichen Organstrukturen, wie Nerven und Blutgefäße zu vermeiden. Sind in einem anderen Fall durch Trübungen die optischen Sichtverhältnisse beeinträchtigt, so kann aus dem vom Computer berechneten 3D-Modell eine Darstellung für den Operateur erzeugt werden, in der teilweise virtuelle Objekte enthalten sind. Dies entspräche quasi in der Luftfahrt einem Blindflug mit Navigationshilfen. Zusatzinformationen müssen jedoch sicherlich stets so selektiert und präsentiert werden, dass der Operateur damit nicht überlastet wird.
- Operative Eingriffe durch kleinste Öffnungen im Körper stellen sehr hohe Anforderungen an die Geschicklichkeit des Chirurgen bei der Handhabung der Instrumente. Vor der Einführung der 3D-Endoskopie begünstigte dies die Entwicklung innovativer Roboter-assistierter Systeme, welche die automatische Steuerung/Navigation und die stabilisierte intrakorpale Ausrichtung von Endoskop und Instrumenten im Arbeitsraum zum Ziel haben. In diesem Applikationsbeispiel steht die Positions- und Lageregelung im Vordergrund, welche wiederum eine akkurate 3D-Rekonstruktion über das messende 3D-Endoskop und der nachgeschalteten Stereosignalverarbeitung voraussetzt.
Embedded Stereo Vision
Projektart: internes Projekt
Laufzeit: 2 Jahre
Kamerasensorik ist mittlerweile als Primärsensorik für Überwachungs-, Steuer- und Regelungsanwendungen im industriellen und alltäglichen Umfeld etabliert. Die Bedeutung insbesondere kleiner Systeme, z.B. in mobilen Applikationen, nimmt mit dem rasanten technologischen Fortschritt der Prozessor- und Rechnerarchitekturen stetig zu.
Die Verarbeitung von Daten komplexer Sensoren, wie Kamerasensoren (aber durchaus auch Daten von Radarsensoren, Laserscanner, …) ist jedoch je nach Anforderungen und Aufgabenstellung sehr komplex und rechenintensiv und stellen den Prozessor in kleinen eingebetteten Systemen vor großen Herausforderungen. Dies trifft natürlich in besonderem Maße bei Stereokamerasystemen zu.
Aus diesem Grund stellen sich aktuelle eingebettete Produktlösungen entweder noch als größere (PC-basierte oder PC-ähnliche) Mikroprozessor-Systeme dar oder es kommen leistungsfähige, kleinere Systeme unter Verwendung von Spezialprozessoren (DSP, FPGA) zum Einsatz. Auch die manuelle Codeoptimierung und die aufwendige Nutzung des prozessorspezifischen Befehlssatzes stellen die Praxis dar. Dies schränkt jedoch in vielen Fällen die Portierbarkeit, Skalierbarkeit und Weiterentwicklung von Systemen unvorteilhaft ein, was den Produktentwicklungsprozess ineffizient und teuer macht.
Das vorliegende Forschungsprojekt befasst sich mit der Entwicklungsmethodik von kleinen eingebetteten Bildverarbeitungssystemen, insbesondere zur Stereobildverarbeitung und soll primär mindestens eines der beiden Konzepte
- Einsatz von modellbasierten Entwicklungsmethoden und Codegenerierung
- Adaptierung der Hardware und SW-Algorithmen auf die Aufgabenstellung
untersuchen.
Nach Abschluss des Projekts stehen die Erkenntnisse und die Gerätschaften bereit, um hierauf aufbauend Folgeprojekte zu definieren. Die Schwerpunkte können sowohl die Entwurfsmethodik weiter voranbringen, aber auch in der Entwicklung neuer Bildverarbeitungsalgorithmen und deren Anwendungen liegen.
Automotive Vision
Projektart: Industrieprojekt/Auftragsforschung
Laufzeit: 2 Jahre
Das Projekt „Automotive Vision“ befasst sich mit der Entwicklung von Sensor- und Regelungsalgorithmen für das zukunftsweisende Gebiet der Fahrerassistenzsysteme. In Kooperation mit dem Institut für Regelungstechnik (IfR) der TU Braunschweig stehen Applikationen für eine autonome Fahrzeugführung eines PKW im Vordergrund. Eine Applikation ist die Entwicklung und Implementierung eines eingebetteten Systems, welches mit Hilfe von Kamerasensorik die Fahrspurgeometrie und die Lage des Fahrzeugs in der Fahrspur erfassen, um eine Regelung des Fahrzeugs in der Fahrspur zu realisieren. Weitere Arbeiten sollen komplexe Szenen des innerstädtischen Bereichs wahrnehmen, wie z.B. Ampellichtzeichen detektieren und klassifizieren, um eine autonome Navigation zu unterstützen.
HSI4MIC – Hyperspektrale Gewebeanalyse in der minimalinvasiven Chirurgie
Projektart: Bundesprojekt
Laufzeit: 08.2021 – 07.2025
Mitgliedschaften
- Forschungsschwerpunkt BioMedizinTechnik der Fachhochschule Dortmund
- IEEE Germany Section
- IEEE Signal Processing Society
- VDE Verband der Elektrotechnik Elektronik Informationstechnik e.V.
- Fachgesellschaft ITG (Informationstechnische Gesellschaft)
- FA „Signalverarbeitung und maschinelles Lernen“
- Fachgesellschaft DGBMT (Deutsche Gesellschaft für Biomedizinische Technik)
- FA „Bildgestützte navigierte Intervention“
- FA „Endoskopie, Chirurgische Instrumente und Telemanipulatoren“
- Fachgesellschaft ITG (Informationstechnische Gesellschaft)
- Promotionskolleg NRW (Öffnet in einem neuen Tab)
- Fachgruppe Technik und Systeme
- GETTEG e.V.
Publikationen
Konferenzpaper
2023:
- Streckert, Tim u. a. 2023. Using Synthetic Data to Increase the Generalization of a CNN for Surgical Instrument Segmentation. 2023 IEEE 12th International Conference on Intelligent Data Acquisition and Advanced Computing Systems: Technology and Applications (IDAACS), 336–340.
- Fromme, Dominik, Kaupenjohann, Matti & Thiem, Jörg 2023. Impact of Trivial Solutions on Classification Tasks Using CNNs. 2023 IEEE 12th International Conference on Intelligent Data Acquisition and Advanced Computing Systems: Technology and Applications (IDAACS), 395–399.
2020:
- Jahn, Uwe u. a. 2020. A Recommendation for a Systems Engineering Process and System Architecture for UAS. 2020 IEEE 3rd International Conference and Workshop in Óbuda on Electrical and Power Engineering, 91–96.
- Stampa, Merlin u. a. 2020. A Scenario for a Multi-UAV Mapping and Surveillance System in Emergency Response Applications. 2020 IEEE 5th International Symposium on Smart and Wireless Systems within the Conferences on Intelligent Data Acquisition and Advanced Computing Systems, 1–6.
2015:
- Thiem, Jörg & Tanriverdi, Fatih 2015. Stereo-Reconstruction with a 3D-Endoscope. Proceedings of the 49th DGBMT Annual Conference BMT 2015, n.n.
- Thiem, Jörg & Schroeder, Heiko 2015. Spatial Analysis of Hemoglobin Concentration with Hyperspectral Imaging Techniques. Proceedings of the 49th DGBMT Annual Conference BMT 2015, n.n.
2000:
Journalartikel
2021:
2015:
Lehre
Lehrprojekte
Lehrangebot
Im Sommersemester:
- Regelungstechnik (Bachelor)
- Bildgebende Verfahren der Medizintechnik 1 (Wahlfach Bachelor)
- Angewandte KI / Computer Vision (Master)
- KI-Systeme 1 (Master)
- Robotic Vision (Wahlfach Master)
Im Wintersemester:
- Einführung in die Robotik (Bachelor)
- Modellbildung und Simulation in der Biomedizintechnik (Bachelor)
- KI-Systeme 2 (Master)
- Advanced Robotic Vision (Wahlfach Master)
Projekt- und Abschlussarbeiten
In den Anwendungsfeldern
- Automotive
- Medizintechnik
- Industrierobotik
- mobile Robotik (krabbelnd, fliegend)
- Assistenzsysteme
biete ich Themen für studentische Arbeiten (Projektarbeiten, Abschlussarbeiten) an. In den Projekten geht es vielfach inhaltlich um die Methoden:
- Regelungstechnik
- Bildverarbeitung
- Messtechnik und Sensorik
- Embedded Systems (µC/ARM/DSP/ePC)
- Modellbasierte Entwicklung
Seit einigen Jahren pflege ich den Kontakt zum JPL der NASA am California Institute of Technology und habe den Austausch von Studierenden in die „JPL Mobility and Robotic Systems Section“ vorangetrieben. Unsere Hochschulleitung ist daran interessiert, den Kontakt weiter auszubauen. Wenn Sie über gute Programmierkenntnis (vorzugsweise in C/C++) verfügen, Erfahrungen im Bereich Computer Vision oder Embedded Processing verfügen, dann sprechen Sie mich an.
Bei Interesse an Projekt- und/oder Abschlussarbeiten zu diesen Bereichen oder an einer Betreuung extern durchgeführter Arbeiten nehmen Sie bitte mit mir Kontakt auf. Sprechen Sie mich einfach an.
Projekt- und Abschlussarbeiten (seit 2013)
2023
Leitfaden zur regularien-konformen Integration von Künstlicher Intelligenz in der CAR-T-Zellherstellung
Grundlagen der PET (Positron-Emissions-Tomographie)
Evaluation HSI-Linescan
Camera-based Heartrate Detection
Pulsdetektion mit ML
3D-Druck in der Medizin: Rekonstruktion und Anwendungen anatomischer Modelle aus medizinischen Bilddaten
Notruf-Handy-App und Webanwendung für Hilfesuchende in Notfällen
Anatomische Modelle für die Endoskopie
Spektroskopie
Entwicklung intelligenter Steuerungsmöglichkeiten durch die Verarbeitung elektromyographischer Daten
Windows Desktop-App zur kamerabasierten Pulsdetektion
Durchflusszytometrie
Quantifizierung der Messunsicherheit bei 3D-Bewegungs- und Verformungsmessungen via Stereokamerasystem unter Temperatureinfluss
Automated Driving Toolbox (ADT) in MATLAB/Simulink
Inbetriebnahme und Funktionen des Denso-Roboters (COBOTTA, VS087)
2022
Entwicklung eines Motion Capture Verfahrens basierend auf AprilTag Marker
Laserbasierte optische 3D-Vermessung für eine robotergestützte Venenpunktion
Classification in Hyperspectral Imaging (HSI) Data
Ametropie durch visuelles Training verbessern (1)
Ametropie durch visuelles Training verbessern (2)
Mobile CO2-Sensorik mit einem ExplorIR-W Modul auf Basis einer Arduino-WLAN Funkbrücke
Spektroskopische Untersuchung mittels eines CCD basierten Spektrometers
Patientendatenbank
Patientendatenbanken
CCD basierter Spektrometer
Konzeptionierung und Implementierung einer Webseite zum Vergleich des Workflows einer Stammzellanalyse
Robotergestützte Lokalisation chirurgischer Instrumente in der Medizinrobotik
Eine ZED Stereokamera Simulation
basierend auf Unreal Engine 4 und AirSim
CO2-Sensor
VAE-GAN zur Metallartefaktunterdrückung in der Computertomographie
Medizinrobotik, 3D-Rekonstruktion (2)
Objekterkennung und Bewegungsbestimmung im zweidimensionalen Bereich mittels
Bildsegmentierungsverfahren
2021
Bildsegmentierung von Instrumenten des da Vinci Roboters
A Vision-Based Deep Learning Approach to Autonomous UAV Navigation along Power Lines using Live Nadir Images
Berechnung und Evaluation der visuellen Odometrie eines fahrenden Pkws durch die Anwendung von Computer Vision Methoden auf KITTI Stereo-Bilddaten
3D-Bewegungsanalyse mit Microsofts Kinect V2
Zustandsbasierte Modellierung und Low-Power-Optimierung einer eingebetteten Software für ein Messgerät zur Fahrzeugortung
Erweiterung einer monovisuellen automatischen Musiktranskription um Tiefendaten einer Kinect v2 zur
Erkennung von Tastenanschlägen einer Klaviatur
Extraction of Higher-Level Document Information
Dense 3D reconstruction in surgical endoscopy with MATLAB
Model Predictive Control for Anti Swings of Logs Crane
Trajectory estimation from IMU and GPS sensor
Spektroskopie
Roboterchirurgie und die Klassifikation von Endometriose
Flow-Cytometrie
Steuerung eines PhantomX Reaktor Robot Arm über die Plattform Matlab/Simulink
Endometriose
Medizinrobotik, 3D-Rekonstruktion (1)
Anatomische Modelle für die Endoskopie
Neugestaltung einer Firmware auf Basis der Evaluation eines Prototyps
Untersuchung der Diagnostik bei Endometriose anhand der Laparoskopie
CO2-Sensorik
Implementierung eines bildverarbeitenden Algorithmus in CUDA zur Ausführung auf der GPU eines eingebetteten Systems
Programmierung eines Modellfahrzeuges für einen autonomen Einparkvorgang mittels Mikrocontroller und Distanzsensorik
Benchmarking of Pre-trained Neural Networks for Semantic Segmentation
using AirSim Data
Variational Auto-Encoder zur Metallartefaktreduktion in der Computertomographie
Sorting of healthy and deformed fishes using deep learning model
Steuerung von Dynamixel Servo-Motoren über Ethernet mit MATLAB
Steuerung von Dynamixel Servo-Motoren über Ethernet mit MATLAB
Stereokamerasystem mit zentraler Auswertung über ein ROS Netzwerk und MATLAB
Autofluoreszenzbildgebung in der onkologischen Diagnostik
Ansteuerung einer Roboter-Arbeitsleuchte
2020
Endometriose
Automatisierung der forensischen Datensicherung und -aufbereitung
Camera Pose Refinement for Dense 3D Reconstruction from Monocular Image Sequences
Berechnung und Visualisierung von Raumlagewinkeln auf zwei Achsen, mittels eines Beschleunigungssensors
Design and development of a medium ranged pupilometer with a near Infra-Red Camera
Echtzeitfähige Trajektorienplanung eines 6-Achsen Roboterarms zur Spiegelung detektierter Patientenbewegungen mittels Stereovision
Erweiterung eines Modellfahrzeuges um Distanzsensoren und eine drahtlose Kommunikationsschnittstelle
Robotic Vision using Embedded RGB and OR camera sensors
Videoanalyse und Steuerung eines modifizierten Xbox-Controllers
Modell zur Steuerung eines Servomotors mit Simulink
Objekterkennung und Entfernungsberechnung mittels Stereokamera auf einer eingebetteten GPU-Plattform
Facial Landmarks Detection and Lip Reading on a
Distributed System Based on an Android Device
and a Remote Server Based on Tensor Flow
Entwicklung und Implementierung eines Bildanalyse-Algorithmus zur autonomen Navigation für die Parrot Mambo Minidrohne
2019
Modellbasierte Linienverfolgung mit einer Parrot Minidrohne in MATLAB / Simulink
Marker-basierte optische Posenschätzung zum Greifen beweglicher Objekte mittels Industrieroboter
Implementierung und Evaluierung einer 3D-Kartierung auf einem eingebetteten System unter Anwendung des ICP-Verfahrens auf Punktwolken einer passiven Stereokamera
Adaption des medizinischen Greifers Aesculap PL414R an den Robotikgreifer Weiss WSG50
Street side garbage bin detection as an example for non-safety critical feature customization of current commercial vehicle control systems
Entwicklung von Algorithmen zur Bestimmung des optischen Flusses auf der Parrot Mambo Minidrohne für die Verbesserung der Flugstabilität
Bewegungssteuerung und Sensorik für den Hexapod Mark III
Bewegungssteuerung und Sensorik
für den Hexapod Mark III
Vergleich aktueller Verfahren zur Fusion von Tiefeninformationen unter Verwendung einer plattformunabhängigen Testumgebung
Design and Development of a medium ranged pupilometer with a near Infra Red Camera
XBox-Controller-Schnittstelle
Clusteranalyse hyperspektraler Bilddaten mittels selbstorganisierenden Karten unter Einsatz der Hauptkomponentenanalyse zur Dimensionsreduktion
Inbetriebnahme der Stereo Kamera „ZED“ mit Matlab - Erstellung von 3D Karten mit Hilfe des ICP Algorithmus
Integration und Steuerung eines Roboterarms in der Unreal Engine 4 unter Verwendung einer Datenschnittstelle zu MATLAB
AVATAR: Implementation of facial landmark
detection on an android device
Entwicklung einer echtzeitfähigen Vision-basierten Robotersteuerung zur Spiegelung von Patientenbewegungen
Kalibrierung von flexiblen Endoskopen
Objekterkennung und Entfernungsbestimmung auf Basis von fusionierten RGB- und Tiefeninformationen mittels MATLAB
Steuerung eines Servo-Greifers durch einen visuell geführten 6-Achs-Industrieroboter auf Basis einer Marker-basierten optischen Posenschätzung
Parrot Mambo in MATLAB und Simulink
2018
Klaviaturerkennung mit Methoden der Bildverarbeitung
3D-Landmarkenrekonstruktion durch Stereovision in Simulink Real-Time für die Ansteuerung eines Denso 6-Achsen Roboterarms
Gene Filler: An algorithmic approach to predict SNP variations in Human Genome, which determines iris pigmentation and structure
Gene Filler: An algorithmic approach to predict SNP variations in Human Genome, which determines iris pigmentation and structure
Modellbasierte Entwicklung einer Roboter gestützten Führung eines HSI-Zeilenscanners
Simulation und parallele Ansteuerung von Denso Robotern
Objekterkennung und -verfolgung mit Simulink und Arduino IDE
Methodischer Vergleich von optischen Messverfahren (Stereovision und Time-of-Flight)
Analyse der visuellen Spracherkennung mittels diskreter Kosinustransformation und Hidden Markov Modellen basierend auf Daten des audiovisuellen Sprachkorpus GRID
An Overview of Voice Recognition in Vehicular Applications
Realisierung einer Geschwindigkeitsregelung von Servomotoren unter Einsatz eines WLAN-Funk Moduls und MATLAB
Generierung von Ebenenparametern aus 3D-Punktwolken einer Tiefenkamera unter Verwendung von ROS
Inbetriebnahme einer Hyperspektralkamera als Bestandteil eines Roboter-Vision-Systems zur Erstellung eines HSI-Cubes mit Hilfe eines Image-Stitching Algorithmus
Visualization of Facial Expressions and Avatar Generation - A Survey
Stereo - Kalibrierung eines medizinischen 3D-Endoskops unter Analyse von Nebenbedingungen der zu schätzenden intrinsischen und extrinsischen Kalibrierparameter
Hyperspektrale Bildgebung zur Evaluierung von Lebensmittelsicherheit und -qualität
Erfassung und Bewertung von multisensoriellen Daten zur Bewegungsanalyse eines Hexapods
Entwicklung eines Einklemmschutzsystems für elektrische Fensterheber mit Deep Learning Methoden
Erfassung und Auswertung von EMG-Signalen zur konzeptionellen Steuerung eines künstlichen Arms
Hyperspektrale Bildgebung zur Evaluierung von Lebensmittelsicherheit und -qualität
Parallele Ansteuerung zweier Denso Roboter
2017
Inbetriebnahme und Evaluierung einer Hardwareplattform für eine Mustererkennung mittels FPGA
Prototypenbau einer sensorgesteuerten Insektenschutztür mit Wirtschaftlichkeitsbetrachtung für eine Markteinführung
Pupillometrie mittels Farbsegmentierung durch k-Means-Clustering
Visuelle Spracherkennung mittels Dynamic Time Warping
Konzeptionierung einer Zitzenvermessung mittels optischer Bilderkennung
Prototypenentwicklung einer Zitzenvermessung mittels optischer Bilderkennung
Gesichtserkennung in MATLAB mit Computer Vision System Toolbox
Realtime 3D Laborvisualisierung in der Unreal Engine 4
Analyse und Datenaufbereitung für einen Fenstereinklemmschutz mit Deep Learning
Kalibrierung mit Matlab
Positionsregelung für einen Hexapod-Roboter
Monovisuelle Höhenmessung einer Drohne auf einer intelligenten Embedded Kamera-Plattform
Aufbau und Bewertung eines autonomen Modellfahrzeugs auf Basis zweier Dynamixel AX-12A Servos und eines Arbotix-M Controller Boards
Künstliche Neuronale Netze
Visuelle Spracherkennung anhand lautformender Mundbilder mithilfe der Hauptkomponentenanalyse
Entwicklung einer Echtzeit-Positionsregelung für Robotikanwendungen unter Simulink Real-Time auf Basis einer XY-Lineareinheit
Überwachung der Sicherheitszonen von Industrierobotern für den medizinischen Einsatz
Implementierung autonomer Navigationsmöglichkeiten auf einem Miniatur Quadcopter ausgestattet mit einem Snapdragon Flight Board
Inbetriebnahme und Programmierung eines Dynamixel AX-12A Servos mit einem Arduino kompatiblen Mikrocontroller
Pupillometrie
Simulation der Sicherheitszonen von Industrierobotern
Flight Planning and Multispectral Image Stitching using Pix4d and the Tetracam on Micro Air Vehicles in Agricultural Environments
Entwicklung eines Algorithmus zur Laserscanner-basierten Extraktion von Erntegutmerkmalen
Visuelle Spracherkennung anhand von Mundbildern
Entwicklung eines Algorithmus und Steuerungskonzeptes einer flexiblen Prüfzelle für 2D- und 3D-Bildverarbeitungsanwendungen
Implementierung einer Steuerungssoftware für einen Hexapod-Roboter auf Basis einer GUI unter MATLAB
2016
Dynamische Interaktion mit Programmen ohne Eingriff in deren Quellcodes am Beispiel von Minesweeper
Erfassung von EMG-Signalen mithilfe von e-Health-Shield und Arduino ATMega2560 Mikrocontroller zur Steuerung eines Armroboters sowie Darstellung in MATLAB
Drehzahlregelung eines Prozessorlüfters mit Simulink Real-Time
Integration einer intelligenten Embedded Kameraplattform auf dem Quadrocopter 3DR Solo
Messung der Herzrate mittels einer Hypersketral-Kamera
2D- und 3D-Analysen mit Hilfe des Lasertriangulationsverfahrens und Verifizierung der Ergebnisse mit Matlab
GPS-basierte Akquise von Luftbildaufnahmen mit einer intelligenten ARM/DSP Kameraplattform für UAV-Applikationen
Videobasierte PC-Steuerung eines Minicopters unter MATLAB
Modellbasierte Entwicklung eines optischen Nahfeldsensors für den Einsatz in intelligenten Gehhilfen
Entwicklung einer haptischen Steuerung eines Robot-Vision-Systems auf Basis eines Simulink Real-Time Echtzeitrechners mit Roboterkinematik
Inertialsensorik
Entwicklung und Analyse von merkmalsbasierten Bildverarbeitungsalgorithmen mittels MATLAB Codegenerierung und OpenCV auf einer intelligenten Embedded Plattform
Analyse der Gesichtsmimik zur Klassifikation von Emotionen mit Methoden der Bildverarbeitung
Optische Prozessüberwachung bei Mikroflotationsanlagen (OPM)
Robotergestützte Navigation eines 3D-Endoskop unter MATLAB
Empfang und Weiterverarbeitung von GPS-Daten auf einer intelligenten ARM/DSP Kameraplattform
Aufbau und Kalibrierung eines 3D Robot-Vision Systems
Parallele Ansteuerung zweier Roboter-Greifer basierend auf eine Greifkraftmessung
Implementierung von Algorithmen zur Kantendetektion in Bilddaten auf einer intelligenten Embedded Plattform
Erkennung und Verfolgung medizinischer Instrumente in endoskopischen Bildsequenzen mit MATLAB
Untersuchung und Evaluierung eines infrarot-basierten 2-D-Scanners zur Nahfelderfassung
Modellierung eines Konzepts für einen Tastersimulator
Development of a Tandem Micro Air Vehicle System for Joint 3D Terrain Reconstruction
Untersuchung der parallelen Programmierung von Computer Vision Algorithmen mit MATLAB im Hinblick auf Laufzeitverbesserungen
Kooperative Echtzeitsteuerung zweier Industrieroboter als Master-Slave-System
Entwicklung eines Kamerasystems zur Positionsbestimmung für die Regelung eines Quadrocopters im dreidimensionalen Raum
Entwicklung und Verifizierung eines Robot-Vision-Systems zur invarianten Erkennung von Piktogrammen mit MATLAB
Konzeptionierung einer Zitzenvermessung mittels optischer Bilderkennung
2015
Aufbau eines DGPS-Sensorsystems zur Messung von Relativpositionen (2)
Untersuchungen zur Flugfähigkeit einer funkgesteuerten Drohne mittels eines Arduino
Benchmarking einer aktiven Tiefenkamera für die Objekterkennung
Aufbau und optische Positionsregelung einer XY-Lineareinheit für Robotikanwendungen
3D-Rekonstruktion in der Endoskopie mit MATLAB/Simulink
Überprüfung der inversen Kinematik des Hexapods Mark II von Trossen Robotics unter Zuhilfenahme der Robotics Toolbox in MATLAB
Berechnung der Bauteilschädigung für Luftfedermodule in der Programmiersprache Python
Aufbau eines DGPS-Sensorsystems zur Messung von Relativpositionen
Entwicklung einer Akku-Management-Einheit für Embedded Vision Anwendungen
Implementierung eines Algorithmus zur 3D-Rekonstruktion auf einer intelligenten ARM/DSP-Kamera
Funksteuerung eines Flug-Modells mit einem Arduino
Programmierung einer GUI für das Ansteuern und Einlesen der Achs-Winkel eines sechsachsigen Industrieroboters
Echtzeitsteuerung eines Industrieroboters mit der xPC-Target Plattform (Teil 2)
Tracking von Objekt-Hypothesen mittels Kalman-Filter
Aufbau und Erprobung einer Versuchsumgebung für die Spektralanalyse der Hämoglobinkonzentration mit Hilfe des Hyperspectral Imaging