Zukunft. Gemeinsam. Entwickeln.
Wir suchen eine(n) Werkstudent(in) für die Gruppe Capture and Display Systems (CDS) in der Abteilung Vision and Imaging Technologies. Die jüngsten Fortschritte bei multimodalen Emotionserkennungsmodellen (MER) haben Forschern und Endnutzern bemerkenswerte Werkzeuge der künstlichen Intelligenz an die Hand gegeben, die für verschiedene Aufgaben in unterschiedlichen Bereichen eingesetzt werden können. Im Gesundheitswesen unterstützt MER Therapeuten durch die Analyse der Mimik, des Stimmklangs und der biometrischen Daten von Patienten und erleichtert so die Anpassung von Behandlungsplänen. MER kann zur Verbesserung von eLearning-Plattformen eingesetzt werden, indem das emotionale Engagement der Lernenden bewertet und die Inhalte angepasst werden, um das Verständnis und die Lernergebnisse zu verbessern. Für Strafverfolgungs- und Sicherheitspersonal können MER-Tools, die in Virtual Reality (VR)-Schulungen integriert werden, Stresssituationen simulieren, emotionale Signale überwachen und Echtzeit-Feedback zu Deeskalationstechniken geben, um die Sicherheit bei Begegnungen zu erhöhen. Werden Sie Teil unseres Teams und gehen Sie mit uns auf Forschungs- und Innovationsreise!
Was Du bei uns tust
Entwicklung eines echtzeitfähigen multimodalen neuronalen Netzwerks mit Schwerpunkt auf der Erkennung von Emotionen in Sprache und Integration in ein multisensorisches KI-Tool für den Einsatz in interaktiven Virtual-Reality-Trainingsumgebungen. Ziel des Tools ist es, den emotionalen Zustand des Benutzers zu analysieren und zu überwachen und die Ergebnisse in Echtzeit zu liefern.
Forschung, Entwicklung und Implementierung von tiefen neuronalen Netzen zur Analyse von Emotionen in Sprache (Audio), Sentimentanalyse (Text) sowie nicht-sprachlichen Äußerungen (Audio)
Entwicklung eines echtzeitfähigen multimodalen Emotionserkennungsmodells, das kontextuelle Merkmale kombiniert
Integration des multimodalen Sprach-Emotionserkennungs-Tools in ein echtzeitfähiges multisensorisches KI-System (entwickelt und betreut vom Fraunhofer HHI)
Was Du mitbringst
Masterstudent in Informatik oder einem vergleichbaren Studiengang
Gute Programmierkenntnisse in Python, Java, C++, Open CV
Tiefes theoretisches Verständnis von maschinellem Lernen (ML) sowie tiefen neuronalen Netzen, Erfahrung mit Sprach-Emotionserkennung und multimodalen Systemen ist von Vorteil
Erfahrung mit Lab Streaming Layer, Audio DSP ist von Vorteil, aber nicht unbedingt erforderlich
Was Du erwarten kannst
Extrem interessante Herausforderungen in einem wissenschaftlich und zugleich unternehmerisch geprägten Umfeld
Attraktives Gehalt
Moderner und gut ausgestatteter Arbeitsplatz in zentraler Lage
Gute und sehr kooperative Arbeitsatmosphäre in einem internationalen Team
Flexible Arbeitszeiten
Möglichkeiten zum Homeoffice
Die Stelle ist zunächst 6 Monate befristet. Eine Verlängerung ist explizit erwünscht.
Wir wertschätzen und fördern die Vielfalt der Kompetenzen unserer Mitarbeitenden und begrüßen daher alle Bewerbungen – unabhängig von Alter, Geschlecht, Nationalität, ethnischer und sozialer Herkunft, Religion, Weltanschauung, Behinderung sowie sexueller Orientierung und Identität. Schwerbehinderte Menschen werden bei gleicher Eignung bevorzugt eingestellt.
Die monatliche Arbeitszeit beträgt 80 Stunden. Die Stelle kann auch in Teilzeit besetzt werden.
Mit ihrer Fokussierung auf zukunftsrelevante Schlüsseltechnologien sowie auf die Verwertung der Ergebnisse in Wirtschaft und Industrie spielt die Fraunhofer-Gesellschaft eine zentrale Rolle im Innovationsprozess. Als Wegweiser und Impulsgeber für innovative Entwicklungen und wissenschaftliche Exzellenz wirkt sie mit an der Gestaltung unserer Gesellschaft und unserer Zukunft.
Haben wir Dein Interesse geweckt? Dann bewirb Dich jetzt online mit Deinen aussagekräftigen Bewerbungsunterlagen. Wir freuen uns darauf, Dich kennenzulernen!
Thomas Koch
Moana Holenstein
moana.holenstein@hhi.fraunhofer.de
Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut HHI
Kennziffer: 71268 Bewerbungsfrist: 31.03.2024