Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

DigiLehR - Lehren und Lernen in erweiterten Realitäten

Studieren wie im Jahr 1901? Das muss doch nicht sein!

 

Das Drittmittelprojekt DigiLehR strebt die strukturelle Verankerung von Mixed Reality Technologien (Augmented & Virtual Reality) in die moderne Hochschullehre an.
Studieninhalte werden so virtuell erlebbar und nahezu risikofrei übbar, sodass ein Verständnis für die Praxis schneller, langfristiger und individueller erworben werden kann. 

Dazu entwickeln und evaluieren wir im Hochschullehrbetrieb einerseits verschiedene Schnittstellen zwischen der Game Engine Unity, die als Basis für unsere Anwendungen dient, und Lernmanagementsystemen, also Datenbanken, die die Verfolgung des Lernfortschritts ermöglichen, andererseits explorative Anwendungsfälle für die Bereiche Automatisierung, Mediengestaltung und Verwaltungswissenschaften, die unser Verständnis für die Erfolgsfaktoren des Einsatzes von AR und VR in der Hochschullehre erweitern.

Die Ergebnisse der Forschung fließen in die Weiterentwicklung der Medien sowie einen Leitfaden für Dozierende ein, die durch diesen befähigt werden sollen, selbst xR-Medien zu gestalten und in der Lehre einzusetzen.


Laufzeit: 08/2021 - 08/2024 - 12/2025

Förderprogramm: Hochschule durch Digitalisierung stärken

Projektträger: Stiftung Innovation in der Hochschullehre in Trägerschaft der Toepfer Stiftung gGmbH (Förderkennzeichen: FBM2020-EA-630-08020)


Inhaltlicher Fokus der Projektverlängerung 08/2024 bis 12/2025:

 

– strukturelle Verankerung festigen: Evaluation des Leitfadens, Leitfaden als interaktiver Assistent

– Technische Optimierung: schnellere Entwicklung neuer VR-Lernumgebungen durch Modularisierung

– KI-Assistenz: dynamische Anpassung der VR-Szenarien an die Nutzer, adaptive Hilfestellungen, Kl-unterstütze Umgebungsgenerierung


Projektberichte

DigiLehR Sachbericht 1 vom 01.05.2022

DigiLehR Sachbericht 2 vom 31.03.2023

DigiLehR Sachbericht 3 vom 16.04.2024


Projektergebnisse

Parallel zur Entwicklung der Unity2ILIAS-Schnittstelle erwies es sich als hilfreich, ein gemeinsames neues Vokabular aufzubauen, um die zu entwickelnden Anwendungsfälle im interdisziplinären Team konzipieren zu können. Dabei sprachen wir regelmäßig über digitale Zwillinge, Grenzobjekte und -prozesse, mentale Modelle und Drehbücher (vgl. Buchbeitrag im Sammelband "VR in den Geisteswissenschaften"). Um dann die Anwendungsfälle im Lehrbetrieb mit Blick auf die Erfolgsfaktoren für einen wertvollen Einsatz von xR evaluieren zu können, wurden zunächst Fragebögen entwickelt und das Evaluationsvorgehen in einem Experten-Workshop validiert. In der Entwicklung der Anwendungsfälle stießen wir alsbald auf die Notwendigkeit, einen Feature Stack aus wiederverwendbaren Interaktionen aufzubauen, um immer schneller neue Szenarien entwickeln zu können, in denen sich die Lernenden durch Wiedererkennen der Interaktionen schnell zurecht finden können (vgl. Poster DELFI 2023). Zudem konnten wir im Rahmen der Evaluationen herausarbeiten, inwiefern der Determinismusgrad der Anwendungen einen Einfluss auf den Einsatzerfolg des Szenarios hat (Publikation in Arbeit).

Alle Erkenntnisse über den wertvollen Einsatz von xR in der Hochschullehre werden derzeit in einem Leitfaden für Dozierende zusammengefasst, sowie die bisher entwickelten Szenarien in wiederverwendbare Module geteilt und bereitgestellt. 

Prof. Dr.-Ing. Simon Adler

Projektleitung

FB Autom. u. Inform.
Tel +49 3943 659 316
Raum 2.201, Haus 2, Wernigerode
Sprechzeiten Online-Sprechstunde nach vorheriger Vereinbarung per E-Mail

Use Cases

Abbildung: Welche Szenarien funktionieren auf welchem Endgerät?

 

Eindrücke aus den Szenarien

Abfüllanlage

Der Use Case Abfüllanlage soll Lernende befähigen, eine Schulungsanlage von FESTO, die auf dem Campus steht, zu betreiben. Dazu erhalten die Lernenden traditionell eine Einweisung, von der sie zum Zeitpunkt des tatsächlichen Arbeitens an der Anlage einige Zeit später kaum noch etwas wissen, vor allem im Bezug auf die räumliche Anordnung von Steuerungselementen. Um dem zu begegnen, können Lernende nun virtuell üben, die Anlagenmodule sowie ihre Hauptbauteile zu identifizieren, den Materialfluss durch die Anlage zu kennenzeichen sowie die Anlage virtuell in Betrieb zu nehmen.

CNC-Fräse BOB

Die CNC-Fräse BOB ist eine neue Anlage mit 4 Modulen, die im Fachbereich Automatisierung für Lehrzwecke aufgestellt wurde. Lernende sollen an ihr das Konzept des digitalen Zwillings praxisnah erlernen. Dafür liegt nun das virtuelle Pendant zur realen Anlage vor, die virtuell betrieben werden kann.

Spin Coater

Der Spin Coater ist nur ein Teil des eigentlichen Szenarios, das sich mit der Beschichtung von Wafern für die Mikroelektronik-Produktion befasst. Unter der Anleitung von Prof. Jörg Fochtmann können Lernende im im virtuellen Raum Wafer betropfen, per Fliehkraft die Flüssigkeit auf der Oberfläche des Wafers verteilen und diese dann verdampfen lassen. Bei all diesen Schritten bestimmen Parameter wie Tropfenvolumen, Rotationsgeschwindigkeit und -dauer sowie Erhitzungsdauer die Schichtdicke auf dem Wafer, die abschließend auch gemessen werden soll. Dies ermöglicht die Erarbeiung der Formel für die Schichtdicke unter perfekten Bedingungen sowie das Einüben der Tätigkeiten, bevor es im richtigen Labor an die Arbeit geht. Das Szenario soll zukünftig noch um die weiteren Schritte der Produktion von Mikroelektronik erweitert werden.

Vergaberecht

Der Anwendungsfall Vergaberecht wird im Fachbereich Verwaltungswissenschaften in der Veranstaltung "Vergaberecht / e-Vergabe" von Prof. Wagner eingesetzt, um den Lernenden einen besseren Einblick in die Praxis des Vergaberechts im öffentlichen Dienst zu geben. Dazu finden sich die Lernenden in ihrer Rolle als Beratende in einem Gespräch mit KollegInnen wieder, in dem die Vergabe für Spracherkennungssoftware-Lizenzen vorbereitet wird. Die Antworten beeinflussen den Gesprächsverlauf. 

[Video der Stiftung Innovation in der Hochschullehre zum Use Case]

Mediengestaltung: Interview

Der Anwendungsfall Interview wurde für die Studierenden der Medieninformatik im Rahmen der Veranstaltung "Filmtechnik und Filmschnitt" bei Prof. Martin Kreyssig entwickelt. Sie sollen dabei die Möglichkeit bekommen, mithilfe einer abstrahierten Filmkamera Aufnahmen eines geskripteten Interviews im Dokumentarstil zu machen. Parameter wie ISO, Blende und Brennweite sowie Fokusdistanz werden dabei realitätsnah abgebildet und die Aufnahmen für den anschließenden Schnitt exportiert. Bevor es jedoch überhaupt losgeht, können die Studierenden den Dreh in VR vorbereiten, indem sie aus in der Szene erstellten Fotografien ein Storyboard erstellen.

Mediengestaltung: Special Delivery

Der Anwendungsfall "Special Delivery" leitet sich vom Szenario "Interview" ab und baut inhaltlich auf diesen auf. Studierende der Medieninformatik sollen in der Veranstaltung "3D-Animation" Inhalte der Filmtechnik und des Filmschnitts wiederholen und diese dann um Aspekte von Kamerafahrten erweitern. Dafür steht eine größere, bewegte Kriminalszene in einem Vorstadtviertel zur Aufnahme mit der abstrahierten Kamera zur Verfügung. Aufnahmen können auch hier zum anschließenden Schnitt exportiert werden.