Individualisierung und Internationalisierung von Brückenkursen

Das Projekt verbessert mathematische Brückenkurse für ein breites und internationales Teilnehmerfeld. Dafür werden 2 Ansätze genutzt: Individualisierung und Internationalisierung.

Die Individualisierung erfolgt durch Testelemente auf Basis der im Projekt OSAInter von der Firma BPS implementierten Testablaufsteuerung. Diese erlaubt die Steuerung des weiteren Verlaufs eines Tests in Abhängigkeit von den bisher gegebenen Antworten. Durch diese Individualisierung soll eine an die Einzelperson angepasste Förderung des heterogenen Studierendenfelds erreicht, und somit die Studienerfolgsquote erhöht werden.

Die Internationalisierung beruht vor Allem auf der Einführung zwei- oder mehrsprachiger Brückenkurse, nicht nur auf Kursebene, sondern insbesondere auch auf Aufgabenebene. Dazu wurde von der Firma BPS die Möglichkeit implementiert, Aufgaben (und Tests) verschiedener Sprache, aber gleichen Inhalts,  miteinander verlinken zu können. Diese Möglichkeit der Verknüpfung ermöglicht eine nutzerfreundliche Wartung mehrsprachiger Inhalte. Weiterhin wurden in diesem Kontext die Möglichkeiten einer (halb-) automatischen KI-gestützten Übersetzung von Aufgaben ausgetestet.

Details

Projektträger

Sächsisches Staatsministerium für Wissenschaft, Kultur und Tourismus (SMWK)

Lessons Learned

Was lief gut im Projektverlauf?

Die Zusammenarbeit zwischen den beiden Universitäten und der Firma BPS gestaltete sich sehr fruchtbar. Dadurch konnten die Projektziele der Individualisierung und Internationalisierung an den jeweiligen Brückenkursen erprobt und erfolgreich umgesetzt werden. Die neuen implementierten Funktionen stellen eine nachhaltige Verbesserung der Plattform Opal dar. Im Kontext des Projekts entstanden außerdem neue elektronische Lehrinhalte.

Welche Herausforderungen ergaben sich bei der Projektdurchführung?

Das Ziel der KI-basierten automatischen Übersetzung erwies sich als schwieriger als zunächst angenommen. Insbesondere bei der Verarbeitung mehrerer Aufgaben auf einmal ist die Qualität der übersetzten Aufgaben sehr mangelhaft und viel menschliches Eingreifen ist erforderlich. Auch bei der Übersetzung einzelner Aufgaben sind nur eingeschränkt (oder entgeltpflichtige) Übersetzungstools wie DeepL zuverlässig genug, um einem menschlichen Nachbessern vorbeugen zu können.

Traten unerwartete Schwierigkeiten auf? Wenn ja, welche?

Nachdem bereits viele neue Multiple-Choice Aufgaben eines bestimmten Typs (auch 'kein gesetztes Kreuz' kann 'richtig' sein) neu erstellt worden waren, kam es im Backend von Opal/Onyx zu einer Änderung, wodurch all diese Aufgaben nicht mehr funktionierten. In Zusammenarbeit mit dem Support konnnte die genauere Ursache und eine Lösung zwar relative schnell gefunden werden, insgesamt entstand aber trotzdem nicht unerheblicher Zeitaufwand bei der notwendigen Überarbeitung der betroffenen Inhalte.

Was würden Sie aus Ihren Erfahrungen heraus für ähnlich angelegte Projekte empfehlen?

Die Mehrsprachigkeit von Testinhalten sollte am besten gleich bei der Erstellung mitgedacht werden, insbesondere die Verlinkung von unterschiedlich-sprachigen Aufgaben des gleichen Inhalts sollte direkt nach Erstellung erfolgen, um den Verwaltungsaufwand und die Fehleranfälligkeit dabei möglichst gering zu halten.
Die Automatisierte Übersetzung von Aufgaben erfolgt am besten via Download des entsprechenden xml-Files. Damit diese elektronisch gut weiter verarbeitet werden können empfiehlt es sich, diese zunächst in ein besser lesbares Format (Zeilenumbrüche etc) zu bringen - hierzu kann ein zip-Upload zu ChatGPT empfohlen werden. Dies erleichtert auch das Auffinden des tatsächlichen Aufgabeninhalts und somit die Weiterverarbeitung.
Für das Übersetzen selbst sind Vollversionen der jeweils geeigneten Tools (z.B. ChatGPT, DeepL, ...) sinnvoll.

Weitere „Lessons-Learned“:

Insgesamt stellt die Bearbeitung bzw Erstellung von Aufgaben im xml-Format mittels eines vertrauten Text-Editors nach einer kurzen Einarbeitungszeit einen sehr potentiell sehr effektiven Ansatz dar, insofern die Komplexität des Aufgabentyps dies zulässt.

Nachnutzungsmöglichkeiten

Die neu implementierten Funktionen in Opal (Aufgabenverlinkung, Abfragen der Nutzersprache, Kursnutzung ohne Registrierung) bleiben nachhaltig verfügbar, ebenso die im Zuge des Projekts neu erstellten Testinhalte.
Die Ergebnisse und Erkenntnisse wurden dokumentiert, evaluiert, und vorgestellt bzw. zugänglich gemacht.
Insbesondere wurden, soweit möglich, bereits bestehende Testinhalte für die Zwecke des Projekts wiederverwendet, so dass nicht sämtliches Material neu erstellt werden musste.

Studierendenzentrierung

Das Projekt ermutigt die Studierenden zu mehr Autonomie, dadurch dass die durch Testablaufsteuerung individualisierten Tests die Möglichkeit einer adaptiven Selbsteinschätzung bieten und so das selbstständige zielgerichtete Auffinden und Schließen eventueller Kompetenzlücken erleichtern.
Die starke Heterogenität des Studierendenfeldes wird in den Mittelpunkt gerückt und es werden Ansätze gefunden, um darauf einzugehen.

Weitere Informationen

Projektzeitraum: 01.04.2024 bis 31.03.2025

Produkt

Kontakt

Prof. Dr. Daniel Potts

Technische Universität Chemnitz

potts@mathematik.tu-chemnitz.de

+49 371 531 32150

Prof. Dr. Ralf Hielscher

Technische Universität Bergakademie Freiberg

ralf.hielscher@math.tu-freiberg.de

+49 3731 39 2689