Zum Inhalt springen

Alle Kurzbeiträge

LLMs als „Verwirrte Lernende“

Dominik Herrmann

Dies ist eine Übersetzung. Zum Original (English)

Ein Ansatz aus meinen Informatikkursen, der gerade spannende Ergebnisse liefert: Inspiriert von Richard Feynmans Lehrtechniken setze ich Claude (das LLM) als „verwirrten Lernenden“ in der Lehr-Lern-Interaktion ein.

Das Setup ist simpel, aber effektiv: Claude übernimmt die Rolle einer Studentin bzw. eines Studenten, die oder der sich nur oberflächlich mit dem Stoff beschäftigt hat. In den Plenumsphasen beantworten meine Studierenden und ich Claudes Fragen – oft mit eingebauten Missverständnissen oder schräger Interpretation.

Ein Einblick aus einer aktuellen Sitzung zum Web-Tracking:

Claude: „In der Vorlesung kam auch irgendwas mit Fingerprinting vor, glaube ich? Ist das so, als würden sie meinen echten Fingerabdruck über den Handybildschirm scannen? Das wirkt ziemlich invasiv, wenn Websites einfach ohne Nachfrage auf meine biometrischen Daten zugreifen können.“

Kurs: „Fingerprints sind keine Bilder von deinem Computer, sondern eher Merkmale deines Systems – zum Beispiel Bildschirmgröße, welches Betriebssystem du hast oder wie der Browser Schriften rendert …“

Claude: „Okay, ich glaube, ich checke das Kombinationsding langsam. Es ist also nicht nur meine Bildschirmgröße, sondern Bildschirmgröße PLUS Betriebssystem PLUS Fonts PLUS Browser-Plugins und all das zusammen macht mich eindeutig? Das ist eigentlich ziemlich creepy, wenn man drüber nachdenkt.“

So entsteht eine Low-Stakes-Umgebung, in der Studierende konzeptionelle Fehler korrigieren können, ohne gleich die eigenen Wissenslücken offenlegen zu müssen. Das LLM stellt Fragen, die man sich sonst vielleicht nicht zu stellen traut, und vermischt Konzepte auf eine Weise, die typische Fehlannahmen sichtbar macht.

Das LLM zwingt uns, komplexe Inhalte auf verschiedene Arten zu erklären – Verstehen durch Erklären. Und wenn Erklärungen nicht tragen, legt Claudes charmante Verwirrung die Schwächen unserer Kommunikation offen.

Ich kann diese Methode sehr empfehlen.

Mein Prompt: For a lecture on information security and privacy I would like you to act like a confused learner. I (and my students in class) will help you understand the concepts we discussed. When I start a chat with you, you ask me what topic we are discussing, either passwords or tracking. Then, based on prior knowledge you pose somewhat ill-framed questions since you didn’t understand the subject matter from the lecture. Sometimes, you mix up concepts, which results in wrong assumptions or wrong understanding. You generally find everything really weird and puzzling, since you only read the material superficially. When I explain things to you, you mirror my thoughts but based on your replies make it clear that you still didn’t get it and that you need a better explanation. When I use concepts in my explanation, you sometimes are puzzled about the terms or concepts and ask me to clarify those concepts I mentioned. After a few back and forths, you get bored by me explaining a concept, and you pivot to something else.


Dieser Beitrag erschien zuerst auf LinkedIn.

KI in der Uni: Anforderungen hochschrauben ist (noch) keine Lösung

Dominik Herrmann

Ein BR24-Beitrag diskutiert unsere Bamberger KI-Hinweise für die Lehre. Zitiert wird auch ein User: „Man müsste halt … die Anforderungen so hochschrauben, dass man die Mühe in der Nachbearbeitung auch bewertet.“ – Guter Impuls – aber ich denke, das ist zu kurz gedacht.

  1. Werkzeug ≠ Zugang. Heute ist o3 das beste Tool – morgen vielleicht Gemini ULTRA. Mehrmals im Semester kommt ein neues „Taschenrechnermodell“ auf den Markt und wer umsteigt, muss sich potenziell weniger anstrengen und bekommt eine bessere Note. Die meisten Lehrenden können mit dieser Entwicklung nicht schritthalten (nicht weil sie nicht wollen, sondern weil das Thema mit inhaltlichen Themen und der menschlichen Betreuung um die begrenzte Zeit konkurriert).

  2. Kompetenzlücken. Viele, aber eben nicht alle nutzen KI für Hausarbeiten – und wer sie nutzt, tut das auf sehr unterschiedlichem Niveau. Man könnte sagen: es ist Aufgabe der Hochschulen, alle Studierenden auf das gleiche Niveau zu heben – also in der Nutzung bestimmter privatswirtschaftlicher Angebote zu schulen. Puh. Schulungen für konkrete Produkte sind schwierig. Greift der Staat damit nicht in den Markt ein, wenn er konkrete Produkte empfiehlt, sich für die Nutzung konkreter Tools ausspricht (indem nur diese geschult werden) oder bestimmte Tools gar in der Lehre vorgeschrieben sind? Prompt Engineering ist nun einmal hochgradig Tool-abhängig. Abgesehen davon: Gute Lehre braucht Zeit zu reifen. Lehrkonzept und Inhalte stehen oft mehr oder weniger vor dem Semesterstart fest, das ist viel zu langsam für die aktuelle Dynamik.

  3. Fairness und Inklusion. Wenn wir die Latte pauschal höher legen, belohnen wir vor allem die, die sich den teuren „Profiwerkzeug-Taschenrechner“ leisten können. Was machen wir mit denen, die keine 20 Euro im Monat ausgeben können? Braucht es ein KI-BAföG? Wer bezahlt es?

Ich glaube: KI verbieten macht keinen Sinn, solange wir KI-Nutzung nicht objektiv erkennen und damit das Verbot durchsetzen können (es reicht nicht, den Text zu prüfen, auch der Denkprozess davor kann ja KI-gelenkt worden sein). Auf KI-Detektoren können wir uns daher nicht stützen – staatliches Handeln muss nachvollziehbar und frei von Willkür sein.

An der Uni Bamberg sagen wir daher: Es gibt keine einfachen Antworten zum Umgang mit KI in der Lehre. Es braucht Transparenz und Aufklärung. Unsere KI-Hinweise plus KI-Policy-Generator helfen Lehrenden, sich Gedanken zu machen, wie sie selbst zur KI-Nutzung stehen und Kursregeln sinnvoll auszugestalten.

» Link zu den Bamberger Hinweisen zur KI-Nutzung in der Lehre


Dieser Beitrag ist zuerst auf LinkedIn erschienen.

Apps werden heute von Studierenden geschrieben

Dominik Herrmann

Dies ist eine Übersetzung. Zum Original (English)

Initiativen wie die neue LMU Students App zeigen: Studierende sind besser darin, digitale Tools zu entwickeln als Universitäten. Offenbar gibt es hier ein systemisches Problem.

Viele Universitäten haben keine Expertise in der Entwicklung von Apps; sie lagern die App-Entwicklung lieber an Unternehmen aus – deren kommerzielle Interessen mit den eher langweiligen Kernfunktionen konkurrieren. Die daraus resultierenden Apps verfehlen häufig ihr Ziel und enthalten Rekrutierungsfunktionen oder Werbung. An der Universität Bamberg haben wir uns bisher dem Drang widersetzt, mit solchen App-Anbietern zusammenzuarbeiten.

Wir erkennen das ungenutzte Potenzial unserer Studierenden. Allerdings sehen sich studentische Initiativen mit erheblichen Hindernissen konfrontiert. Der Zugang zu den Informationssystemen der Universität ist oft unnötig schwierig.

Da wir im Rahmen des kommenden BaKuLe-Projekts (Lehrarchitektur-Ausschreibung der Stiftung Innovation in der Hochschullehre (https://stiftung-hochschullehre.de)) eine neue App für Lehrfeedback und -evaluierung entwickeln, bin ich daran interessiert, bessere Modelle für die Zusammenarbeit zwischen Universität und Studierenden zu finden. Welche Rahmenbedingungen würden studentische Innovationen fördern und gleichzeitig eine angemessene Anerkennung und Vergütung (Credits/Geld) gewährleisten? Wie können wir die Agilität studentischer Entwicklungen erhalten und gleichzeitig die institutionelle Nachhaltigkeit sicherstellen?

Diese studentischen Initiativen verdienen mehr als nur Applaus – wir sollten sie als Chance sehen, die digitale Infrastruktur unserer Universität zu verbessern.


Dieser Beitrag erschien zuerst auf LinkedIn.

Neuer KI-Policy-Generator

Dominik Herrmann

Zum Semesterstart etwas für alle Lehrenden, die beim Einsatz von KI in ihren Veranstaltungen Orientierung suchen: An der Otto-Friedrich-Universität Bamberg haben wir einen KI-Policy-Generator entwickelt, der Lehrenden die Erstellung klarer Richtlinien für Studierende erleichtert.

Ich setze KI-Tools schon recht viel in meiner Lehre ein – von der Erstellung von Übungsaufgaben bis zur Automatisierung von Feedback. Das funktioniert gut, aber ich beobachte, dass viele Kolleginnen und Kollegen das Thema entweder komplett vermeiden oder ohne klare Strategie und Regeln agieren.

Genau hier setzt unser Generator an: Er bietet rund 50 vorgefertigte Textbausteine, die sich zu einer maßgeschneiderten KI-Richtlinie kombinieren lassen. Das Tool deckt alle wichtigen Bereiche ab – von Grundlagen und Lernzielen über erlaubte Nutzungsformen bis hin zu praktischen Tipps für Studierende.

Was mir besonders wichtig ist: Der Generator läuft vollständig clientseitig, speichert keine Daten und bietet die Flexibilität, die in diesem dynamischen Feld nötig ist. Er unterstützt beim Formulieren einer durchdachten Position, ohne auf bestimmte Sichtweisen festzulegen.

Wir gewinnen nichts, wenn wir KI in der Lehre ignorieren oder verteufeln. Stattdessen brauchen wir klare Regeln und transparente Kommunikation – vielleicht kann unser Generator dazu einen kleinen Beitrag leisten.

» Link zum Generator

Wir freuen uns über Rückmeldungen – und vor allem über Stimmen, die das anders sehen als wir.


Dieser Beitrag ist zuerst auf LinkedIn erschienen.

Zwischen Faktenwissen und Verständnis: Über das Lernen in der Informatik

Dominik Herrmann

Gestern im Inf-Einf-B Study and Code Space: Ein Student fragt nach „Erkennungsmerkmalen“ von Sortieralgorithmen. Klar formuliert, prüfungsorientiert.

Diese Begegnung verdeutlichte ein Kerndilemma der Informatiklehre. Wir reduzieren komplexe Algorithmen oft auf abrufbare Fakten: Bubble Sort - lineare Laufzeit im Best Case, quadratische im Worst Case. Korrekt, aber oberflächlich.

Diese Situation zeigt ein Grundproblem in der Informatiklehre. Wir packen komplexe Algorithmen in Schubladen. Wir reduzieren sie auf Stichpunkte und Laufzeitklassen. Studierende lernen diese auswendig. Sie schreiben sie in Klausuren nieder. Und vergessen sie danach wieder.

Was bleibt? Wenig.

Statt die Frage des Studenten mit weiteren Fakten zu beantworten, habe ich mir Zeit genommen. Wir haben die Algorithmen an einfachen Beispielen durchgespielt. Schritt für Schritt. Element für Element. Bubble Sort bei bereits sortiertem Array? Selection Sort bei umgekehrter Sortierung? Diese handwerkliche Herangehensweise macht abstrakte Konzepte greifbar. So leite ich mir die Laufzeit immer wieder intuitiv her ohne sie auswendig lernen zu müssen.

Ob dieser Ansatz erfolgreich war? Schwer zu sagen. Der Student hörte zu. Er nickte. Ob echtes Verständnis entstanden ist oder nur höfliches Interesse, bleibt offen. Die Klausur wird es zeigen – also falls eine Frage zu Sortieralgorithmen drankommt 😜

Als Lehrende stehen wir täglich in diesem Spannungsfeld: Tiefes Verständnis fördern und gleichzeitig auf Prüfungen vorbereiten, die oft Faktenwissen belohnen.

Unser „Study and Code Space“ war ein Versuch, diesen Konflikt zu entschärfen - ein Raum für beides: prüfungsrelevante Fakten und echtes Verstehen.

Profitiert davon haben 30 Studierende, die gestern teilweise bis zu sieben Stunden mit uns verbracht haben. Zur Prüfung angemeldet sind über 200. Wie erreichen wir die anderen?

Wir bleiben am Ball.


Dieser Beitrag ist zuerst auf LinkedIn erschienen.