Zum Inhalt springen

Alle Kurzbeiträge

KI in der Uni: Anforderungen hochschrauben ist (noch) keine Lösung

Dominik Herrmann

Ein BR24-Beitrag diskutiert unsere Bamberger KI-Hinweise für die Lehre. Zitiert wird auch ein User: „Man müsste halt … die Anforderungen so hochschrauben, dass man die Mühe in der Nachbearbeitung auch bewertet.“ – Guter Impuls – aber ich denke, das ist zu kurz gedacht.

  1. Werkzeug ≠ Zugang. Heute ist o3 das beste Tool – morgen vielleicht Gemini ULTRA. Mehrmals im Semester kommt ein neues „Taschenrechnermodell“ auf den Markt und wer umsteigt, muss sich potenziell weniger anstrengen und bekommt eine bessere Note. Die meisten Lehrenden können mit dieser Entwicklung nicht schritthalten (nicht weil sie nicht wollen, sondern weil das Thema mit inhaltlichen Themen und der menschlichen Betreuung um die begrenzte Zeit konkurriert).

  2. Kompetenzlücken. Viele, aber eben nicht alle nutzen KI für Hausarbeiten – und wer sie nutzt, tut das auf sehr unterschiedlichem Niveau. Man könnte sagen: es ist Aufgabe der Hochschulen, alle Studierenden auf das gleiche Niveau zu heben – also in der Nutzung bestimmter privatswirtschaftlicher Angebote zu schulen. Puh. Schulungen für konkrete Produkte sind schwierig. Greift der Staat damit nicht in den Markt ein, wenn er konkrete Produkte empfiehlt, sich für die Nutzung konkreter Tools ausspricht (indem nur diese geschult werden) oder bestimmte Tools gar in der Lehre vorgeschrieben sind? Prompt Engineering ist nun einmal hochgradig Tool-abhängig. Abgesehen davon: Gute Lehre braucht Zeit zu reifen. Lehrkonzept und Inhalte stehen oft mehr oder weniger vor dem Semesterstart fest, das ist viel zu langsam für die aktuelle Dynamik.

  3. Fairness und Inklusion. Wenn wir die Latte pauschal höher legen, belohnen wir vor allem die, die sich den teuren „Profiwerkzeug-Taschenrechner“ leisten können. Was machen wir mit denen, die keine 20 Euro im Monat ausgeben können? Braucht es ein KI-BAföG? Wer bezahlt es?

Ich glaube: KI verbieten macht keinen Sinn, solange wir KI-Nutzung nicht objektiv erkennen und damit das Verbot durchsetzen können (es reicht nicht, den Text zu prüfen, auch der Denkprozess davor kann ja KI-gelenkt worden sein). Auf KI-Detektoren können wir uns daher nicht stützen – staatliches Handeln muss nachvollziehbar und frei von Willkür sein.

An der Uni Bamberg sagen wir daher: Es gibt keine einfachen Antworten zum Umgang mit KI in der Lehre. Es braucht Transparenz und Aufklärung. Unsere KI-Hinweise plus KI-Policy-Generator helfen Lehrenden, sich Gedanken zu machen, wie sie selbst zur KI-Nutzung stehen und Kursregeln sinnvoll auszugestalten.

» Link zu den Bamberger Hinweisen zur KI-Nutzung in der Lehre


Dieser Beitrag ist zuerst auf LinkedIn erschienen.

Apps werden heute von Studierenden geschrieben

Dominik Herrmann

Dies ist eine Übersetzung. Zum Original (English)

Initiativen wie die neue LMU Students App zeigen: Studierende sind besser darin, digitale Tools zu entwickeln als Universitäten. Offenbar gibt es hier ein systemisches Problem.

Viele Universitäten haben keine Expertise in der Entwicklung von Apps; sie lagern die App-Entwicklung lieber an Unternehmen aus – deren kommerzielle Interessen mit den eher langweiligen Kernfunktionen konkurrieren. Die daraus resultierenden Apps verfehlen häufig ihr Ziel und enthalten Rekrutierungsfunktionen oder Werbung. An der Universität Bamberg haben wir uns bisher dem Drang widersetzt, mit solchen App-Anbietern zusammenzuarbeiten.

Wir erkennen das ungenutzte Potenzial unserer Studierenden. Allerdings sehen sich studentische Initiativen mit erheblichen Hindernissen konfrontiert. Der Zugang zu den Informationssystemen der Universität ist oft unnötig schwierig.

Da wir im Rahmen des kommenden BaKuLe-Projekts (Lehrarchitektur-Ausschreibung der Stiftung Innovation in der Hochschullehre (https://stiftung-hochschullehre.de)) eine neue App für Lehrfeedback und -evaluierung entwickeln, bin ich daran interessiert, bessere Modelle für die Zusammenarbeit zwischen Universität und Studierenden zu finden. Welche Rahmenbedingungen würden studentische Innovationen fördern und gleichzeitig eine angemessene Anerkennung und Vergütung (Credits/Geld) gewährleisten? Wie können wir die Agilität studentischer Entwicklungen erhalten und gleichzeitig die institutionelle Nachhaltigkeit sicherstellen?

Diese studentischen Initiativen verdienen mehr als nur Applaus – wir sollten sie als Chance sehen, die digitale Infrastruktur unserer Universität zu verbessern.


Dieser Beitrag erschien zuerst auf LinkedIn.

Neuer KI-Policy-Generator

Dominik Herrmann

Zum Semesterstart etwas für alle Lehrenden, die beim Einsatz von KI in ihren Veranstaltungen Orientierung suchen: An der Otto-Friedrich-Universität Bamberg haben wir einen KI-Policy-Generator entwickelt, der Lehrenden die Erstellung klarer Richtlinien für Studierende erleichtert.

Ich setze KI-Tools schon recht viel in meiner Lehre ein – von der Erstellung von Übungsaufgaben bis zur Automatisierung von Feedback. Das funktioniert gut, aber ich beobachte, dass viele Kolleginnen und Kollegen das Thema entweder komplett vermeiden oder ohne klare Strategie und Regeln agieren.

Genau hier setzt unser Generator an: Er bietet rund 50 vorgefertigte Textbausteine, die sich zu einer maßgeschneiderten KI-Richtlinie kombinieren lassen. Das Tool deckt alle wichtigen Bereiche ab – von Grundlagen und Lernzielen über erlaubte Nutzungsformen bis hin zu praktischen Tipps für Studierende.

Was mir besonders wichtig ist: Der Generator läuft vollständig clientseitig, speichert keine Daten und bietet die Flexibilität, die in diesem dynamischen Feld nötig ist. Er unterstützt beim Formulieren einer durchdachten Position, ohne auf bestimmte Sichtweisen festzulegen.

Wir gewinnen nichts, wenn wir KI in der Lehre ignorieren oder verteufeln. Stattdessen brauchen wir klare Regeln und transparente Kommunikation – vielleicht kann unser Generator dazu einen kleinen Beitrag leisten.

» Link zum Generator

Wir freuen uns über Rückmeldungen – und vor allem über Stimmen, die das anders sehen als wir.


Dieser Beitrag ist zuerst auf LinkedIn erschienen.

Zwischen Faktenwissen und Verständnis: Über das Lernen in der Informatik

Dominik Herrmann

Gestern im Inf-Einf-B Study and Code Space: Ein Student fragt nach „Erkennungsmerkmalen“ von Sortieralgorithmen. Klar formuliert, prüfungsorientiert.

Diese Begegnung verdeutlichte ein Kerndilemma der Informatiklehre. Wir reduzieren komplexe Algorithmen oft auf abrufbare Fakten: Bubble Sort - lineare Laufzeit im Best Case, quadratische im Worst Case. Korrekt, aber oberflächlich.

Diese Situation zeigt ein Grundproblem in der Informatiklehre. Wir packen komplexe Algorithmen in Schubladen. Wir reduzieren sie auf Stichpunkte und Laufzeitklassen. Studierende lernen diese auswendig. Sie schreiben sie in Klausuren nieder. Und vergessen sie danach wieder.

Was bleibt? Wenig.

Statt die Frage des Studenten mit weiteren Fakten zu beantworten, habe ich mir Zeit genommen. Wir haben die Algorithmen an einfachen Beispielen durchgespielt. Schritt für Schritt. Element für Element. Bubble Sort bei bereits sortiertem Array? Selection Sort bei umgekehrter Sortierung? Diese handwerkliche Herangehensweise macht abstrakte Konzepte greifbar. So leite ich mir die Laufzeit immer wieder intuitiv her ohne sie auswendig lernen zu müssen.

Ob dieser Ansatz erfolgreich war? Schwer zu sagen. Der Student hörte zu. Er nickte. Ob echtes Verständnis entstanden ist oder nur höfliches Interesse, bleibt offen. Die Klausur wird es zeigen – also falls eine Frage zu Sortieralgorithmen drankommt 😜

Als Lehrende stehen wir täglich in diesem Spannungsfeld: Tiefes Verständnis fördern und gleichzeitig auf Prüfungen vorbereiten, die oft Faktenwissen belohnen.

Unser „Study and Code Space“ war ein Versuch, diesen Konflikt zu entschärfen - ein Raum für beides: prüfungsrelevante Fakten und echtes Verstehen.

Profitiert davon haben 30 Studierende, die gestern teilweise bis zu sieben Stunden mit uns verbracht haben. Zur Prüfung angemeldet sind über 200. Wie erreichen wir die anderen?

Wir bleiben am Ball.


Dieser Beitrag ist zuerst auf LinkedIn erschienen.

Erster Inf-Einf-B Study and Code Space

Dominik Herrmann

7 Stunden Lernmarathon mit 30 Studierenden, 4 Tutoren und 1 Prof – aber hat sich der erste „Inf-Einf-B Study and Code Space“ auch gelohnt? Die Klausur wird es zeigen. 🧐

Was mich jedenfalls fasziniert: Die enorme Bandbreite der Fragen. In einem Moment helfe ich einem International Student in einem Mix aus Deutsch und Englisch in VS Code seinen Coleman-Liau-Readability-Index zu debuggen, im nächsten zeige ich, wie man mit Alt+Tab zwischen den Fenstern auf den Prüfungslaptops wechselt und dass man mit Shift und den Pfeiltasten Text markieren kann. Wahnsinn, wie unterschiedlich die digitalen Vorkenntnisse bei Informatikstudierenden sind!

Der Plan scheint jedenfalls aufgegangen zu sein: Die Atmosphäre war zeitweise etwas angespannt (Stau an der Kaffeemaschine!), aber insgesamt doch sehr entspannt. Es entstand ein produktives Klima, in dem Gruppe sowohl miteinander als auch von uns lernten.

Dieser niedrigschwellige Ansatz – kein frontales Repetitorium, sondern einfach nur einen Raum und ein paar hilfsbereite Personen bereitzustellen – scheint genau das zu sein, was in der intensiven Phase der Prüfungsvorbereitung gebraucht wird. Die gemeinsame Zeit schafft hoffentlich bessere Lerneffekte – dem Team Spirit tat es auf jeden Fall gut.

Gemeinsam statt einsam – ein Format, das wir definitiv weiterführen werden.

Die zugehörige Vorlesung gibt es hier: https://inf.zone/


Dieser Beitrag ist zuerst auf LinkedIn erschienen.