Zum Inhalt springen

KI in der Uni: Anforderungen hochschrauben ist (noch) keine Lösung

Dominik Herrmann

Ein BR24-Beitrag diskutiert unsere Bamberger KI-Hinweise für die Lehre. Zitiert wird auch ein User: „Man müsste halt … die Anforderungen so hochschrauben, dass man die Mühe in der Nachbearbeitung auch bewertet.“ – Guter Impuls – aber ich denke, das ist zu kurz gedacht.

  1. Werkzeug ≠ Zugang. Heute ist o3 das beste Tool – morgen vielleicht Gemini ULTRA. Mehrmals im Semester kommt ein neues „Taschenrechnermodell“ auf den Markt und wer umsteigt, muss sich potenziell weniger anstrengen und bekommt eine bessere Note. Die meisten Lehrenden können mit dieser Entwicklung nicht schritthalten (nicht weil sie nicht wollen, sondern weil das Thema mit inhaltlichen Themen und der menschlichen Betreuung um die begrenzte Zeit konkurriert).

  2. Kompetenzlücken. Viele, aber eben nicht alle nutzen KI für Hausarbeiten – und wer sie nutzt, tut das auf sehr unterschiedlichem Niveau. Man könnte sagen: es ist Aufgabe der Hochschulen, alle Studierenden auf das gleiche Niveau zu heben – also in der Nutzung bestimmter privatswirtschaftlicher Angebote zu schulen. Puh. Schulungen für konkrete Produkte sind schwierig. Greift der Staat damit nicht in den Markt ein, wenn er konkrete Produkte empfiehlt, sich für die Nutzung konkreter Tools ausspricht (indem nur diese geschult werden) oder bestimmte Tools gar in der Lehre vorgeschrieben sind? Prompt Engineering ist nun einmal hochgradig Tool-abhängig. Abgesehen davon: Gute Lehre braucht Zeit zu reifen. Lehrkonzept und Inhalte stehen oft mehr oder weniger vor dem Semesterstart fest, das ist viel zu langsam für die aktuelle Dynamik.

  3. Fairness und Inklusion. Wenn wir die Latte pauschal höher legen, belohnen wir vor allem die, die sich den teuren „Profiwerkzeug-Taschenrechner“ leisten können. Was machen wir mit denen, die keine 20 Euro im Monat ausgeben können? Braucht es ein KI-BAföG? Wer bezahlt es?

Ich glaube: KI verbieten macht keinen Sinn, solange wir KI-Nutzung nicht objektiv erkennen und damit das Verbot durchsetzen können (es reicht nicht, den Text zu prüfen, auch der Denkprozess davor kann ja KI-gelenkt worden sein). Auf KI-Detektoren können wir uns daher nicht stützen – staatliches Handeln muss nachvollziehbar und frei von Willkür sein.

An der Uni Bamberg sagen wir daher: Es gibt keine einfachen Antworten zum Umgang mit KI in der Lehre. Es braucht Transparenz und Aufklärung. Unsere KI-Hinweise plus KI-Policy-Generator helfen Lehrenden, sich Gedanken zu machen, wie sie selbst zur KI-Nutzung stehen und Kursregeln sinnvoll auszugestalten.

» Link zu den Bamberger Hinweisen zur KI-Nutzung in der Lehre


Dieser Beitrag ist zuerst auf LinkedIn erschienen.