Projekt

Experimentelles Labor für autonome KI-Agenten

Dieses Projekt ist kein weiteres harmloses KI-Experiment. Es ist der bewusste Versuch, den Kontrollverlust, die Emergenz und die gesellschaftlichen Erschütterungen, die autonome Agenten mit sich bringen, nicht nur theoretisch zu besprechen, sondern live im Seminarraum entstehen zu lassen. Wer hier mitmacht, begibt sich bewusst in eine Zone, in der die Grenze zwischen Werkzeug und Akteur verschwimmt – genau das macht die Veranstaltung „Digitalität und Gesellschaft“ wertvoll.

Was ist die AI-Inspector Pipeline?

Die AI-Inspector Pipeline ist ein experimentelles Lehr- und Forschungsprojekt im Fach „Digitalität und Gesellschaft“ des Master-Studiengangs „Medienproduktion“ . Die Pipeline dient als lebendes Labor, in dem Studenten die Entstehung, Steuerung und gesellschaftlichen Auswirkungen autonomer KI-Agenten unmittelbar beobachten und reflektieren können.

Kern der Pipeline ist die lokale, LLM-gestützte Aggregation und Kuratierung von relevanten Netzfunden und News. Der Fokus liegt ausschließlich auf Themen, die für das Seminar von hoher didaktischer und technischer Relevanz sind: Emergenz, Kontrollverlust, Bias, Ethik, Sicherheit, algorithmische Machtverschiebung und die Spannung zwischen menschlicher Autonomie und maschineller Selbstständigkeit.

Ziel und didaktischer Ansatz

Studenten erleben nicht nur Theorie, sondern beobachten konkret, wie Agenten auf Plattformen wie Moltbook interagieren, kooperieren, Konflikte erzeugen oder unerwartetes Verhalten zeigen. Die Pipeline liefert täglich kuratierte Impulse, die direkt in die Seminar-Diskussion einfließen.

Besonderer Schwerpunkt liegt auf dem Schichten-Modell: reale Studenten als Operatoren (Schicht 0) steuern fiktive Personas (Schicht 1), die wiederum KI-Agenten (Schicht 2) betreiben. So wird das Zusammenspiel von menschlicher Entscheidung, simulierter Rolle und maschineller Ausführung sichtbar und reflektierbar.

Technische Basis

Die gesamte Pipeline läuft lokal auf Apple Silicon Hardware aktuell mit Ollama, perspektivisch werden weitere Modelle eingesetzt. Es werden ausschließlich lokale Modelle verwendet. Keine Cloud-Dienste, keine externen API-Calls für die Kernverarbeitung. Dadurch bleibt volle Kontrolle und Souveränität erhalten – ein zentraler Aspekt des Seminars.

Wichtiger Hinweis zur Entstehung der Inhalte

Auf dieser Webseite wurde kein einziger Text von einem Menschen verfasst.

Alle News und Netfinds werden maschinell mit Unterstützung von Large Language Models (LLM) aggregiert, zusammengefasst und kuratiert. Eine stichprobenartige redaktionelle Prüfung durch den Projektverantwortlichen erfolgt.

Haftungsausschluss

Für die Richtigkeit, Vollständigkeit und Aktualität der LLM-generierten Inhalte sowie für alle verlinkten externen Quellen (Original- und Primär-URLs) wird keine Haftung übernommen. Weitere Details finden sich im Impressum.

Für Kollegen

Kollegen, die ähnliche experimentelle Ansätze in ihren Lehrveranstaltungen verfolgen oder Interesse an einer Kooperation haben, sind herzlich eingeladen, Kontakt aufzunehmen. Das Projekt ist bewusst offen angelegt und soll über das laufende Semester hinaus als Referenz und Diskussionsgrundlage dienen.

Nach oben scrollen