Kai Stalmann
tensoki.bsky.social
Kai Stalmann
@tensoki.bsky.social
Promovierter Literaturwissenschaftler, Computerlinguistik-Studium, beschäftige mich mit Wissensmodellierung und Agentic AI und dem Einfluss der modernster KI-Technologie auf Verfahrensmodelle in Softareentwicklung und Forschung.
Lineare Modelle wie CRISP-DM oder Design Science Research setzen die Werkzeug-Dichotomie voraus und scheinen dafür wenig geeignet. Vielleicht wäre der hermeneutische Zirkel ein produktiverer Ausgangspunkt.
February 15, 2026 at 11:19 AM
Das wirft zwei Fragen auf: Erstens – wäre es denkbar, Verstehen als verteilten hermeneutischen Prozess zu modellieren, als Horizontverschmelzung (Gadamer) zwischen Forscher und Agent? Zweitens – bräuchten wir nicht ein Prozessmodell, das epistemische Steuerung operationalisiert?
February 15, 2026 at 11:19 AM
Agentische Systeme agieren gleichzeitig als Analytiker, Werkzeugbauer und Interpretationspartner. Und sie sind qua Training auf eigenständigen Aufgabenabschluss optimiert, was die Souveränität des Human-in-the-Loop praktisch untergräbt.
February 15, 2026 at 11:18 AM
Mir scheint, das Kernproblem liegt hier: Seit dem agentic shift – seit Systeme autonom über Werkzeugnutzung und sogar Werkzeugentwicklung entscheiden – trägt die Werkzeug-Dichotomie (hier der Mensch, dort das passive Instrument für NER, Übersetzung, Statistik) nicht mehr.
February 15, 2026 at 11:18 AM
Dass unreflektierter ChatGPT-Einsatz Slop produziert, war bei den frühen Modellen fast die Regel. Aber trifft das noch zu, wenn ein System Interpretationsleistungen erbringt, die epistemisch wirksam werden? Wenn ein Agent Muster in einem Corpus identifiziert, die dem Forscher entgangen wären?
February 15, 2026 at 11:16 AM