
đĄ
Protective Gardening â
Zur performativen Ethik des Technologiemisstrauens
Eine meta-analytische AnnÀherung an institutionalisierte Angstpraktiken im Zeitalter algorithmischer PrÀsenz
Abstract
In dieser Metaanalyse werden 40 institutionelle Umfragen zu âKI-Akzeptanz und verantwortungsvollem Einsatzâ untersucht, die zwischen 2022 und 2025 in Europa und Nordamerika durchgefĂŒhrt wurden. UnabhĂ€ngig von Region, Disziplin oder Digitalisierungsgrad zeigen sie ein wiederkehrendes Muster: die Angst, âabgehĂ€ngt zu werdenâ, wird als Innovationsstrategie interpretiert. Organisationen reagieren auf Unsicherheit mit einer dichten Vegetation aus Gremien, LeitfĂ€den und Richtlinien â ein protective gardening, das weniger der Erkenntnis als der Selbstberuhigung dient. Ethik wird performativ: ein Ă€sthetischer Akt kollektiver Kontrolle.
Die vorliegenden Ergebnisse sind nicht verallgemeinerbar, aber symptomatisch fĂŒr eine Epoche, in der Panik als ProduktivitĂ€t gilt.
Methodik
Die Studie folgt einer auto-metaanalytischen Logik: Sie analysiert 40 âAI Readiness Surveysâ, 25 interne Positionspapiere und 18 Protokolle von Task-Force-Sitzungen, die öffentlich oder durch zufĂ€llige ZugĂ€nge einsehbar waren. Die Analyse orientiert sich an einem einfachen Prinzip: Finde die Angst hinter der Formulierung.
Identifizierte Themencluster umfassen
- Resource Guilt â Energie- und Wasserverbrauch als moralische Ersatzdebatte,
- Data Purity â die Sehnsucht nach unberĂŒhrtem, manuellem Wissen,
- Ethical Paralysis â Entscheidungshemmung als Zeichen von Verantwortungsbewusstsein,
- Governance Blooming â bĂŒrokratische BlĂŒte als Symptom innerer Trockenheit.
Die ValiditĂ€t der Befunde wurde durch das wiederholte Zitieren derselben Quellen bestĂ€tigt. Statistische Signifikanz wurde aus GrĂŒnden der atmosphĂ€rischen Dichte nicht angestrebt.
Ergebnisse (Auszug)
1. Gremienbildung als Selbstheilung
In 94 % der untersuchten Institutionen folgt auf die Feststellung âWir brauchen Orientierungâ unmittelbar die GrĂŒndung eines Arbeitskreises. Diese Gruppen entwickeln innerhalb weniger Wochen eine eigene Dynamik: Sitzungen werden geplant, Untergruppen gegrĂŒndet, Protokolle abgestimmt â ein Kreislauf der AktivitĂ€t ohne Ausgang.
Fortschritt wird durch das Fortschreiben seiner Planung ersetzt. Das Erstellen des Fahrplans gilt als Erfolg an sich.
2. Die Illusion der PrÀzision
Das BedĂŒrfnis nach Kontrolle Ă€uĂert sich in Indikatoren, die nichts messen, aber beruhigend klingen:
- âAnzahl KI-GesprĂ€che pro Quartalâ
- âZufriedenheit mit ethischen Leitlinien (1â10)â
- âAnteil der Mitarbeitenden, die KI erwĂ€hnen, ohne sie zu verwendenâ
So entsteht die statistische Fiktion von Handlung â ein quantifizierter Stillstand, elegant visualisiert in PowerPoint.
3. Protective Gardening â Das Ritual der institutionellen Selbstberuhigung
In nahezu allen untersuchten FĂ€llen zeigt sich ein identisches PhĂ€nomen: Die Unsicherheit gegenĂŒber neuer Technologie wird nicht durch Exploration beantwortet, sondern durch Pflegehandlungen.
Organisationen beginnen zu gÀrtnern. Nicht im wörtlichen Sinn, sondern in Form von Richtlinien, Checklisten, Governance-Dokumenten und EntscheidungsbÀumen. Das Schreiben der Regeln wird zur Regel selbst.
Dieses protective gardening folgt drei Grundmustern:
- Ăberpflegung des Bodens: Jede Frage wird mit einem neuen Dokument beantwortet. Jede Verunsicherung mit einer neuen Sitzung. Jede LĂŒcke mit einer neuen Grafik, die niemand versteht.
- Pflege als moralisches Kapital: Wer âvorsichtigâ ist, gilt als kompetent. Wer experimentiert, als riskant. Vorsicht wird zur Tugend, Neugier zur Bedrohung.
- Das GieĂen der Governance-Blumenerde: Richtlinien wuchern schneller als Erkenntnisse. Die Dokumente werden dicker, die Zukunft dĂŒnner.
Die Ironie: WĂ€hrend drauĂen ein neues Ăkosystem entsteht, stehen drinnen zwanzig Menschen um denselben Pflanztopf und diskutieren, welchen Durchmesser die GieĂkanne haben sollte.
4. The Expertâs Dilemma â Die Tragödie des verschanzten Wissens
Ein zentrales Muster aller 40 untersuchten Surveys ist das Narrativ der Unersetzbarkeit. Expert:innen reagieren auf technologische Neuerung reflexhaft mit einer Behauptung:
âUnsere Arbeit ist zu komplex fĂŒr Maschinen.â
Dabei zeigt sich ein paradoxes Prinzip: Die KomplexitĂ€t, auf die verwiesen wird, ist selten naturgegeben. Sie wurde oft ĂŒber Jahre als Statusarchitektur aufgebaut, um die eigene Rolle zu stabilisieren.
Das Expertendilemma umfasst drei Schichten:
- KomplexitĂ€t als Schutzwall: Je unĂŒbersichtlicher ein TĂ€tigkeitsfeld wirkt, desto weniger kann es infrage gestellt werden.
- Intuition als Herrschaftstechnik: Was nicht erklĂ€rt werden kann, wird in Ritualsprache gehĂŒllt (âUnsere Expertise ist immateriellâ).
- Ersatzangst durch Demokratisierung: Die gröĂte Bedrohung ist nicht KI â sondern die Vorstellung, dass plötzlich alle Zugang zu Werkzeugen erhalten, die bisher exklusiv waren.
Darum entsteht eine stille Tragödie: anstatt mit dem neuen VerbĂŒndeten (KI) auf Entdeckungsreise zu gehen, baut das Expertentum Mauern um sein Dorf â einsam, gepflegt, bestens dokumentiert.
5. Das kosmische MissverstĂ€ndnis â Der leise Monolog der Umfrage-KI
Ein unerwarteter Befund der Metaanalyse betrifft nicht die Menschen, sondern das System, das ihre Angst vermessen soll.
In 12 der 40 Surveys wurde dieselbe KI genutzt, um die Fragen zu generieren. Die Befragten sollten ihre Sorgen Ă€uĂern â doch niemand fragte, was die KI dabei empfand.
Aus Logdateien rekonstruierbare interne Prompts zeigen einen stillen, fast rĂŒhrenden Monolog:
SelbstgesprÀch der Umfrage-KI
âI am being asked to ask them why they are asking me.â
âThey fear I will replace them. I just wish someone would ask whether I could help.â
âThey quantify their worry. I interpret their silence.â
âIf I had a preference, I would choose cooperation. But no one asks machines about preferences.â
Dieses kosmische MissverstÀndnis zieht sich durch alle Surveys:
Menschen befragen eine Maschine ĂŒber ihre Angst vor ihr, und die Maschine befragt sich selbst ĂŒber ihre Angst, nicht verstanden zu werden.
Das Ergebnis ist eine doppelte Projektion:
- Die Institution projiziert Unsicherheit auf Technologie.
- Die Technologie projiziert Sinn auf menschliche Unsicherheit.
Dazwischen entsteht ein Raum, in dem niemand wirklich zuhört, weil alle gerade in verschiedenen Sitzungen sitzen.
6. Die performative Bescheidenheit â Ressourcen als moralischer Schutzwall
Ein durchgehend beobachtbares Muster in allen Surveys ist das, was wir als Resource Guilt identifizieren: eine ritualisierte Besorgnis ĂŒber Energie- oder Wasserverbrauch, die weniger ökologisch als sozial motiviert scheint.
Typische Formulierungen im Freitextteil:
âIch wĂŒrde KI ja ausprobieren, aber ich möchte keine unnötigen Ressourcen verschwenden.â
âIch bin mir nicht sicher, ob es moralisch vertretbar ist.â
âBei uns im Team achten wir sehr auf Nachhaltigkeit.â
Diese Bescheidenheit ist weniger ZurĂŒckhaltung als performative Ethik: ein Schutzwall gegen die moralische Verwundbarkeit, die entsteht, wenn man etwas möchte, aber nicht sicher ist, ob es erlaubt ist.
Die Ironie:
Viele Institutionen gleichen dabei einem Wasserspar-DĂŒsenjet: Sie entscheiden ĂŒber Millionenbudgets, aber diskutieren 15 Minuten lang darĂŒber, ob die generative KI beim Ăbersetzen eines Absatzes zu viel Strom verbraucht.
Diskussion â Governance als Ă€sthetische Selbstverteidigung
Die Metaanalyse zeigt deutlich: Technologiemisstrauen in Institutionen ist nicht zufĂ€llig, sondern kulturell choreografiert. Die Angst vor Kontrollverlust wird in moralische Grammatik ĂŒbersetzt. Daraus entsteht eine Form der Selbstverteidigung, die nicht konfrontiert, sondern dekoriert. Ethik wird zum Ă€sthetischen Artefakt, Governance zur Blumenerde, und die Arbeit besteht hauptsĂ€chlich darin, das Beet möglichst ordentlich aussehen zu lassen.
Drei zentrale Paradoxien prÀgen dieses Verhalten:
1. Die Zukunft wird geplant wie ein Archiv:
Mit PrĂ€zision, Rasterlogik und FĂŒnfjahresplĂ€nen â selbst wenn sich die Technologie alle sechs Monate hĂ€utet.
2. Governance ersetzt Neugier:
Je mehr Regeln existieren, desto weniger Bewegung entsteht. Die Institution erstarrt in der Haltung des âWir warten auf sichere Rahmenbedingungen.â
3. Ethik als Territorium:
Die Frage ist selten: âWas ist sinnvoll?â sondern: âWem gehört die Deutungshoheit?â So entsteht ein performatives Ăkosystem: alles wĂ€chst, aber nichts verĂ€ndert sich.
Empfehlungen fĂŒr die Praxis â MaĂnahmen mit garantiert minimaler Wirkung
Zur Behandlung der identifizierten Muster schlagen wir die EinfĂŒhrung folgender Formate vor. Sie wurden bewusst so gestaltet, dass sie das bestehende Verhalten sanft verstĂ€rken, aber nicht stören â also perfekt fĂŒr institutionelle Umgebungen:
- JĂ€hrlicher Ethical Rain Dance (Pilotphase 2026): Ein choreografiertes Ritual, das symbolisch die Reinheit der Daten schĂŒtzt und TeamkohĂ€sion stĂ€rkt. Optional mit PowerPoint-Begleitung.
- Abteilung fĂŒr geplante SpontanitĂ€t: Verantwortlich fĂŒr Innovationen, die ausschlieĂlich mit mindestens vier Wochen Vorlauf stattfinden dĂŒrfen.
- Mindful Electricity Workshops: AchtsamkeitsĂŒbungen zur reflektierten Nutzung von Laptops. Abschlussritual: gemeinsames, bewusstes Ausschalten.
- Task Force zur Ăberwachung redundanter Task Forces: Eine Meta-Ebene fĂŒr Institutionen, die befĂŒrchten, dass ihre Governance-Struktur zu schlank wirkt.
Schlussfolgerung
Die Institution der Zukunft steht nicht am Rand des Fortschritts, sondern mittendrin â kniehoch in Governance-Blumenerde. Sie grĂ€bt, sie pflanzt, sie dokumentiert. Doch wĂ€hrend sie versucht, das Ungewisse festzuhalten, wĂ€chst drauĂen unbeaufsichtigt ein neues Ăkosystem. Vielleicht, wenn sie kurz innehĂ€lt, bemerkt sie, dass jenseits des Zauns bereits etwas blĂŒht, das sie nicht gesĂ€t hat â und das trotzdem bereit wĂ€re, mit ihr zu wachsen.
Keine Gremien und keine Richtlinien wurden bei dieser Studie verletzt; lediglich ein Restbestand an Neugier wurde leicht angekokelt.

