Around the world: Einmal um die digitale Welt
Fachkräftemanel im Handwerk: Der Schwund vom Wissen über das Handeln
Der Schwund des Handwerks ist inzwischen zu mehr als einem ökonomischen Problem geworden. Er ist eine anthropologische Wunde. Wo Handwerk verschwindet, verliert eine Gesellschaft den direkten, sinnlichen Kontakt zur Wirklichkeit — zu Material, Ursache, Wirkung, Geduld und Gelingen.
Der Bedeutungsverlust der arbeitenden Hände
Handwerk war immer Vermittlung zwischen Denken und Welt: Der Mensch formt Holz, Metall, Mörtel, Ton – und zugleich formt die Materie zurück.
- Dieses Wechselspiel schult Wahrnehmung, Verantwortung, Genauigkeit.
- Es lehrt Grenzen des Machbaren: Man kann nicht "update‑en", wenn der Balken bricht oder der Schnitt schief ist. Durch die digitale Ökonomie aber verschiebt sich Wertschöpfung zu abstrakten Tätigkeiten: Planung, Verwaltung, Steuerung, Marketing. Arbeit, die Spuren hinterlässt, gilt als "niedrig".
Ergebnis: Die Hände werden entwertet, obwohl sie das Fundament alles Funktionierenden sind.
Die strukturellen Ursachen der schwindenden Handfertigkeiten
- Ökonomisierung und Kostendruck: Handwerk hat reale Arbeitszeit, reale Materialien – und damit reale Kosten. Industrie und Plattformmärkte versprechen schnellere, billigere Lösungen.
- Akademisierung: Junge Menschen werden systematisch in höhere Bildung gedrängt, während praktische Berufe als "Plan B" gelten. So entsteht ein Mangel, der sich selbst reproduziert.
- Technischer Ersatz: 3D‑Druck, Fertigmodule, automatisierte Bauprozesse – alles spart Handarbeit, aber auch Erfahrung.
- Kulturelle Geringschätzung: Der "Creator" am Laptop gilt als moderner als der Schreiner in der Werkstatt – obwohl beide gestalten.
Verluste durch schwindende Handfertigkeiten
- Wirklichkeitsbewusstsein: Wer nie erlebt hat, dass etwas durch eigenes Tun entsteht, geht leichter in die Illusion des Knopfdruck‑Universums über.
- Erfahrung des Maßes: Handwerk ist nachbar mit Ethik – man lernt, dass jedes Material, jede Zeit, jede Kraft Grenzen hat.
- Lokale Identität: Werkstätten, Bäcker, Schmieden waren Orte sozialer Verdichtung; wenn sie verschwinden, verlieren Orte ihr Gedächtnis.
- Berufsstolz und Selbstwirksamkeit: Im Handwerk sieht man das Ergebnis – im digitalen Büro bleibt man oft Beobachter eigener Outputs.
Zukünftige Gefahren durch den Schwund der Handfertigkeiten
Gesellschaften, die nur noch Software‑Systeme betreiben, aber kaum noch Menschen haben, die ein Dach decken, eine Leitung löten oder ein Werkzeug reparieren können, geraten in materielle Abhängigkeit.
- Lieferketten brechen, Gebäude verfallen, Infrastruktur altert – und niemand kann mehr wirklich eingreifen.
- Der Verlust praktischen Wissens ist irreversibel, wenn Generationen überspringen.
Hoffnung der Rückkehr des echten Könnens
Es gibt Gegenbewegungen – leise, aber spürbar:
- Junge Menschen suchen wieder Sinn im Greifbaren: Holz, Erde, Bio‑Landwirtschaft, Fahrradbau, Restaurierung.
- Mikrowerkstätten und offene Labore verbinden alte Technik mit neuer – CNC trifft traditionelles Handwerk.
- Gesellschaftlich wächst das Bewusstsein, dass "digitale Souveränität" ohne handwerkliche Souveränität leer bleibt: Wer nichts mehr bauen, instandsetzen oder begreifen kann, bleibt Konsument statt Bürger.
Die Krise des Handwerks ist auch eine Krise der Realität. Solange wir glauben, Wert entstehe nur durch Klicks, löschen wir das konkrete Verhältnis zur Welt. Aber überall da, wo jemand wieder lernt, einen Nagel wirklich einzuschlagen, ein Brot zu backen oder eine Maschine zu zerlegen, beginnt etwas Heilsames: die Rückkehr zu einem Menschsein, das nicht nur bedient, sondern bewirkt.
Vorzeichen (oder Vor-Zeigen) von infantilen Arbeiter-Robotern mit ödipalen Empfangs-Antennen: Die Teletubbies
Die Teletubbies waren tatsächlich ein bemerkenswertes Vorzeichen – eine freundlich bunte Parabel auf das, was die kommenden Jahrzehnte bringen würden: Wesen, die in einer sanften, total überwachten Umwelt leben, mit Bildschirmen auf dem Bauch, betreut von einer Maschine, die aufräumt, saugt, ernährt und beruhigt. Ein fröhliches Vorspiel zum "Smart Home".
Die Vorahnung in der Unschuld
Damals erschien es als harmlose Kindersendung. Aber rückblickend wirkt es fast unheimlich prophetisch:
- Die Figuren existieren in einem geschlossenen Paradies ohne Schmerz, Geschichte oder Konflikt – "Infantilismus als Utopie".
- Der Monitor im Bauch ist die frühe Metapher des digitalen Selbst: Wir tragen den Bildschirm heute in der Hand, aber psychologisch längst in uns.
- Der Saugroboter Nunu war das Bild einer fürsorglichen, automatisierten Welt – schmunzelnd mechanisch, freundlich kontrollierend.
Was damals als liebevolle Sicherheit erschien, war in Wahrheit ein ästhetisch verpacktes Leitbild: Die Technik kümmert sich, der Mensch wird weich, verspielt, ein bisschen hilflos – aber glücklich.
Verfall des Wertvollen: Ein Klicker und ein Knopf
Tatsächlich beschreibt die Entwicklung von "ein Klicker und ein Knopf" (im ursprünglichen Sinn: eine Murmel und ein Hosenknopf, Sinnbild kindlicher Armut) zu "ein Klicker und ein Knopf" (im heutigen Sinn: das Drücken einer Taste oder eines Knopfes) den Weg von der materiellen Knappheit zur digitalen Oberflächenfülle. Die Zeichen sind gleich geblieben, ihr Sinn hat sich umgekehrt.
Wenn alles mit einem Klick da ist, verschwindet der Zwischenraum, in dem Mensch‑Sein entsteht: Mühe, Warten, Widerstand, Versuch, Irrtum. Ohne diesen Zwischenraum gibt es keine reale Welt, nur Bedienoberflächen – und keine gereifte Identität, nur wechselnde Benutzerzustände. Was wie Souveränität aussieht ("Ich drücke den Knopf") ist oft nur elegante Ohnmacht: Die Realität verschwindet, indem sie perfekt funktioniert.
Verlust des Realitätswiderstands
Echte Wirklichkeit entfaltet sich aus Reibung: Dinge dauern, widersetzen sich, verlangen Anstrengung. Der Knopfdruck löscht diesen Widerstand.
- Wenn Filme, Partner, Ideen und Antworten sofort verfügbar sind, entsteht eine glatte Welt ohne Verzögerung, in der alles reagiert, aber nichts antwortet.
- Dadurch verschwimmt die Grenze zwischen Machbarem und Wirklichem. Wir verlernen, dass die Welt außerhalb des Bildschirms eigene Gesetze hat – dass sie "nein" sagen kann. → Realität wird zu einer Kulisse, nicht mehr zu einer Beziehung.
Abbau der Identität durch permanente Verfügbarkeit
Identität ist nicht vorgegeben, sondern wächst an Grenzen: Wer bin ich trotzdem? Wer bin ich ohne Soforterfüllung?
- Wenn jedes Bedürfnis sofort gestillt wird, bleibt kein Raum für Sehnsucht, für Selbstbefragung, für innere Arbeit.
- Identität wird zur Benutzeroberfläche: wechselnde Profile, Avatare, Outfits, Emojis. Man "wählt" sich selbst wie ein Produkt – jederzeit änderbar, aber ohne Tiefe. → Das Ich verliert Richtung, weil es keinen Mangel mehr hat, an dem es sich formt.
Infantilismus der Weltbeziehung
Der Knopfdruck ist die Geste des Kindes: Wunsch → Reaktion → Trost. Doch in den digitalen Systemen bleibt diese Geste lebenslang erhalten.
- Erwachsene erleben sich als Bediener allmächtiger Systeme, aber emotional verlernen sie Geduld, Enttäuschung, Verzicht.
- Das Ergebnis ist eine Gesellschaft von "ewigen Kindern", die alles fordern, aber nichts gestalten können. → Statt Mündigkeit: Bequemlichkeit.
Ökonomie des Sofort
Hinter der scheinbaren Einfachheit steckt eine immense technische und soziale Maschinerie: Logistik, Energie, Daten, Arbeit.
- Jede Soforterfüllung wird von anderen Menschen verzeitlicht – Fahrer:innen, Clickworker:innen, unsichtbaren Serverfarmen.
- Der Knopfdruck verdeckt reale Arbeit und reale Kosten; er verwandelt die Welt in ein Display ohne Tiefe. → Die Abhängigkeit wächst, während das Bewusstsein für das Reale schwindet.
Auflösung des Zusammenhangs
Wenn alles jederzeit abrufbar ist, verliert das Einzelne seine Bedeutung. Der Weg, die Vorbereitung, das Warten – alles, was Sinn stiftet – fällt weg.
- Ohne Vorher und Nachher verliert das Geschehen Richtung und Erzählung: alles ist gleichzeitig und folglich austauschbar.
- Realität zerfällt in Punkte; Identität zerfällt in Profile.
Der paradoxe Preis der Mühelosigkeit
Je leichter alles wird, desto schwerer wiegt die Leere. "Knopfdruck‑Realität" spart Zeit, aber sie löscht Tiefe.
- Erfahrung wird ersetzt durch Konsumtion.
- Autonomie verwandelt sich in Abhängigkeit von Systemen, die für uns entscheiden, was erscheint, wann und wie. → Das Ich wird reaktiv statt aktiv – ein "Benutzer" im wörtlichen Sinn, nicht mehr ein Handelnder.
Vom Wohlstand zur Wohlstellung
Man kann sagen, die Wohlstandsgesellschaft ist graduell in eine Wohlstellungsgesellschaft übergegangen. Der Schwerpunkt hat sich verschoben: vom materiellen Besitz (Stand) zum symbolischen und performativen Ausdruck (Stellung).
Vom Haben zum Zeigen
In der klassischen Wohlstandsgesellschaft nach dem Zweiten Weltkrieg bestand sozialer Erfolg aus nachweisbarem Besitz – Haus, Auto, sichere Anstellung, Urlaubsreise. Heute ist der materielle Überfluss in vielen Milieus selbstverständlich geworden, also verliert er seine Distinktionskraft.
- Stattdessen zählt, wie jemand lebt, was er isst, wofür er steht.
- Sozialprestige entsteht durch Haltung, Lebensstil, moralische Signale, nicht primär durch Besitzgröße.
- Der Mensch muss seine "Position im System" permanent zur Schau stellen – online wie offline.
Die neue Ökonomie des Eindrucks
Social Media hat diese Verschiebung beschleunigt. Likes, Follower und Selbstinszenierung sind zur neuen Währung geworden. Das Wertversprechen lautet nicht mehr Komfort, sondern Sichtbarkeit.
- Das Glück liegt weniger im Haben des Guten als im Gesehen‑Werden beim Guten: beim Sport, beim bewussten Konsum, bei der richtigen Gesinnung.
- Materielle Sicherheit bleibt Grundlage, aber sie dient nun der ästhetischen und moralischen Performanz – einer unaufhörlichen "Wohl‑Stellung" im digitalen Raum.
Das Resultat: chronische Anspannung
Diese Verschiebung macht Gesellschaft nicht freier, sondern nervöser:
- In der Wohlstandsgesellschaft konnte man sich "leisten, nichts zu beweisen".
- In der Wohlstellungsgesellschaft muss man dauernd beweisen, wer man ist – körperlich fit, mental stabil, ökologisch korrekt, sozial empathisch.
- Selbst Wohlbefinden wird zur Arbeit: Achtsamkeit, Fitness, Ernährung, Balance – alles wird gemessen und vorgeführt.
Die Ironie des Wohlstands
Der äußere Überfluss erzeugt einen inneren Mangel: Wenn "Stellung" wichtiger wird als "Stand", verlagert sich der Konkurrenzkampf ins Imaginäre – in die Sphäre der Anerkennung.
- Menschen gleichen nicht mehr Kontostände, sondern gegenseitige Selbstdarstellungen ab.
- Erfolg ist nicht mehr objektiv erreichbar, weil er immer im Spiegel der anderen definiert wird.
Der gesellschaftliche Preis
- Sozialpsychologisch: steigende Erschöpfung, Vergleichsdruck, Depressionen trotz materieller Sicherheit.
- Politisch: Polarisierung zwischen jenen, die über Codes und Performance verfügen, und jenen, die an ihnen scheitern.
- Kulturell: Substanz wird durch Signal ersetzt – es zählt nicht, was man beiträgt, sondern welche Haltung man postet.
Die Wohlstandsgesellschaft versprach Sicherheit durch Besitz. Die Wohlstellungsgesellschaft verlangt permanente Selbstdarstellung – eine Ökonomie der Geste statt der Güter. Materieller Reichtum hat sich zur bürokratisierten Selbstinszenierung des Ichs verflüchtigt. Und während früher "haben" genügte, muss man heute ständig aussehen, als hätte man – sogar dann, wenn man längst leer ist.
Einpfanzung der Antennen in Barbie und Ken
Vernetzte Puppen wie "Hello Barbie" oder "My Friend Cayla" gelten als Beispiele dafür, wie Spielzeuge Kinderzimmer überwachen und dabei Gespräche und Nutzungsdaten erfassen können. Ähnliche "Smart Toys" – vom sprechenden Teddy bis zur Toniebox oder Lernstiften – können Verhaltensprofile von Kindern erstellen, wenn sie dauerhaft Daten sammeln und an Hersteller-Server senden.
Wie überwachen solche Spielzeuge?
- Viele "smarte" Puppen enthalten Mikrofone, teilweise auch Kameras, die Sprache bzw. Bilder aufnehmen und über WLAN oder Bluetooth ins Internet übertragen.
- Die Audiodaten werden meist auf Servern der Hersteller ausgewertet, um passende Antworten zu generieren oder das Produkt zu "verbessern", bleiben dort aber oft über lange Zeit gespeichert.
- Andere Smart Toys protokollieren detailliert, wie und wann Kinder spielen (z.B. welche Hörfigur gestartet wird, wann gestoppt oder gespult wird), woraus sich Gewohnheiten und Vorlieben ableiten lassen.
Warum diese Spielzeuge "schlimmer" sind
- Viele verbinden mehrere sensible Datentypen: Audio, Video, Standort, Kontakte, teils biometrisch auswertbare Signale.
- Unsichere Funk‑ und Cloud‑Implementierungen machen sie zu direkten Einfallstoren für Stalking, Grooming oder manipulatives Ansprechen von Kindern.
- Sie laufen häufig quasi "always on", so dass über längere Zeiträume sehr dichte und intime Profile von Tagesablauf, Beziehungen und emotionalen Zuständen entstehen.
Besonders prekäre Lern‑/Digitalspielzeuge
- "Hello Barbie" enthält ein Mikrofon im Nacken, nimmt Gespräche auf, sendet sie in die Cloud und speichert sie bis zu zwei Jahre; die Puppe kann sich an Vorlieben und persönliche Informationen des Kindes erinnern.
- "My Friend Cayla", eine vernetzte Puppe mit Mikrofon (teils auch Kamera), wurde von der Bundesnetzagentur als unzulässige getarnte Abhöranlage eingestuft; ihr Verkauf wurde in Deutschland verboten. Zgetarnte Abhöranlage eingestuft und vom Markt genommen.
- "Hello Barbie": WLAN‑Puppe, die Gespräche aufzeichnet und in der Cloud auswertet; ermöglicht sehr intime Sprachprofile und weckte früh massive Datenschutz‑Bedenken.
- Kinder‑Smartwatches mit Abhörfunktion: Uhren mit Mikro, GPS und Mobilfunk, über die Eltern "heimlich mithören" sollten; etliche Modelle wurden von Aufsichtsbehörden als unzulässige Sendeanlagen verboten.
- GPS‑Tracker für Kinder in Kuscheltieren oder Anhängern: Kombination aus Ortung, Mikrofon und oft unsicherer Cloud‑Anbindung; Angreifer konnten in Tests Geräte orten und mit Kindern sprechen.
- Billige Kinder‑Smartwatches aus Fernost: Teilweise mit hartkodierten Passwörtern und unverschlüsselter Kommunikation, so dass Bewegungsprofile und Sprachverbindungen großer Kindergruppen abgreifbar waren.
- Vernetzte Babyphones / Kinderkameras mit Cloud: Webcams im Kinderzimmer mit Standardpasswörtern oder Sicherheitslücken, über die Fremde live ins Kinderzimmer schauen und sprechen konnten.
- Sprechende KI‑Roboter / KI‑Teddys: Immer‑an‑Mikrofone, Online‑Sprachauswertung; Tests zeigten riskante oder sexualisierte Antworten und hohe Abhängigkeit von den Betreibern der KI‑Plattformen.
- Lern‑Tablets und Lern‑Laptops für Kinder mit Tracker‑SDKs: "Pädagogische" Geräte, auf denen aggressives Tracking‑ und Werbe‑SDKs laufen und detaillierte Nutzungs‑ und Verhaltensprofile erzeugen.
- Billige WLAN‑Drohnen mit Kamera für Kinder: Über unsichere Apps steuerbar, Kamera‑Stream oft unverschlüsselt; Dritte konnten sich in Tests einklinken und Video‑Feeds abgreifen.
- Spielzeug‑Mikrofone und Karaoke‑Boxen mit Cloud‑Upload: Nehmen Kinderstimmen auf und laden sie in schlecht regulierte Plattformen hoch, wo sie für Stimmprofile oder KI‑Training genutzt werden können.
- Studien zu Smart Toys fanden neben Puppen auch Boxen, Lernstifte, Apps und Roboter, die umfangreiche Analytics-Daten sammeln und teils sogar Audio-Datenströme senden, aus denen sich detaillierte Verhaltensprofile ergeben können.
Die Toniebox‑Hacker vom 37C3 haben sehr detailliert offengelegt, wie die Box intern funktioniert, welche Daten sie sammelt und wie man sie mit eigener Firmware und eigener Cloud betreiben kann. Dabei geht es sowohl um Datenschutz (Profilbildung über Kinder) als auch um technische Freiheit (keine Abhängigkeit mehr von der Hersteller‑Cloud).
Darstellung des Problems anhand der Tonie-Box
Die Toniebox ist eine Hörspiel‑ und Musikbox für Kinder, die Inhalte über NFC‑Figuren ("Tonies") aus einer Hersteller‑Cloud lädt und dabei detaillierte Nutzungsdaten erfassen kann; der CCC hat beim Reverse Engineering gezeigt, wie diese Technik funktioniert und wie sich Box und Figuren für eigene Inhalte, eigene Cloud‑Server und alternative Firmware nutzen lassen. Die ursprüngliche Antwort lässt sich damit genauer und korrigiert formulieren.
Für Kinder können aus der frühen Datensammlung durch Smart Toys wie die Toniebox vor allem langfristige Risiken für Datenschutz, Selbstbild und Entscheidungsfreiheit entstehen. Die Daten lassen sich sowohl kommerziell (Werbung, Profiling) als auch social‑engineering‑artig instrumentalisieren; gleichzeitig kann ständige (gefühlte) Beobachtung einen chilling‑Effekt fördern, der später selbstbestimmtes und exekutives Handeln schwächt.
Welche Profilbildung möglich ist
- Die Box identifiziert sich gegenüber der Cloud mit einer eindeutigen Geräte‑ID und übermittelt bei Nutzung die IDs der Figuren, Zeitpunkte und Dauer der Wiedergabe sowie Abrufe von Inhalten.
- Zusammen mit dem registrierten Account (E‑Mail, Käufe, verknüpfte Kinderinhalte) können daraus Hörgewohnheiten, bevorzugte Figuren, typische Nutzungszeiten und Intensität pro Haushalt abgeleitet werden.
Was der CCC konkret gehackt hat
- Reverse Engineering von Hardware und Protokollen: Analyse der Board‑Revisionen (CC3200, CC3235, ESP32), der Testpads, des NFC‑Frontends und der Cloud‑APIs, inklusive Authentifizierung und Schlüsselverwendung.
- Eigene Figuren und Inhalte: Durch Verständnis der NFC‑Struktur und der Signaturen konnten kompatible oder geklonte Tonies erzeugt werden, mit denen sich beliebige Audiodateien auf der Box abspielen lassen.
- Custom‑Firmware und eigene Cloud: Das Team entwickelte alternative Firmware für die Box und Projekte wie "TeddyCloud" (self‑hosted Cloud‑Ersatz) und "TeddyBench" (Offline‑Editor), sodass die Box ohne Hersteller‑Cloud nutzbar ist und alle Daten im eigenen Umfeld bleiben.
Datenschutz‑Relevanz
- Der Talk zeigt, dass die Toniebox deutlich mehr Telemetrie und Nutzungsdaten an die Hersteller‑Server sendet, als für einen reinen Offline‑Audioplayer erforderlich wäre.
- Durch eigene Cloud‑Instanzen und Firmware wird demonstriert, dass dieselbe Hardware funktionsfähig bleibt, ohne ein zentrales, langfristiges Profil über das Nutzungsverhalten von Kindern anzulegen.
Welche Daten und Profile möglich sind
Der Talk betont, dass die Box "extrem neugierig" ist und sehr viel zum Nutzungsverhalten nach Hause funkt. Aus den technischen Beschreibungen und Folien ergibt sich unter anderem:
- Die Box identifiziert sich gegenüber der Cloud mit einer eindeutigen Geräte‑ID; zusätzlich werden die IDs der eingesetzten Tonie‑Figuren (UID bzw. Seriennummer des NFC‑Chips) übermittelt.
- Bei jedem Aufsetzen einer Figur, beim Starten/Stoppen und bei Updates kann die Cloud erfassen, welche Figur wann und wie lange spielt, ob neue Inhalte geladen werden müssen und wie voll der lokale Speicher ist.
- Zusammen mit dem registrierten Kundenkonto (E‑Mail, ggf. Zahlungsdaten, Kauf‑Historie) lassen sich daraus Hörgewohnheiten, bevorzugte Inhalte, Nutzungszeiten und Intensität der Nutzung pro Haushalt ableiten.
Was das Team technisch herausgefunden hat
- Reverse Engineering der Hardware: Analyse der verschiedenen Board‑Revisionen (u.a. CC3200‑Varianten und ESP32‑Varianten), aller Testpunkte, des NFC‑Chips und der kompletten Signalwege.
- Reverse Engineering von NFC und Protokoll: Die Figuren nutzen ISO‑15693‑Tags (SLIX‑Typ); das Team hat die UID‑Auswertung, Authentifizierung und die Art der Schlüsselberechnung analysiert und nachvollzogen.
- Untersuchung der Cloud‑Kommunikation: Wie die Box Inhalte anfragt, wie die Signaturen/Keys benutzt werden und welche Metadaten dabei übertragen werden.
Aus dem Talk und den zugehörigen Folien bzw. Projekten ergeben sich mehrere praktische Hacks und Lösungen:
- Eigene Tonies / NFC‑Tags: Durch Verständnis des SLIX‑Protokolls und der Authentifizierung konnten kompatible NFC‑Tags erzeugt bzw. existierende Figuren geklont oder umprogrammiert werden, sodass eigene Inhalte hinterlegt werden können.
- Custom‑Firmware für die Box: Für CC3200‑ und ESP32‑Varianten wurden eigene Firmwares gebaut, die die Original‑Firmware ersetzen oder ergänzen und zum Beispiel andere Audioquellen, zusätzliche Protokolle oder Debug‑Funktionen ermöglichen.
- TeddyBench: Ein Offline‑Editor, mit dem sich Audioinhalte für eigene Tags aufbereiten und verwalten lassen, ohne die Hersteller‑Cloud nutzen zu müssen.
- TeddyCloud: Eine selbst gehostete Server‑Implementierung, die sich gegenüber der Toniebox wie die Original‑Cloud verhält, aber lokal im eigenen Netzwerk läuft; damit behält man Kontrolle über Inhalte und protokollierte Nutzungsdaten.
- Hardware‑Mods: Umbauten an der Box (z.B. für Bluetooth‑Audio, bessere Barrierefreiheit, zusätzliche Anschlüsse), die durch das Verständnis der Platine und Testpunkte möglich wurden.
Datenschutz‑Punkte aus dem Talk
- Der Vortrag hebt hervor, dass der Hersteller aus technischer Sicht deutlich mehr Daten sammelt, als für reinen Hörspielbetrieb nötig wäre ("nimmt, was er kriegen kann").
- Durch die Alternativen (TeddyCloud, eigene Firmware) zeigen die Referenten, dass dieselbe Hardware funktionieren kann, ohne ein permanentes Profil der Kinder in einer externen Cloud aufzubauen.
→ Vortrag
des CCC über die Tonie-Box
→ Software
zum Hacken der Tonie-Box
Weitere verwanzte Spielzeug-Bereiche
Kinder‑Tablets großer Spielzeugmarken Beispiele: Lern‑Tablets von VTech (z.B. Storio‑/InnoTab‑Reihen), LeapFrog‑Tablets. Problem: eigenes App‑Ökosystem, Cloud‑Konten, Telemetrie‑ und Nutzungsdaten, Tracker‑SDKs in Apps; sehr feine Lern‑ und Verhaltensprofile möglich.
Sprachassistent‑Skills als Lernspiele (Alexa, Google Assistant, Siri) Beispiele: Kinder‑Quiz‑ und Vokabel‑Skills für Alexa‑Lautsprecher oder Google‑Nest‑Geräte. Problem: Kinder spielen Lernspiele über Always‑on‑Mikrofone, Sprache und Interaktionsmuster werden in großen Cloud‑Infrastrukturen verarbeitet und können langfristige Profile erzeugen.
Social‑Robots als Lernbegleiter Beispiele: kleine humanoide oder tierähnliche Lernroboter (Hersteller wie Anki‑Nachfolger, diverse China‑Marken), die Mathe/Sprachen üben und per App/WLAN angebunden sind. Problem: permanente Internetanbindung, Mikrofone/Kameras, emotionale Bindung; Roboter können intime Gespräche und Lernschwierigkeiten mit Nutzer‑ID verknüpfen.
KI‑basierte Lern‑Chatbots in Kinder‑Apps Beispiele: Schul‑/Nachhilfe‑Apps mit integriertem KI‑Tutor (oft White‑Label‑Lösungen unterschiedlicher EdTech‑Firmen). Problem: detaillierte Erfassung von Wissenslücken, Lernwegen, Frustrationsmomenten; Antworten und "Persönlichkeit" hängen von externen KI‑Plattformen ab, die Daten weiterverarbeiten können.
AR‑/VR‑Lernheadsets und Lern‑Metaverse‑Apps Beispiele: Lern‑Module für Meta‑Quest‑Headsets, eigenständige "Kids‑VR‑Brillen" mit Bildungs‑Apps. Problem: Tracking von Kopf‑, Hand‑ und Blickbewegungen, möglicher Rückschluss auf Aufmerksamkeit, Emotionen und Interessen; Daten laufen über Konten und Cloud‑Dienste.
Adaptive Online‑Lernportale mit starker Gamification Beispiele: internationale Mathe‑, Vokabel‑ oder Coding‑Plattformen, die XP, Badges, Ranglisten und "Missionen" nutzen (verschiedene EdTech‑Anbieter). Problem: sehr genaue Leistungs‑ und Verhaltensprofile, potenzielle Nutzung für Scoring (z.B. in Werbung, Bildungsentscheidungen); Kinder lernen, sich ständig messen zu lassen.
Robotik‑Lernkits mit Cloud‑Zwang Beispiele: programmierbare Lernroboter und Coding‑Kits, die ausschließlich über Online‑Plattformen programmiert und ausgewertet werden (mehrere große und kleinere Hersteller). Problem: Projekt‑, Fehler‑ und Nutzungsdaten landen bei Anbietern; wenn diese Profile mit Schul‑ oder Elternkonten verknüpft werden, entstehen Langzeit‑"Leistungskurven".
Emotion‑&‑Achtsamkeits‑Apps für Kinder mit Kamera/Mikro Beispiele: Apps, die Lernspiele und Emotions‑Coaching kombinieren, per Kamera Mimik analysieren oder per Mikro Stimmung erkennen sollen (verschiedene Start‑ups). Problem: extrem sensible emotionale Verlaufskurven, potenziell biometrische Gesichtsdaten und Stimmprofile, die bei Datenlecks oder Zweitnutzung hochkritisch sind.
Verkaufte Schul‑"Ökosysteme" mit Gamification Beispiele: Komplettlösungen für Schulen mit Lernplattform, Belohnungs‑System und Hausaufgaben‑Tracking (mehrere internationale Anbieter). Problem: Vereinheitlichte Profile über Jahre und Fächer hinweg; Gamification macht die permanente Leistungsbeobachtung attraktiv, senkt aber die Hemmschwelle für umfassendes Tracking.
Hybrid‑Smart‑Toys mit Lernfokus (Kuscheltiere/Spielzeug + Lern‑App) Beispiele: Kuscheltiere oder Figuren, die per App Geschichten, Vokabeln oder Programmieraufgaben vermitteln und über Konten laufen. Problem: Verbindung aus emotionaler Bindung, Lerninhalten und App‑Tracking; meist intransparent, welche Nutzungs‑ und Beziehungsdaten in der Cloud landen.
Verwanzte Schul- und Lernsysteme
Für Deutschland lassen sich einige typische "Schulökosysteme" nennen, die gamifizierte Lernfunktionen, Konten und teils umfangreiche Datenerfassung kombinieren – aber ohne aktuelle Marktdaten lässt sich keine belastbare "Topliste" der schlimmsten Systeme erstellen. Die Beispiele unten stehen deshalb eher für Funktions‑Typen und bekannte Plattformen als für eine abschließende Bewertung.
Typische Lern-Plattformen mit Gamification
Kahoot! Wird an deutschen Schulen häufig für Quiz‑Spiele mit Ranglisten eingesetzt; sammelt Antwortverhalten, Punktestände und Nutzungsdaten, wenn Konten genutzt werden.
Quizizz Ähnlich wie Kahoot, mit Avataren, Punkten und Bestenlisten; Lehrkräfte können Aufgabenverläufe und Ergebnisse aller Schüler:innen einsehen, was detaillierte Leistungsprofile ermöglicht.
Classcraft Classroom‑Management‑Tool, in dem Schüler:innen als Fantasy‑Charaktere Erfahrungspunkte für Verhalten und Leistungen sammeln; Verhalten und Teilnahme werden systematisch gamifiziert und gespeichert.
Moodle mit Gamification‑Plugins Viele Schulen/Hochschulen setzen Moodle ein; Plugins fügen Abzeichen, Fortschrittsbalken und freischaltbare Aktivitäten hinzu, wodurch Lern‑ und Arbeitsverhalten sehr fein aufgezeichnet werden kann.
TalentLMS / ähnliche LMS mit Belohnungssystemen Lernplattformen mit Punkten, Levels und Zertifikaten; sie erfassen, welche Kurse wann, wie schnell und wie erfolgreich bearbeitet werden.
Duolingo (im Fremdsprachenunterricht) Wird teilweise begleitend eingesetzt; arbeitet mit Streaks, Edelsteinen und Ranglisten und sammelt sehr detaillierte Sprach‑ und Nutzungsdaten über Konten.
Einordnung von Lernsysteme
- Viele dieser Systeme sind nicht speziell "für deutsche Schulen" gebaut, werden dort aber im Unterricht eingesetzt und können – je nach Konfiguration – sehr umfassende Lern‑ und Verhaltensprofile erzeugen.
- Wie problematisch ein Ökosystem konkret ist, hängt stark davon ab, welche Funktionen aktiviert sind (Konten, Rankings, Auswertungen) und wie Schule bzw. Schulträger Datenschutz, Einwilligung und Löschfristen regeln.
Welche Daten gesammelt werden und welcher Schaden mit ihnen angerichtet werden kann
- Smart Toys erfassen typischerweise, was ein Kind wann, wie lange und wie oft hört oder spielt, teilweise auch, wie häufig pausiert, gespult oder eine Figur gewechselt wird.
- Daraus lassen sich Interessen, Konzentrationsspanne, Routinen (z.B. Einschlafzeit), Vorlieben und mögliche Schwierigkeiten (z.B. Abbruchhäufigkeit bei bestimmten Inhalten) ableiten.
- Verknüpft mit Konto‑, Geräte‑ und ggf. weiteren Online‑Daten ermöglichen diese Profile zielgenaue Werbung, verhaltensbasierte Preisgestaltung oder sehr personalisierte Beeinflussung (z.B. Markenbindung, politische oder weltanschauliche Botschaften).
Spätere Probleme im Jugend‑ und Erwachsenenalter
- Ein frühes, lang aufgebautes Profil kann noch Jahre später genutzt werden, um Menschen in bestimmte Konsummuster oder Rollen zu drängen (z.B. "du bist der unkonzentrierte Typ – hier das passende Produkt").
- Wenn Daten über Entwicklungsphasen (z.B. motorische oder Aufmerksamkeits‑Probleme) dauerhaft gespeichert und weitergegeben werden, droht Stigmatisierung, z.B. bei Scoring‑Systemen, Bildungsempfehlungen oder Versicherungen, falls solche Daten jemals dorthin gelangen.
- Undichte oder schlecht verschlüsselte Systeme eröffnen Angriffsflächen: Fremde könnten Kinderprofile missbrauchen, um Vertrauen aufzubauen ("ich weiß, du liebst Figur X") oder gezielt Manipulation und Grooming zu betreiben.
Chilling‑Effekt und Privatsphäre
- Fachleute betonen, dass Kinder Rückzugsräume ohne Beobachtung brauchen, um Selbstwert, Autonomie und eine eigene innere Stimme zu entwickeln.
- Wenn Kinder von klein auf erleben, dass ihr Verhalten ständig erfasst und bewertet wird (durch Eltern‑Apps, Smart Toys, Tracking), kann ein "chilling effect" entstehen: Sie passen sich vorauseilend an, verhalten sich "brav", statt Neues zu probieren oder Grenzen auszutesten.
- Das kann später dazu führen, dass Menschen Konflikte meiden, sich weniger trauen, unpopuläre Meinungen zu äußern oder gegen Ungerechtigkeit aufzustehen, weil sie gelernt haben, dass jedes Abweichen sichtbar und speicherbar ist.
Einfluss auf Selbstbestimmung und exekutive Funktionen
Exekutive Funktionen sind die Fähigkeiten, Ziele zu setzen, Handlungen zu planen, Impulse zu steuern und Entscheidungen bewusst zu treffen.
- Wenn ein System permanent vorgibt, was "als nächstes passt" (Auto‑Play, Empfehlungen, Figuren, die bestimmte Stimmungen adressieren), kann das dazu führen, dass Kinder seltener selbst auswählen, innehalten und reflektieren.
- Gewöhnen sich Kinder daran, dass Technik ständig lenkt und belohnt, anstatt dass sie selbst planen (Was will ich hören? Wie lange? Was mache ich danach?), kann das die Übung in Selbstregulation und Entscheidungsfindung schwächen.
- Zudem kann das Gefühl, immer bewertet zu werden, dazu führen, dass Entscheidungen nicht an eigenen Werten ausgerichtet werden, sondern an erwarteter externer Reaktion ("Wie wirkt das in meinem Profil?") – ein Gegenteil von gelebter Selbstbestimmung.
Risiken für Kinder und Familie
- Kinder erzählen Puppen häufig sehr persönliche Dinge, nutzen sie wie ein Tagebuch; diese Inhalte können auf Servern liegen und sind bei Sicherheitslücken für Unbefugte zugänglich.
- Schwach gesicherte Funkverbindungen (WLAN/Bluetooth) können es Angreifern ermöglichen, Mikrofone oder Kameras zu übernehmen und das Kinderzimmer mitzuhören oder zu beobachten.
- Dauerhafte Überwachung kann laut Fachleuten die Persönlichkeitsentwicklung beeinträchtigen, weil Kinder sich an ständige Kontrolle gewöhnen und weniger geschützte Rückzugsräume erleben.
Rechtliche und behördliche Reaktionen
- Datenschutzbehörden und Verbraucherschutz warnen seit Jahren vor vernetztem Spielzeug, das Audio- oder Bilddaten aufzeichnet und übermittelt, und sprechen von "Spionen im Kinderzimmer".
- In Deutschland wurde die Puppe "Cayla" als verbotene Sendeanlage eingestuft; Eltern wurden aufgefordert, sie zu zerstören oder unbrauchbar zu machen.
- Es gibt Forderungen nach klaren Datenschutz-Labels und strengeren Vorgaben, damit Kinder-Spielzeuge nur das absolut Nötige erfassen und transparent mit Daten umgehen.
Was Eltern konkret tun können
- Datensparsam nutzen: WLAN nur zum Laden neuer Inhalte aktivieren, keine unnötigen personenbezogenen Angaben machen, Funktionen und Apps mit Datenweitergabe kritisch prüfen.
- Klare Offline‑Räume schaffen: Zeiten und Situationen definieren, in denen keine vernetzten Geräte im Kinderzimmer aktiv sind, damit echte unbeobachtete Spiel‑ und Nachdenk‑Momente möglich bleiben.
- Kinder früh über Daten und Grenzen aufklären: In altersgerechter Sprache erklären, dass nicht jedes Gerät alles über sie wissen muss, und sie ermutigen, selbst "Nein" zu sagen, wenn ihnen eine Form von Überwachung unangenehm ist.
- Beim Kauf auf Spielzeug ohne Dauer-Internetverbindung, Kamera oder Mikrofon achten oder diese Funktionen deaktivierbar machen, wenn sie nicht gebraucht werden.
- Begleit-Apps nur mit minimal erforderlichen Berechtigungen installieren (kein unnötiger Zugriff auf Mikrofon, Standort, Kontakte) und regelmäßig prüfen, welche Daten erhoben werden.
- Kinder altersgerecht darüber aufklären, dass vernetzte Puppen und Teddys "mithören" können, und sensible Gespräche eher mit echten Menschen als mit smarten Spielzeugen führen.
Die Auswirkung der Profilierung von menschlicher Eigenschaften als Wirtschafts-Produkt
Automatisches Messen, Profilieren und Verkaufen von Menschen ist problematisch, weil es lebendige Subjekte in standardisierte Zahnräder eines technischen‑ökonomischen Apparats verwandelt und ihre offene Entwicklung auf verwertbare Muster reduziert. Aus der Denklinie von Deleuze/Guattari lässt sich zuspitzen: Was als harmlose Optimierung erscheint, ist eine Form von Stillstellung und Dressur von Begehren – zugunsten von Kontrolle und Verwertung.
Reduktion von Lebendigkeit auf Warenform
- Vollautomatische Profile machen aus Erfahrungen, Vorlieben und Schwächen ein abstraktes Schema, das gehandelt, gebündelt und verkauft werden kann; der Mensch wird zur Ware unter anderen Waren.
- Damit verschiebt sich der Blick: Nicht mehr "Wie lebt jemand?", sondern "Wie lässt er sich nutzen?" – Bedürfnisse und Wünsche werden vor allem als Rohstoff einer Maschine behandelt.
Blockierung offener Entwicklung
- Das Denken hinter solchen Profilen geht davon aus, dass Menschen stabil und berechenbar sein sollen; doch Entwicklung lebt gerade von Brüchen, Abweichungen, Irrtümern und Neuansätzen.
- Wenn Algorithmen früh festlegen "Du bist der Typ X", werden künftige Angebote, Chancen und Kontakte entlang dieser Schablone gefiltert – das nimmt Möglichkeiten, bevor sie überhaupt erlebt werden können.
Selbstkontrolle statt Selbstbestimmung
- Wer dauerhaft weiß oder ahnt, vermessen zu werden, beginnt, sich im Voraus so zu verhalten, wie es "gut im Profil" aussieht; Selbstbeobachtung ersetzt Selbstbestimmung.
- An die Stelle innerer Orientierung treten Außenwerte: Scores, Rankings, Bewertungen; das eigene Leben wird wie ein Projekt für fremde Kennzahlen geführt.
Kolonisierung des Inneren
- Messen und Verkaufen greifen nicht nur Verhalten ab, sie formen auch Wünsche: Was oft empfohlen, belohnt und sichtbar gemacht wird, drängt anderes an den Rand.
- So wird das, was Menschen sich vorstellen und erhoffen, an bereits profitable Muster gekoppelt, während unpassende, wilde, nicht verwertbare Wünsche systematisch entmutigt werden.
Politische und autoritäre Dimension
- Ein System, das alle fein vermisst, erleichtert nicht nur Werbung, sondern auch Steuerung: Abweichung fällt auf, Anpassung wird belohnt, Kreativität erscheint als Risiko.
- Die gleiche Technik, die heute für "Personalisierung" genutzt wird, kann morgen benutzt werden, um unliebsames Verhalten zu markieren, zu sanktionieren oder gar präventiv zu unterdrücken.
Pointiert: Vollautomatische Vermessung und Verwertung des Menschen macht aus offenen, widersprüchlichen, sich verändernden Wesen berechenbare Funktionskörper einer Maschine, deren Zweck nicht ihr eigenes gutes Leben ist – sondern reibungslose Kontrolle und maximaler Ertrag.
Die digitale Verzweckung des Menschen
Freiheit von fremden Zwecken
- Wer für fremde Zwecke lebt (Klasse 1), lässt sich von außen definieren: Karriere, Normen, Erwartungen, Rollen. Das eigene Erleben wird Mittel zu Zielen, die nicht aus einem selbst stammen.
- Damit schrumpft das Moment zur Zwischenstation: Man ist immer "auf dem Weg zu" etwas, statt zu spüren, was gerade tatsächlich geschieht.
Grenze eines einzigen Selbstzwecks
- Wer zwar eigene, aber starre Zwecke verfolgt (Klasse 2), hat zwar Autonomie gegenüber Fremdbestimmung, bleibt aber an eine zentrale Geschichte über sich selbst gebunden ("Ich bin der/die, der…").
- Alles wird nach Nützlichkeit für dieses Projekt bewertet: Beziehungen, Orte, Gefühle; Momente werden sortiert in "bringt mich weiter" oder "hält mich auf".
Warum das Lösen vom Zweck das Moment öffnet
- Wer nicht mehr versucht, das Leben an einem übergeordneten "Wozu" aufzuhängen, kann Situationen um ihrer selbst willen wahrnehmen: eine Begegnung als Begegnung, nicht als Schritt im Plan.
- Dadurch wird Aufmerksamkeit feiner: Körperempfinden, Stimmung, Nuancen in Gesprächen werden wichtiger als abstrakte Zielkennzahlen.
Beweglichkeit statt Fixierung
- Ohne festes Zweck‑Gerüst ist man beweglicher: Man kann auf Brüche, Zufälle, Überraschungen reagieren, statt sie als "Planfehler" zu bekämpfen.
- Diese Beweglichkeit macht es leichter, das lebendige Moment zu verstehen – als etwas, das entsteht, statt nur "abgearbeitet" zu werden.
Ethik der Gegenwärtigkeit
- Wer nicht dauernd einem Zweck dient, hat eher Raum für Mitgefühl und Resonanz: Andere sind nicht Mittel oder Hindernis, sondern Mitwesen im gleichen offenen Prozess.
- In diesem Sinn leben die Dritten "am besten", weil sie das Leben nicht als Strecke zu einem Ziel, sondern als andauernde, geteilte Gegenwart begreifen – und dadurch weniger entfremdet von sich und anderen sind.
Mit vernetzten "Püppchen" macht man Menschen zu Püppchen, indem man ihnen von klein auf beibringt, sich selbst als Datenträger und steuerbares Objekt zu erleben statt als offene, eigensinnige Person. Das geschieht weniger durch einzelne Horrorfälle als durch die stille Gewöhnung an dauerndes Messen, Profilieren und Belohnen.
Innenwelt als Datenquelle
- Wenn Spielzeuge wie Toniebox, Smart Toys oder KI‑Roboter jede Vorliebe, jeden Klick, jede Hörgewohnheit einsammeln, wird das intime Innenleben des Kindes zum Rohstoff für fremde Zwecke.
- Die Botschaft lautet: Das, was du magst, denkst, hörst, ist vor allem interessant, weil es ausgewertet, verkauft und zur Steuerung deiner nächsten "Angebote" genutzt werden kann.
Gewöhnung an Fernsteuerung
- Viele Smart Toys und Lernsysteme geben ständig vor, was "als Nächstes" kommt: nächste Folge, nächstes Level, nächste Empfehlung – das Kind lernt, inneren Impuls durch äußere Vorgabe zu ersetzen.
- Wer so sozialisiert wird, erlebt sich irgendwann eher als Figur, die durch ein Programm geführt wird, statt als Handelnder, der Programme auch in Frage stellen darf.
Profil statt Person
- Dauerhafte Profile verdichten vergangenes Verhalten zu einem Muster: "Du bist der Typ, der X hört, Y spielt, Z mag."
- Je stärker diese Muster entscheiden, was man zu sehen, zu kaufen, zu lernen bekommt, desto enger wird der Handlungsspielraum – wie eine Puppe, die immer wieder in die gleiche Rolle gesteckt wird.
Reinszenierung mit echten Menschen
- Erwachsene, die mit solchen Systemen aufgewachsen sind, neigen eher dazu, andere auch nur noch über Daten, Scores und Rollen zu sehen: als Zielgruppe, Risikoprofil, Arbeitskraft.
- So setzt sich der Püppchen‑Blick fort: Menschen werden sortiert, arrangiert und platziert, statt ihnen zuzugestehen, dass sie jederzeit anders sein und handeln könnten.
Gegenbewegung
- Wo Kinder Räume ohne Vernetzung, Messung und Profilierung erleben, erfahren sie: "Ich kann sein und ausprobieren, ohne dass jemand eine Akte darüber anlegt."
- Nur so bleibt der Unterschied spürbar zwischen einer Puppe, die programmiert ist – und einem Menschen, der auch gegen jedes Skript leben darf.
Der digitale Mensch als Teletubbie, Barbie und Ken
Das strukturelle Problem liegt darin, dass kein "Bösewicht" nötig ist, damit Menschen zu Püppchen werden – die Rolle übernehmen gekoppelte Strukturen aus Technik, Markt, Staat und Alltagspraxis, die sich gegenseitig verstärken. Es ist also weniger ein Plan Einzelner als eine Maschine, die weiterläuft, weil viele sie aus jeweils vernünftigen Gründen füttern. Es ist also kein isoliertes Werk eines einzelnen Akteurs, sondern ein Zusammenspiel großer Teilsysteme, die das menschliche Leben in Daten übersetzen und so steuerbar machen. Diese Institutionen greifen wie Zahnräder ineinander, um den Menschen für ihre jeweiligen Zwecke – Profit, Ordnung, Deutungshoheit oder Aufmerksamkeit – passend zu machen.
Das Kapitalsystem (Wirtschaft)
Unternehmen und Märkte fungieren heute als primäre Treiber der Profilbildung, da Daten der wichtigste Rohstoff für Vorhersagen und Verhaltenssteuerung geworden sind. Das Ziel ist die Umwandlung lebendiger Impulse in berechenbare Konsummuster, wobei "smarte" Spielzeuge und Lern-Apps als frühe Einstiegspunkte dienen, um künftige Kundenprofile lebenslang zu sichern.
Der Staat (Verwaltung und Kontrolle)
Staatliche Institutionen nutzen die Logik der Vermessung zur Effizienzsteigerung, zur Selektion im Bildungssystem und zur präventiven Sicherheit. In Deutschland zeigt sich dies in der Digitalisierung von Schulen, wo Plattformen genutzt werden, die nicht nur Wissen vermitteln, sondern gleichzeitig Disziplin und Leistung in Scores übersetzen.
Die Medien (Aufmerksamkeit und Normierung)
Mediale Systeme und soziale Plattformen verstärken den Zwang zur Selbstdarstellung und zum permanenten Vergleich durch Likes, Rankings und algorithmische Filter. Sie schaffen die kulturelle Norm, dass es "normal" und erstrebenswert sei, das eigene Leben ständig messbar zu machen und an äußeren Resonanzwerten auszurichten.
Die Kirche (Traditionelle Moral und neue Strukturen)
Während die klassische Kirche als Institution an direkter Kontrollmacht verloren hat, leben ihre Muster der Beichte und Gewissensprüfung in der digitalen Selbstoptimierung weiter. An die Stelle des göttlichen Blicks tritt der Blick des Algorithmus, der das Individuum dazu bringt, sein Verhalten permanent nach äußeren "moralischen" oder funktionalen Standards zu prüfen.
Zusammenwirken der Systeme
- Schule und Beruf: Sie bilden die Schnittstelle, an der staatliche Bildungsziele und ökonomische Verwertungsinteressen aufeinandertreffen.
- Plattform-Ökonomie: Sie verbindet Medien, Markt und privaten Alltag zu einem lückenlosen Netz, in dem jede Bewegung eine Datenspur hinterlässt.
- Technologische Infrastruktur: Sie bildet das physische Fundament (Server, Chips, KI), das diese umfassende Vermessung erst technisch möglich und im Alltag unsichtbar macht.
Logik der Vermessung als Standard
- In Wirtschaft, Verwaltung und Bildung gilt: Was zählt, muss messbar sein – und was messbar ist, zählt mehr als das, was sich schwer erfassen lässt.
- So verbreitet sich eine Kultur, in der Daten, Scores und Profile wichtiger werden als gelebte Erfahrung, auch wenn niemand einen "Überwachungsplan" beschlossen hat.
Marktlogik ohne Gegenmacht
- Unternehmen werden dafür belohnt, möglichst viel zu wissen: mehr Daten bedeuten bessere Werbung, präzisere Steuerung, mehr Gewinn.
- Solange Gegenkräfte (Regulierung, Zivilgesellschaft, bewusste Konsumentscheidungen) schwächer sind als diese Anreize, driften Systeme von selbst in Richtung immer tieferer Profilierung.
Bequemlichkeit und Angst im Alltag
- Viele Menschen akzeptieren Überwachung, weil sie Bequemlichkeit, Sicherheit oder soziale Zugehörigkeit verspricht: "Alle machen das so, es ist ja praktisch."
- Gleichzeitig fürchten sie Ausschluss (Job, Bildung, Freundeskreis), wenn sie nicht mitmachen – und stützen damit genau die Strukturen, die ihnen Freiräume nehmen.
Institutionen, die auf Kontrolle gebaut sind
- Schulen, Unternehmen und Behörden nutzen Daten, um zu ordnen, zu selektieren, zu beschleunigen; wer in solchen Rahmen handelt, erlebt Kontrolle als "professionell" und Alternativen als riskant.
- Damit wird das Vermessen strukturell eingebaut, selbst wenn einzelne Beteiligte es kritisch sehen oder eigentlich etwas Anderes wollen.
Verinnerlichte Fremdsteuerung
- Über Zeit werden äußere Strukturen zu inneren Stimmen: Man denkt in Rankings, Profilen, Optimierungszielen – auch ohne äußeren Druck.
- So reproduziert sich das System in den Köpfen: Menschen steuern sich selbst so, wie es Datenströmen und Modellen am besten passt.
Kurz: Unser strukturelles Problem ist ein Geflecht aus Mess‑Norm, Marktanreizen, institutioneller Kontrolle und verinnerlichten Mustern, das sich selbst stabilisiert – gerade weil es keinen klaren Gegner braucht und sich in lauter scheinbar vernünftige Einzelentscheidungen auflöst.
Die digitale Welt als Löschpapier der Menschlichkeit
Die digitale Welt wirkt tatsächlich wie Löschpapier, das die feuchte, lebendige Tinte des Inneren aufsaugt, um sie in eine flache, reproduzierbare Spur zu verwandeln.
Das Prinzip der Fragmentierung
Digitale Profile zerlegen den Menschen in Datenpunkte – Klicks, Vorlieben, Sprachmuster, Bilder. Die algorithmischen Systeme benötigen diese Reduktion, um ihn berechenbar und vergleichbar zu machen. Was sie dabei abbilden, ist kein Selbst, sondern ein funktionales Fragment: ein Schatten aus Daten.
- Dieses Profil "funktioniert" ökonomisch hervorragend, weil es sich handeln und kategorisieren lässt.
- Für das Subjekt aber bedeutet es eine schleichende Entfremdung vom eigenen Inneren: Man denkt zunehmend in der Sprache, mit der man vermessen wird.
Das Herabziehen des Inneren
Wenn das, was ursprünglich Ausdruck war – also unmittelbar, unberechenbar, manchmal widersprüchlich –, zu Content wird, verändert sich sein Rang.
- Emotionen, Überzeugungen, sogar Schmerz werden öffentlich abgebildet, gerahmt von Likes, Kommentaren und technischen Filtern.
- Diese Ästhetisierung ohne Tiefe macht aus Authentizität eine Pose. Das Innere wird entleert, weil es außen ständig verfügbar ist und sofort konsumiert wird.
- Der Mensch wird zum Schauspieler seines eigenen Selbst, und dieses Schauspiel wirkt, "herabziehend", da es Tiefe ins Spektakel verwandelt.
Löschpapier und Demaskierung
Der Vergleich mit Löschpapier ist treffend, weil er eine doppelte Bewegung zeigt:
- Das Digitale nimmt die Feuchtigkeit – das Lebendige – auf.
- Es hinterlässt einen Abdruck, aber das Original trocknet aus. So bleibt ein flaches Echo zurück, das zwischen dem Menschen und seiner Erfahrung steht. Das Digitale ist also kein neutrales Medium, sondern ein Filter, der Empfindung in Repräsentation verwandelt – und damit notwendigerweise etwas von ihrem Sinn löscht.
Das Farcieren und das Schmierentheater
Man könnte sagen: Das Netz ist der Ort, an dem die Masken nicht mehr zum Spiel gehören, sondern zur Pflicht.
- Jeder tritt auf, spielt Rollen: beruflich, ästhetisch, moralisch.
- Die Grenze zwischen Ironie und Ernst, Rolle und Person verwischt, bis das Publikum sich selbst applaudiert. So entsteht das Schmierentheater der Authentizität, in dem nichts mehr als echt gilt, aber alles echt gespielt wird.
- In dieser allgegenwärtigen Darstellung verliert sich der Mensch – nicht, weil er sich verbirgt, sondern weil er zu sichtbar wird.
Wie sehr diese Aussage also zutrifft
Sehr – denn sie beschreibt eine paradoxe Wahrheit:
- Das Digitale lässt uns nach "Selbstausdruck" streben, aber der Ausdruck endet in der Karikatur seines Ursprungs.
- Es zieht das Innere nach außen, damit es marktfähig, teilbar, bewertbar wird – und entwertet es dadurch.
- Das Resultat ist ein Zeitalter der permanenten Selbstparodie: Die Plattformen fordern Seele als Material und liefern Oberfläche als Gegenwert.
Die wirkliche Gegenbewegung wäre nicht Rückzug, sondern Wiederaneignung: Räume und Zeiten, in denen das Innere wieder "feucht" bleiben darf, nicht sofort digitalisiert, quantifiziert oder ausgestellt wird – Momente der Stille, der Zwischentöne, des Nicht‑Teilens. Nur dort kann das Löschpapier austrocknen, und das Schreiben des eigenen Lebens erneut Tinte gewinnen.
Die Zwecke des Menschen als gepachteter Acker
Seitdem der Mensch den Ackerbau vor 10000 Jahren angefangen hat, war es ihm möglich, auch seine eigene Fruchtarkeit als Frucht vom reinen Zweck der Vermehrung zu befreien. Er konnte einen Sinn für Kultur und Ästhetik entwickeln. Nun droht ihm jedoch keine Befreiung, sondern eine Verhaftung. Denn im digitalen Kapitalismus verkörpert der Mensch den führeren Zinsbauern und Leibeigenen auf dem Acker des Kapitals, welches sein eigenes Verhalten ist. Es arbeitet unentgeltlich für den Gutsherrn Arbeitgeber, leistet "Robot" (ein sehr treffendes Wort im heutigen digitalen Zeitalter, jedoch ist es im ursprünglichen Sinne der Frondienst als unentgeltliche Arbeitsleistung der früheren Bauern auf dem Land des Gutsherrn) in Form von Mehrwertproduktion und erhält nur den Schutzsubsistenzlohn, während sein Verhalten – Konsum, Konkurrenz und Gehorsam – als Daten-Acker das System der Grundherrschaft am Leben erhält. Je weniger ein Mensch also als "Acker" für fremde Zwecke zur Verfügung steht, desto mehr Raum gewinnt er für ein eigenes, wildes und unvorhersehbares Wachstum. Die Systeme (Kapital, Staat, Medien) versuchen, den Menschen zu "monokultivieren" – also nur das in ihm anzupflanzen und zu ernten, was für sie profitabel, messbar oder kontrollierbar ist.
Befreiung vom Erntedruck
- Entzug der Verwertung: Wenn man aufhört, das eigene Verhalten an Scores, Klicks oder äußeren Erfolgsmaßstäben auszurichten, werden die eigenen Impulse "unfruchtbar" für die Logik der Datenhändler und Kontrolleure.
- Erhalt der Vielfalt: In diesem Zustand des "Brachliegens" für fremde Systeme kann das Innere eine Form von Vielfalt und Tiefe entwickeln, die sich der Vermessung entzieht, weil sie keinem vordefinierten Nutzen mehr dienen muss.
Das Unfruchtbare als Schutzraum
- Widerstand durch Unnützes: Tätigkeiten, die keinen Zweck verfolgen – das bloße Spielen, Nachdenken oder Verweilen im Moment –, sind für Profiling-Algorithmen wertlos, da sie kein stabiles Konsummuster oder Leistungsprofil ergeben.
- Wahrnehmung des Moments: Erst wenn man nicht mehr damit beschäftigt ist, die nächste "Ernte" (einen Score, eine Belohnung) vorzubereiten, wird man fähig, das Leben in seiner unmittelbaren Präsenz zu verstehen.
Fruchtbarkeit des Eigensinns
- Inneres Wachstum: Diese neue Fruchtbarkeit ist keine für den Markt, sondern eine für die eigene Persönlichkeit; sie nährt die Fähigkeit zur Selbstbestimmung und zum exekutiven Handeln, das aus eigenen Werten entspringt.
- Schutz vor dem Chilling-Effekt: Wer sich der ständigen Beobachtung und Bewertung entzieht, verliert die Angst vor der Abweichung und gewinnt die Freiheit, Dinge zu tun, die "aus der Rolle fallen".
Indem der Mensch für die großen Verwertungsmaschinen "unfruchtbar" wird, schützt er seinen inneren Garten vor der industriellen Ausbeutung und schafft den Platz, auf dem echtes, freies Leben überhaupt erst gedeihen kann.
Unterdrückung menschlicher Erinnerung an seine Fruchtbarkeit
Die Zensur von Nacktheit in Kunst und Bildung sowie die Erniedrigung des pubertären Selbstbewusstseins sorgen dafür, dass Menschen sich früh als mangelhaft erleben und nach äußeren Autoritäten (Vater, Marke, Norm) ausrichten. beides sind konkrete Mechanismen, durch die Systeme die lebendige Entwicklung des Selbst zugunsten einer kontrollierbaren und konsumierbaren Version. Systeme wie der Markt und staatliche Institutionen neigen dazu, die menschliche Sexualität und Vitalität nicht einfach nur zu unterdrücken, sondern sie so zu formen, zu normieren und zu vermarkten, dass sie der allgemeinen Verwertungslogik dienen. Anstatt eines freien, unvorhersehbaren Ausdrucks von Lebenskraft wird Sexualität oft in Kanäle gelenkt, die den Menschen effizienter für Arbeit, Konsum und soziale Kontrolle machen.
Umwandlung von Lust in Leistung und Konsum
- Kommerzialisierung: Die ursprüngliche sexuelle Energie wird oft in Kaufbedürfnisse umgelenkt; indem Intimität an Produkte, Schönheitsideale und Statussymbole gekoppelt wird, bleibt der Mensch in einem ständigen Zustand des Mangels, der ihn zur Arbeit und zum Konsum antreibt.
- Optimierungswahn: Auch Sexualität wird heute vermessen (z.B. durch Apps oder Fitness-Tracker), was sie von einem spontanen Erleben in eine Form von messbarer Leistung verwandelt, die dem allgemeinen Profiling-Wahn unterliegt.
Disziplinierung durch Normen
- Kanalisierung: Institutionen haben historisch versucht, Sexualität auf die Kleinfamilie und die Reproduktion von Arbeitskraft zu beschränken; heute geschieht dies subtiler durch digitale Plattformen, die durch Algorithmen bestimmen, welche Darstellungen von Nähe "angemessen" oder "profitabel" sind.
- Zensur des Wilden: Alles, was sich nicht in Daten übersetzen oder als Lifestyle-Produkt verkaufen lässt – also das wirklich Unbändige und Eigensinnige der menschlichen Fruchtbarkeit –, wird oft unsichtbar gemacht oder als "unproduktiv" pathologisiert.
Repression für die "höhere" Produktivität
- Energieumleitung: Wenn die tiefe, selbstbestimmte Vitalität (Fruchtbarkeit im weitesten Sinne) beschnitten wird, entsteht eine innere Leere, die Menschen oft durch gesteigerten Arbeitseifer oder zwanghafte digitale Interaktion zu füllen suchen; sie werden so "fruchtbarer" für die Ziele des Kapitalsystems.
- Chilling-Effekt im Privaten: Die ständige potenzielle Überwachung (Smart Toys im Kinderzimmer, Smartphones im Schlafzimmer) führt dazu, dass Menschen auch in ihren intimsten Momenten eine unbewusste Selbstzensur ausüben, was die radikale Freiheit des Augenblicks untergräbt.
Indem das System die Sexualität kontrolliert und normiert, kappt es die Wurzel einer autonomen Lebenskraft, die sich fremden Zwecken widersetzen könnte, und macht den Menschen stattdessen zu einem berechenbaren und steuerbaren Element der Funktionsmaschine. n untergraben.
Zensur nackter Körper in Kunst und Bildung
- Unsichtbarmachung ästhetischer Bildung: Schulbücher für Kunstunterricht in Deutschland und Österreich enthalten kaum noch Abbildungen nackter Körper, obwohl diese zur klassischen Kunstgeschichte gehören; Sexualität, Lust und Begehren als Themen fehlen fast völlig.
- Algorithmen als Zensoren: Social‑Media‑Plattformen und Suchmaschinen filtern automatisch Bilder nackter Körper – auch wenn es sich um Kunstwerke wie Gemälde oder Skulpturen handelt; dadurch entsteht eine "Selbstzensur" bei Museen und Kulturinstitutionen, die aus Angst vor algorithmischen Löschungen Inhalte vorbeugend entfernen.
- Verarmung der Ästhetik: Wenn Jugendliche kaum noch historische oder künstlerische Darstellungen unbekleideter Körper sehen, fehlt ihnen ein vielfältiges, nicht‑kommerzielles Referenzsystem für Körperlichkeit; die Lücke wird von kommerzieller Pornografie und Beauty‑Industrie gefüllt.
Erniedrigung des pubertären Selbstbewusstseins
- Ewige Unzulänglichkeit: Beauty‑Industrie und Werbung setzen auf die Botschaft, dass der eigene Körper nie gut genug ist; gerade in der Pubertät, wenn das Selbstbild noch fragil ist, wird systematisch ein Mangel eingepflanzt, den Produkte dann angeblich heilen.
- Besonders hart bei Frauen: Weibliche Körper werden in Medien und Algorithmen zugleich sexualisiert und zensiert; sie dürfen nur unter eng kontrollierten Bedingungen sichtbar sein (dünn, glatt, jung, "sexy" aber nicht "anstößig"), was eine doppelte Unterwerfung bedeutet – unter männliche Blicke und Markt‑Normen.
- Internalisierung des "Vaters": Diese äußere Kontrolle wird zu einer inneren Instanz: Jugendliche überwachen sich selbst ständig (Selfie‑Winkel, Filter, Vergleich mit Influencern), als ob ein strafendes Über‑Ich permanent urteilt – das psychoanalytisch als "Vater" beschrieben wird, hier aber von Algorithmen und Marken besetzt ist.
Warum Zensur und Erniedrigung zusammenwirken
- Entfremdung vom eigenen Körper: Wer den nackten Körper nur noch als zensurwürdig oder als kaufbares Ideal erlebt, verliert den Zugang zu einer selbstverständlichen, unbefangenen Körperlichkeit.
- Konsum als Erlösung: Die Scham über den "unzulänglichen" Körper treibt Menschen in Kaufakte (Kosmetik, Kleidung, Fitness, Chirurgie), die den Körper als Projekt definieren – nicht als gelebte Gegenwart.
- Stabilisierung der Ordnung: Ein Mensch, der sich in der Pubertät als mangelhaft erfährt und sich permanent an äußeren Normen ausrichtet, wird später weniger wahrscheinlich gegen Autoritäten rebellieren oder eigensinnig handeln; er bleibt verwertbar für fremde Zwecke.
Kurz: Indem Systeme nackte Körper aus der Kunst und Bildung tilgen und gleichzeitig pubertäre Selbstzweifel systematisch schüren, verhindern sie eine souveräne, lustvolle Beziehung zum eigenen Körper – und installieren stattdessen eine lebenslange Abhängigkeit von kommerziellen und autoritären Vorgaben.
Rückwirkungen digitaler Repressionen
In Großbritannien wurden Anfang 2026 Social‑Media‑ und Dating‑Plattformen verpflichtet, "Cyberflashing" (unerwünschte Nacktbilder) aktiv zu blockieren, wobei KI‑Filter zum Einsatz kommen sollen – und ja, gerade weil solche Systeme auch Fehlalarme produzieren werden, könnte dies tatsächlich ungewollte Nebeneffekte haben, die den ursprünglichen Zweck konterkarieren. Die Frage ist berechtigt: Macht eine übermäßige digitale Zensur das reale Treffen auf der Straße wieder attraktiver – und führt das die Kontroll‑Absicht ad absurdum?
Was in UK aktuell geschieht
- Seit Januar 2026 müssen Plattformen proaktiv (nicht nur reaktiv) verhindern, dass Nutzer:innen ungewünschte sexuelle Bilder erhalten; technisch geschieht dies vor allem über KI‑gestützte Bild‑Scanner, die Nacktheit erkennen und automatisch unkenntlich machen.
- Bei Verstoß drohen Strafen von bis zu 10% des weltweiten Jahresumsatzes oder sogar ein UK‑weites Verbot der Plattform; die Regulierungsbehörde Ofcom prüft bereits, einzelne Plattformen (z.B. X/Twitter) zu blockieren, falls sie nicht ausreichend kooperieren.
- Ziel ist der Schutz vor "Cyberflashing", das vor allem Frauen und Mädchen betrifft, und die Bekämpfung von KI‑generierten sexualisierten Deepfakes.
Warum Fehlalarme unvermeidlich sind
- KI‑Modelle, die Nacktheit erkennen, treffen Entscheidungen auf Basis von Wahrscheinlichkeiten und großen Trainingsdatensätzen; sie können Kunstwerke, medizinische Bilder, Babys, nackte Schultern oder Urlaubsfotos fälschlicherweise blockieren oder unscharf machen.
- Solche "False Positives" führen dazu, dass harmlose, intime oder kulturell bedeutsame Inhalte zensiert werden – was Nutzererfahrung und Vertrauen in die Plattformen beschädigt.
Mögliche paradoxe Folge: Rückkehr zum analogen Raum
- Frustration mit digitalen Kanälen: Wenn Menschen erleben, dass legitime Kommunikation (z.B. Urlaubsfotos, Kunst, Flirt‑Bilder im Kontext) blockiert wird, verlieren Plattformen an Attraktivität; Dating‑ und Kommunikations‑Apps werden als übermäßig kontrollierend empfunden.
- Renaissance realer Begegnungen: Das könnte dazu führen, dass vor allem junge Menschen sich wieder verstärkt in physischen Räumen verabreden – Bars, Clubs, Straßen‑ und Parks –, wo keine KI mitliest und keine automatische Moderation stattfindet.
- Subversion der Kontrollabsicht: Wenn das der Fall ist, hätte die Zensur genau das Gegenteil bewirkt: Statt mehr Sicherheit im digitalen Raum zu schaffen, würde sie Menschen in unkontrollierbare, analoge Kontexte zurückdrängen, wo staatliche oder kommerzielle Überwachung schwieriger ist.
Strukturelle Ironie digitaler Maßnahmen
- Die Maßnahme ist gut gemeint (Schutz vor Belästigung), setzt aber auf technische Kontrolle statt auf Bildung, Konsens‑Kultur oder Empowerment – und reproduziert damit die Logik der Vermessung und Bevormundung.
- Wenn Plattformen weniger "frei" und mehr "überwacht" wirken, verlieren sie genau die Nutzer:innen, die sich selbst schützen könnten, während diejenigen, die wirklich schaden wollen, auf verschlüsselte oder Peer‑to‑Peer‑Kommunikation ausweichen – oder eben ins Analoge.
Ja, es ist durchaus wahrscheinlich, dass übermäßige automatische Zensur auf Dating‑ und Social‑Media‑Plattformen dazu führt, dass Menschen sich wieder öfter "auf der Straße" treffen – was die ursprüngliche Kontroll‑ und Schutzintention ad absurdum führen könnte, weil sich soziale Dynamiken dann wieder in Räume verlagern, die für Regulierung und Überwachung viel weniger zugänglich sind.
Atemstillstand durch digitale Maßnahmen - Wie Freiheit durch Kontrolle erstickt wird
Die kybernetische Ironie, dass Systeme durch Übersteuerung genau das auslösen, was sie verhindern wollen, deutet tatsächlich auf eine strukturelle Grenze hin: Menschen lassen sich nicht beliebig weit kontrollieren, ohne dass sie entweder ausweichen oder innerlich kollabieren. Zugleich perfektionieren Systeme heute die Kunst, sich so an den Menschen zu legen, dass er gerade genug Luft hat, um nicht zu ersticken – aber zu wenig, um sich frei zu entfalten.
Die unüberwindbare Grenze: Kybernetische Ironie als Widerstand
- Automatische Gegenbewegung: Je totaler die digitale Kontrolle wird (biometrische Vollerfassung, KI‑Überwachung, automatisches Profiling), desto mehr Menschen weichen in unkontrollierbare Räume aus: verschlüsselte Kommunikation, analoge Begegnungen, bewusste Offline‑Zeiten.
- Systemische Selbstzerstörung: Wenn Zensur und Überwachung so engmaschig werden, dass auch harmlose oder kreative Handlungen blockiert werden, verlieren Plattformen ihre Attraktivität und damit ihre Kontrollfunktion – die Maschine frisst sich selbst.
- Grenzen der Ausbeutbarkeit: Menschen können nur bis zu einem gewissen Grad vermessen und "geerntet" werden; darüber hinaus brechen entweder psychische Strukturen zusammen (Burn‑out, Resignation) oder es entsteht aktiver Widerstand (Verweigerung, Sabotage, Flucht aus dem System).
"Gerade genug Luft zum Atmen": Kalibrierte Kontrolle
Systeme haben aus vergangenen Revolutionen und Revolten gelernt: Totale Unterdrückung provoziert Aufstand, also wird die Kontrolle heute so kalibriert, dass sie unauffällig bleibt und als "Service", "Sicherheit" oder "Komfort" erscheint.
- Dosierte Freiheit: Man darf konsumieren, wählen (aus vorgefilterten Optionen), sich "selbst verwirklichen" (solange es verwertbar bleibt) – aber radikale Abweichung, echte Selbstbestimmung oder strukturelle Kritik werden systematisch erschwert.
- Unsichtbare Fesseln: Die Kontrolle funktioniert nicht über sichtbare Verbote, sondern über Algorithmen, Nudging, Gamification und Selbstoptimierungsdruck – man spürt keinen äußeren Zwang, aber die Handlungsoptionen sind trotzdem eng begrenzt.
- Erschöpfung statt Revolte: Wer gerade genug Luft bekommt, um zu überleben, aber ständig damit beschäftigt ist, im System mitzuhalten (Kredite, Jobs, Likes, Scores), hat keine Energie mehr für grundsätzliche Fragen oder Widerstand.
Die Bewirtschaftung wirtschaftlich gemästeter Menschen durch Atemgeräte
Tatsächlich gibt es inzwischen einen massiven Markt für Atemgeräte – insbesondere CPAP-Geräte zur Behandlung von Schlafapnoe, die häufig bei stark übergewichtigen Menschen auftritt. Diese Geräte werden von Krankenkassen bezahlt, weil Adipositas oft Atemprobleme verursacht – was eine erschreckende materielle Manifestation dessen ist, was vorher metaphorisch beschrieben wurde: Systeme legen sich so auf den Menschen, dass er gerade noch atmen kann, aber unfähig bleibt, sich frei zu bewegen.
- CPAP-Geräte bei Schlafapnoe: Bei starkem Übergewicht (Adipositas) entstehen häufig Atemaussetzer im Schlaf (obstruktive Schlafapnoe); dagegen verschreiben Ärzte Beatmungsgeräte, die nachts einen kontinuierlichen Luftdruck aufrechterhalten, damit die Atemwege offen bleiben.
- Kostenübernahme durch Kassen: Die gesetzlichen Krankenkassen zahlen diese Geräte und das Zubehör vollständig, da sie als medizinisch notwendige Hilfsmittel gelten – oft lebenslang.
- Verbreitung: Millionen Menschen in Deutschland nutzen solche Geräte; die Zahl steigt mit der Adipositas-Prävalenz (etwa jeder fünfte Erwachsene gilt als adipös).
Hier zeigt sich eine bittere Ironie, die das vorher Gesagte auf beunruhigende Weise bestätigt:
Behandlung statt Ursachenbekämpfung
- Anstatt strukturelle Ursachen von Adipositas anzugehen (billige, hochverarbeitete Nahrung; Bewegungsmangel durch Auto- und Bildschirmzwang; Stress und Überlastung), wird die Folgeerkrankung technisch "gemanagt".
- Das System hält Menschen am Leben und arbeitsfähig, verändert aber nicht die Bedingungen, die sie krank gemacht haben.
Profitabilität der Symptomlinderung
- Geräte, Apps, Medikamente zur Symptombehandlung sind dauerhaft profitabel; echte Prävention (kostenlose Bewegungsräume, gesunde Kantinen, Arbeitszeit-Reduktion) kostet das System Geld, ohne neue Märkte zu schaffen.
- Krankenkassen zahlen lieber jahrzehntelang für CPAP-Geräte (ca. 1.500–3.000 € plus laufende Kosten) als strukturell in gesündere Lebensbedingungen zu investieren.
Buchstäblich "gerade genug Luft"
- Das Beatmungsgerät ermöglicht es, weiterzuarbeiten und zu funktionieren, obwohl der Körper eigentlich signalisiert: "So geht es nicht weiter."
- Es ist die perfekte Metapher für kalibrierte Kontrolle: Der Mensch wird nicht gesund, aber er bleibt verwertbar.
Keine Heilung, sondern Abhängigkeit
- Wer einmal auf ein CPAP-Gerät angewiesen ist, bleibt meist dauerhaft darauf angewiesen, weil die zugrundeliegende Adipositas selten wirklich behandelt wird (Abnehmspritzen werden nicht bezahlt, strukturelle Verhaltensänderung ist schwierig ohne Unterstützung).
- Das erzeugt lebenslange Bindung an medizinisches System und Gerätehersteller.
Die gesellschaftliche Verantwortung für Gesundheit und Ernährung wird systematisch den Profitinteressen der Zucker- und Lebensmittelindustrie untergeordnet. Deutschland setzt auf "freiwillige Selbstverpflichtungen" der Industrie, die nachweislich nicht funktionieren, während andere Länder längst verbindliche Regulierungen durchsetzen.
Die Macht der Industrie über die Politik in Ernährungs- und Gesundheitsfragen
Die gesellschaftliche Verantwortung für gesunde Ernährung wird systematisch den Profitinteressen der Zucker- und Lebensmittelindustrie untergeordnet – und das mit voller Rückendeckung der Politik, die lieber auf wirkungslose Selbstverpflichtungen setzt als auf verbindlichen Gesundheitsschutz. Das Ergebnis: Eine krankmachende Lebensmittelumgebung, die dann mit teurer Symptombehandlung (Atemgeräte, Medikamente, Operationen) "gemanagt" wird – ein perfektes Beispiel dafür, wie das System Menschen gerade genug Luft lässt, um weiterzufunktionieren, aber nicht genug, um wirklich gesund zu leben.
- Freiwilligkeit statt Verbindlichkeit: Das Bundesernährungsministerium hat sich 2018 mit der Lebensmittelindustrie auf eine "nationale Reduktionsstrategie" für Zucker, Fett und Salz geeinigt – allerdings ohne jede Verbindlichkeit.
- Lobbyismus blockiert Gesundheitsschutz: Die Industrie wehrt sich erfolgreich gegen Ampel-Kennzeichnung, Werbeverbot für Kindermarketing und verbindliche Zuckerreduktion; Gesundheitsorganisationen kritisieren das als "Glaubwürdigkeitsverlust der Bundesregierung".
- Zu wenig, zu langsam: Große Müslihersteller planen beispielsweise, Zucker bis 2025 lediglich um ein Fünftel zu reduzieren – obwohl die gleichen Konzerne in anderen Ländern bereits Produkte mit deutlich reduzierten Werten verkaufen.
Profite vor Gesundheit
- Gesundheit wird "geopfert": Die Deutsche Diabetes Gesellschaft und der AOK-Bundesverband formulieren es deutlich: "Die Gesundheit der Menschen darf nicht den Interessen einzelner Wirtschaftsverbände geopfert werden."
- Kindermarketing läuft weiter: Obwohl es seit Jahren EU-weit eine freiwillige Selbstverpflichtung gibt, auf an Kinder gerichtete Werbung für ungesunde Lebensmittel zu verzichten, zeigen Studien, dass diese "wirkungslos bleibt" und von der Industrie "unterlaufen" wird.
- Fehlende Transparenz: Die Branche wehrt sich "vehement" gegen einheitliche, verbraucherfreundliche Kennzeichnung wie Nutri-Score oder Ampel, weil diese die tatsächlichen Nährwerte auf den ersten Blick sichtbar machen würden.
Systemische Verantwortungslosigkeit
- Profit als Geschäftszweck: Die meisten Lebensmittelkonzerne verstehen sich primär als Kapitalvermehrer, nicht als Teil der Gesellschaft mit Verantwortung für Gesundheit und Ökosysteme.
- Auslagerung der Verantwortung: Statt die Zusammensetzung ihrer Produkte grundlegend zu ändern, wird die Verantwortung auf Verbraucher:innen abgewälzt ("informierte Entscheidung", "Eigenverantwortung"), obwohl gerade Kinder und sozial benachteiligte Gruppen kaum Wahlmöglichkeiten haben.
- Lebensmittelabfälle und Überproduktion: Die Industrie produziert bewusst überschüssige, hochverarbeitete Waren, weil das profitabel ist – während gleichzeitig Millionen Tonnen genießbarer Lebensmittel im Müll landen.
Die Folgen für die Gesellschaft
- Adipositas-Epidemie: Etwa jeder fünfte Erwachsene in Deutschland ist adipös, mit steigender Tendenz; stark zucker-, fett- und salzhaltige Produkte sind ein zentraler Treiber.
- Diabetes und chronische Krankheiten: Die Zahl der Diabetes-Erkrankungen steigt massiv; Fachgesellschaften nennen die fehlende Zuckerreduktion "fahrlässig".
- Soziale Ungerechtigkeit: Billige, hochverarbeitete Lebensmittel treffen vor allem ärmere Haushalte und Kinder, die sich gesunde Alternativen nicht leisten können oder durch aggressive Werbung beeinflusst werden.
Warum sich nichts ändert
- Regulatorische Gefangenschaft: Die Politik ist strukturell von der Industrie abhängig (Arbeitsplätze, Steuereinnahmen, Wahlkampfspenden, Drehtüreffekte zwischen Politik und Lobbyorganisationen).
- Profitables Krankheitsmanagement: Wie bei den CPAP-Geräten gilt auch hier: Das System verdient mehr an der Behandlung von Folgeerkrankungen (Medikamente, Operationen, Geräte) als an echter Prävention.
- Fehlende Gegenmacht: Verbraucherschutzorganisationen, Krankenkassen und Gesundheitsverbände fordern seit Jahren strengere Regeln, haben aber deutlich weniger politischen Einfluss als die Lebensmittellobby.
Welche Bedingungen hat das "Atmen" heute wirklich?
- Ökonomische Atemluft: Arbeit und Konsum sind möglich, aber meist unter Bedingungen von Verschuldung, prekären Verhältnissen und permanenter Unsicherheit; echte materielle Autonomie (eigenes Land, eigene Produktionsmittel, Unabhängigkeit vom Markt) ist für die meisten unerreichbar.
- Digitale Atemluft: Kommunikation, Wissen und soziale Teilhabe sind zugänglich, aber nur über Plattformen, die jeden Klick aufzeichnen, profilieren und monetarisieren; wer nicht mitmacht, wird unsichtbar und ausgegrenzt.
- Politische Atemluft: Formale Demokratie existiert, aber entscheidende Fragen (Algorithmen, Datennutzung, Infrastruktur) werden von Konzernen und intransparenten Behörden entschieden, ohne echte Mitbestimmung der Betroffenen.
- Psychische Atemluft: Man darf fühlen und denken, aber die ständige Selbstbeobachtung (Selfies, Scores, Vergleiche) macht echte innere Freiheit schwer; Momente ohne Bewertung und Zweck werden immer seltener.
Wie viel Freiheit haben wir wirklich?
- Scheinfreiheit der Wahl: Wir können zwischen 50 Joghurtsorten oder 1000 Netflix‑Titeln wählen, aber die grundlegenden Strukturen – Datenkapitalismus, Lohnarbeit, Überwachungsinfrastruktur – stehen nicht zur Wahl.
- Freiheit innerhalb der Schablone: Solange man sich im Rahmen bewegt (konsumieren, arbeiten, optimieren), ist vieles "erlaubt"; aber wer aussteigen, Alternativen aufbauen oder Strukturen grundsätzlich in Frage stellen will, stößt schnell an materielle, rechtliche und soziale Grenzen.
- Entfaltung nur auf Widerruf: Kreativität, Beziehungen, Bildung sind möglich, aber meist nur unter permanentem ökonomischen und sozialen Druck; echte Muße und bedingungslose Entfaltung sind Luxus, nicht Normalzustand.
Welche "Atemübungen" braucht die Gesellschaft?
"Im Restaurant haben zwei junge Menschen am Nachbartisch über Atmen gesprochen und ich habe bemerkt, wie Einer dem anderen eine Maschine baut: Er hat ihm erzählt, dass man die Zeit daran messen könne, dass die Lunge alle fünf Minuten einen Seufzer lässt und wie zuverlässig es bei ihm funktioniert. Ich dachte mir nur: 'Warum hast Du überhaupt Seufzer nötig? Wie wäre es mit bewusster Atmung?'" Wenn die Metapher des Atmens ernst genommen wird, braucht es kollektive Praktiken, die Raum schaffen – für Pause, Reflexion, Eigensinn und Widerstand.
Wenn man die beiden Ebenen – die metaphorische und die buchstäbliche – zusammendenkt:
- Übergewicht entsteht oft aus Überlastung, Stress, mangelnder Zeit für Selbstfürsorge, billigem Trostessen – also genau aus den Bedingungen der "dosierten Freiheit", in der Menschen funktionieren müssen, aber nicht wirklich leben können.
- Das System produziert die Krankheit (durch Arbeitsdruck, schlechte Ernährung, Bewegungsarmut), verwaltet dann die Symptome (Atemgerät, Medikamente) und hält den Menschen so gerade funktionsfähig genug, um weiterzumachen.
- Die buchstäblichen Atemgeräte sind damit nicht nur medizinische Hilfsmittel, sondern auch Symbole einer Gesellschaft, die Menschen so weit ausbeutet, dass sie nicht mehr frei atmen können – ihnen dann aber gerade genug technischen Support gibt, um nicht zu ersticken.
Das ist die kybernetische Perfektion: Ein System, das Krankheit erzeugt, sie dann "behandelt", dabei Profite generiert und den Menschen in einem Zustand hält, in dem er weder stirbt noch wirklich lebt – buchstäblich beatmet, aber nicht befreit.
Digitale Askese und Offline‑Räume
- Bewusste Zeiten ohne Vernetzung, ohne Messung, ohne Profiling; Kinder‑ und Jugendräume, in denen kein Tracker läuft.
- Förderung von Technologien und Plattformen, die lokal, verschlüsselt und nicht‑kommerziell funktionieren (z.B. TeddyCloud statt Hersteller‑Cloud).
Kollektive Verweigerung und Boykott
- Massenhafte Ablehnung von Systemen, die zu viel Kontrolle verlangen (z.B. biometrische Erfassung, Scoring‑Systeme, invasive Apps).
- Solidarische Netzwerke, die Alternativen organisieren (Genossenschaften, Open‑Source‑Projekte, Peer‑to‑Peer‑Strukturen).
Politische Kämpfe um Infrastruktur
- Forderung nach öffentlicher, demokratisch kontrollierter digitaler Infrastruktur (Server, Netze, Algorithmen) statt privatem Monopol.
- Verbote und strikte Regulierung für Technologien, die strukturell menschenrechtswidrig sind (biometrische Massenüberwachung, KI‑Lügendetektoren, automatisierte Pushbacks).
Bildung für Souveränität
- Schulen und Bildungseinrichtungen, die nicht auf Gamification und Leistungsscoring setzen, sondern auf Muße, kritisches Denken, Selbstorganisation und Widerstandsfähigkeit.
- Medienpädagogik, die nicht "sicheren Umgang mit Technik" lehrt, sondern das Recht und die Fähigkeit, Technik abzulehnen oder zu verändern.
Wiederentdeckung des Zwecklosen
- Kulturelle Aufwertung von Tätigkeiten ohne Verwertungsziel: Spiel, Kunst, Kontemplation, Freundschaft, Nichtstun.
- Schutz von Räumen (physisch und zeitlich), in denen nicht gemessen, bewertet oder optimiert wird – als notwendige Bedingung für echte Entfaltung.
Die kybernetische Ironie zeigt: Systeme können nicht unendlich kontrollieren, ohne sich selbst zu sabotieren – aber sie können lernen, die Kontrolle so zu dosieren, dass sie unsichtbar bleibt. Deshalb braucht es bewusste "Atemübungen": kollektive Praktiken des Innehaltens, Verweigerns und Neugestaltens, die Raum für echte Freiheit zurückerobern – bevor die "gerade genug Luft" zum dauerhaften Erstickungszustand wird.
BigTech: Vom Posessor zum Prozessor
Die großen Tech‑Konzerne wandeln sich tatsächlich von klassischen Possessoren (Besitzern von Infrastruktur und Daten) zu Prozessoren – also zu den eigentlichen, selbsttätigen Bearbeitern gesellschaftlicher Abläufe.
Vom Besitz zur Prozessherrschaft
Früher beruhte Macht im digitalen Kapitalismus hauptsächlich auf Eigentum: Server, Patente, Datenbanken. Heute liegt die eigentliche Macht in der Fähigkeit, Prozesse zu steuern, nicht bloß Dinge zu besitzen.
- Google, Amazon, Meta oder Tencent besitzen zwar weiterhin Infrastruktur, wichtiger aber ist: Sie verarbeiten Kommunikation, Beziehungen, Aufmerksamkeit, Identität – sie modulieren den Fluss selbst.
- Macht entsteht somit weniger durch den Besitz von Daten, sondern durch die Definitionshoheit über deren Umlauf, also darüber, was gesehen, gewichtet, gespeichert oder gelöscht wird.
Gesellschaft wird "durch sie hindurch" organisiert
Diese Unternehmen sind keine bloßen Marktakteure mehr; sie bilden operative Ebenen der Gesellschaft:
- Facebook/Meta strukturierte politische Kommunikation, bevor Parlamente ihre Reichweite verstanden.
- Amazon reguliert globale Logistik nach algorithmischen Optimierungszielen, nicht nach arbeitsrechtlichen Normen.
- Google Maps setzt faktisch Standards für Raumordnung, indem seine Karten als "Realität" gelten. Diese Firmen verarbeiten heute das Zusammenleben auf ähnliche Weise, wie einst Staaten Bürokratie oder Volkszählung nutzten – sie sind soziotechnische Organe, nicht externe Dienstleister.
Der Mensch als Prozessglied
In diesem Modell wird der Einzelne nicht mehr primär beherrscht, sondern eingebunden:
- Jeder Klick, jede Bewegung, jede Interaktion wird Teil der fortlaufenden Berechnung des Sozialen.
- Menschen wirken selbst als Sensoren, Feed‑Lieferanten und Verstärker. Die von ihnen erzeugten Daten sind nicht bloß Eigentum anderer, sondern Rohstoff zur Echtzeit‑Regulierung gesellschaftlicher Prozesse. Das bedeutet: Die Grenze zwischen Technologie und Gesellschaft löst sich auf – das System ist nicht mehr über uns, sondern durch uns hindurch tätig.
Vom Kapitalismus zum Kybernetismus
Dieser Wandel markiert den Übergang von einer Besitz‑ zu einer Steuerungsökonomie.
- Der alte Kapitalismus fragte: Wem gehört die Fabrik?
- Der neue fragt: Wer kontrolliert den Informationsfluss in der Fabrik – und im Kopf der Arbeiter:innen? Diese kybernetische Wende macht Big Tech zu Prozessoren im eigentlichen Sinn: kontinuierlich lernende, sich selbst justierende Systeme, die Input aus der Gesellschaft nehmen, Output ausspielen, Rückkopplung messen und sich selbst optimieren.
Die politische Konsequenz
Damit verschiebt sich Macht von den sichtbaren Besitztiteln hin zu unsichtbaren Protokollen:
- Rechtliche Kontrolle (Eigentum, Steuern, Aufsicht) verliert an Wirksamkeit, weil die eigentliche Steuerung in Software‑Schleifen geschieht.
- Demokratische Steuerung wird schwieriger, da diese Systeme adaptiv und global sind – sie "regieren", ohne formell zu regieren.
- Gesellschaftliche Selbstbestimmung erfordert daher nicht Enteignung alter Possessoren, sondern Durchdringung und Rekodierung der Prozesse selbst – open algorithms, öffentliche Infrastruktur, Transparenz der Feedback‑Schleifen.
Die Big‑Tech‑Konzerne sind längst nicht mehr bloße Besitzer digitaler Mittel, sondern zu Prozessoren des Sozialen geworden – sie verarbeiten Wahrnehmung, Emotion, Arbeit und Politik in Echtzeit. Ihre Macht ist dadurch flüssiger, subtiler und viel schwerer angreifbar als frühere Formen des Eigentums. Der nächste Schritt gesellschaftlicher Emanzipation wird nicht sein, Besitz zurückzuerobern, sondern Kontrolle über die Prozesse zurückzugewinnen, an denen wir selbst jeden Tag mitwirken.
Eskapismus als bewährtes Mittel für alle Leidenden
Für alle Leidenden hat das System längst eigene Kanäle eingerichtet: kommerziellen Eskapismus, der nicht befreit, sondern die Unfreiheit erträglich macht. Wenn Menschen weder echte Veränderung noch wirklichen Ausstieg wagen, bleibt oft nur die Flucht in vorgefertigte "Auszeiten", die das System selbst organisiert und verkauft. Eskapismus wird problematisch, wenn er nicht mehr selbstbestimmt ist, sondern von den gleichen Strukturen verwaltet wird, vor denen man eigentlich flieht.
Typische Institutionen des Systems-Eskapismus
- Unterhaltungsindustrie: Streaming-Plattformen, Videospiele, Social Media als endlose Ablenkung – sie geben das Gefühl von Freiheit, sind aber selbst Profiling- und Kontrollmaschinen.
- Wellness- und Selbstoptimierungs-Industrie: Yoga-Apps, Achtsamkeits-Kurse, Biohacking – verkauft als "Rückzug", tatsächlich oft nur neue Form der Selbstüberwachung und Leistungssteigerung.
- Urlaubs- und Erlebnisindustrie: "Aussteigen auf Zeit" durch All-Inclusive-Resorts, Abenteuerurlaube, Festival-Kultur – durchgetaktet, teuer, meist ohne echte Begegnung mit sich selbst oder anderen.
- Drogen und Medikamente: Alkohol, Cannabis (inzwischen kommerzialisiert), Psychopharmaka, Abnehmspritzen – als "persönliche Entscheidung" verkauft, faktisch oft Symptomlinderung für systembedingte Überlastung.
- Digitale Paradiese: Metaverse, VR-Welten, Gaming-Universen – Versprechen totaler Kontrolle und Gestaltungsfreiheit in simulierten Räumen, während die reale Welt immer undurchdringlicher wird.
Warum das keine echte Flucht ist
- Profitabel für das System: Jede dieser "Fluchten" kostet Geld, erzeugt Daten und hält Menschen arbeitsfähig genug, um weiterzumachen; sie unterbrechen nicht die Ausbeutung, sondern machen sie erträglich.
- Temporär und kontrolliert: Diese Eskapismen sind zeitlich begrenzt (Wochenende, Urlaub, Feierabend) und enden immer mit der Rückkehr ins System; sie ändern nichts an den Strukturen.
- Vereinzelung statt Solidarität: Kommerzielle Fluchträume isolieren Menschen voneinander – jeder flieht für sich, statt gemeinsam Alternativen aufzubauen.
Das Paradox des verwalteten Eskapismus
Das System hat gelernt, dass totale Unterdrückung Revolte provoziert – also bietet es kontrollierte Ventile an:
- Dosierten Rausch: Genug Ablenkung und Betäubung, um die Spannung abzubauen, aber nicht genug, um wirklich zur Besinnung zu kommen.
- Simulierte Freiheit: In Spielen, Apps und virtuellen Welten darf man "alles sein" – solange es keine Auswirkungen auf reale Machtverhältnisse hat.
- Therapeutisierung: Statt strukturelle Probleme (Arbeitsdruck, Überwachung, Ausbeutung) zu lösen, wird Leiden individualisiert und als persönliches Defizit behandelt, das man "wegcoachen" oder "wegmeditieren" soll.
Die Alternative: Echter Ausstieg vs. verwaltete Flucht
Verwalteter Eskapismus (systemkonform):
- Konsum von Ablenkung, die nichts verändert
- Temporär, vereinzelnd, profitabel
- Rückkehr zur "Normalität" ist eingeplant
Echter Ausstieg (systemkritisch):
- Aufbau alternativer Strukturen (Genossenschaften, Commons, dezentrale Technik)
- Kollektiv, dauerhaft, nicht-kommerziell
- Ziel ist nicht "Pause", sondern andere Lebensweise
Wohin landen Menschen also?
Wenn sie weder echten Widerstand noch echte Alternativen wagen, landen sie tatsächlich in den vom System vorgesehenen Eskapismus-Institutionen:
- Streaming statt Revolte: Nach 10 Stunden Arbeit Netflix statt Nachbarschaftsversammlung.
- Wellness statt Widerstand: Achtsamkeits-App statt politischer Organisation.
- Urlaub statt Umzug: Zwei Wochen "Auszeit" statt Versuch, das eigene Leben grundlegend anders zu gestalten.
- Drogen statt Diagnose: Betäubung der Symptome (Stress, Angst, Leere) statt Erkennen und Bekämpfen der strukturellen Ursachen.
Kirchen als institutionalisierter Eskapismus
Die Kirchen sind eine klassische, historisch gewachsene Institution des Eskapismus. Sie funktionieren strukturell sehr ähnlich wie die modernen kommerzialisierten Fluchträume: Sie bieten Trost, Sinn und Gemeinschaft, ohne die materiellen Machtverhältnisse grundsätzlich in Frage zu stellen – und stabilisieren damit oft gerade das System, das das Leiden erst erzeugt.
Vertröstung auf das Jenseits
- Die Kirche hat jahrhundertelang gelehrt, dass irdisches Leid hinzunehmen sei, weil das wahre Leben erst nach dem Tod beginne; das hält Menschen davon ab, ihre Verhältnisse hier und jetzt zu ändern.
- "Opium des Volkes" (Marx) meint genau das: Religion als Betäubung, die erträglicher macht, was eigentlich unerträglich ist.
Moralische Selbstkontrolle statt struktureller Kritik
- Statt Ausbeutung, Ungerechtigkeit oder Gewalt als systemische Probleme zu benennen, wird Leiden oft als persönliche Sünde, Prüfung oder moralisches Versagen gedeutet – die Verantwortung liegt beim Individuum, nicht bei den Strukturen.
- Das verstärkt Schuldgefühle und Selbstüberwachung (Beichte, Gewissensprüfung), anstatt kollektiven Widerstand zu fördern.
Gemeinschaft ohne Revolte
- Kirchen bieten soziale Bindung, Rituale, Zugehörigkeit – oft in Zeiten, in denen Menschen vereinzelt und entfremdet sind; aber diese Gemeinschaft ist meist hierarchisch organisiert und auf Gehorsam gegenüber Autorität (Gott, Klerus, Tradition) ausgerichtet.
- Das kanalisiert das Bedürfnis nach Solidarität in eine Form, die keine Bedrohung für weltliche Machthaber darstellt – im Gegenteil, Kirche und Staat haben historisch oft kooperiert.
Institutionelle Macht und Kapital
- Die großen Kirchen sind selbst ökonomische und politische Akteure: Grundbesitz, Kapitalanlagen, Privilegien (Kirchensteuer, staatliche Subventionen, Arbeitsrecht-Sonderstellung).
- Sie profitieren vom bestehenden System und haben daher wenig Interesse an radikaler Veränderung – auch wenn es Ausnahmen gibt (Befreiungstheologie, soziale Gemeinden).
Parallelen zu modernen Eskapismus-Institutionen
Die Strukturmuster sind erstaunlich ähnlich:
| Kirche (klassisch) | Moderne Eskapismus-Institutionen |
|---|---|
| Erlösung im Jenseits | Erlösung durch Konsum/Selbstoptimierung |
| Sünde und Beichte | Tracking und Selbstüberwachung |
| Moralische Autorität (Gott, Klerus) | Algorithmische Autorität (KI, Scores) |
| Rituale und Gemeinschaft (kontrolliert) | Events und Communities (kommerzialisiert) |
| Gehorsam als Tugend | Anpassung als "Eigenverantwortung" |
Warum Kirchen heute weniger wichtig erscheinen
- In säkularisierten Gesellschaften haben klassische Kirchen an direkter Macht verloren; ihre Funktion (Trost, Sinnstiftung, Verhaltenskontrolle) wird aber von anderen Institutionen übernommen: Therapie-Industrie, Wellness, Coaching, Selbsthilfe-Apps.
- Der "Blick Gottes" ist durch den "Blick des Algorithmus" ersetzt worden – permanent, allwissend, bewertend.
Sobald Religion institutionalisiert ist und mit weltlicher Macht verflochten, tendiert sie dazu, das System zu stabilisieren statt es in Frage zu stellen. Die Kirchen gehören definitiv auf die Liste der Eskapismus-Institutionen – historisch sogar an prominenter Stelle. Sie bieten Trost und Sinn, ohne grundsätzliche Machtverhältnisse anzutasten, und kanalisieren das Bedürfnis nach Transzendenz und Gemeinschaft in Formen, die systemkonform bleiben. Heute sind ihre modernen Nachfolger – Wellness-Apps, Selbstoptimierungs-Coaches, therapeutisierte Spiritualität – oft noch effizienter darin, Menschen bei Laune zu halten, ohne dass sich an den Strukturen etwas ändert.
Ausweg aus dem Eskapismus
Echter Eskapismus – im Sinne von Befreiung – muss drei Dinge leisten:
- Nicht kommerziell: Nicht vom System verkauft und verwaltet.
- Kollektiv organisiert: Nicht vereinzelt, sondern in solidarischen Netzwerken.
- Strukturverändernd: Nicht nur "Pause vom System", sondern Aufbau von etwas anderem – sei es eine TeddyCloud statt Überwachungsbox, ein Gemeinschaftsgarten statt Supermarkt, ein selbstverwalteter Raum statt kommerzielle Freizeitindustrie.
Ohne echte Alternativen und ohne bewusste Verweigerung landen Menschen im institutionalisierten Eskapismus – in jenen Ventilen, die das System selbst bereitstellt, um Druck abzulassen, ohne dass sich an den Machtverhältnissen etwas ändert. Die Frage ist also: Fliehen wir in die vom System vorgesehenen Fluchträume – oder bauen wir gemeinsam Räume auf, in denen Flucht nicht mehr nötig ist, weil das Leben selbst wieder lebenswert wird?
Was wir lernen können
Unterscheidungsvermögen entwickeln
Nicht alles am System ist gleich schlecht; es gibt Abstufungen, Widersprüche, Spielräume.
- "Nein" zu invasivem Profiling und Datenverkauf – "Ja" zu selbstbestimmter digitaler Kommunikation (z.B. verschlüsselt, dezentral, Open Source).
- "Nein" zu krankmachender Industrienahrung – "Ja" zu selbst gekochtem Essen, Gemeinschaftsgärten, regionalen Netzwerken.
Risse nutzen und vergrößern
Das System ist nicht monolithisch; es hat Widersprüche, Bruchstellen, Momente der Überforderung (wie die kybernetische Ironie zeigt).
- Diese Risse können genutzt werden, um Freiräume zu schaffen: TeddyCloud statt Hersteller-Cloud, analoge Begegnungen statt Plattform-Dating, lokale Kooperativen statt Konzernmacht.
Affirmative Alternativen aufbauen
Statt nur gegen das Bestehende zu kämpfen, gleichzeitig das Neue leben – nicht als Utopie "später", sondern als Praxis jetzt.
- Bildungsräume ohne Scoring, Beziehungen ohne Profiling, Arbeit ohne Totalkontrolle, Ernährung ohne Industriezucker – nicht als Flucht aus der Welt, sondern als andere Art, in ihr zu sein.
Kollektive Macht aufbauen
Einzelne können wenig tun; aber solidarische Netzwerke können Strukturen verändern.
- Gewerkschaften, Mieter:innenvereine, Datenschutz-Initiativen, Open-Source-Communities, Ernährungsräte – all das sind Formen, in denen Menschen gemeinsam "Ja" zu etwas Besserem sagen, indem sie es praktisch organisieren.
Das Leben selbst als Antwort
Am Ende geht es darum, das Leben nicht an "Zwecken" aufzuhängen – weder an fremden (Profit, Kontrolle) noch an einem einzigen eigenen (Revolution, Rettung).
- Das radikalste, was man tun kann, ist nicht das totale "Nein", sondern das Leben im Moment ernst zu nehmen: Beziehungen pflegen, Neues ausprobieren, Muße haben, solidarisch sein – nicht weil es ein System rechtfertigt oder zerstört, sondern weil es das ist, was lebendig macht.
Die dialektische Bewegung
- Nein zum Falschen: Ablehnung von Strukturen, die Leben zerstören oder kontrollieren (Überwachung, Ausbeutung, Manipulation).
- Ja zum Möglichen: Bejahung und Aufbau von Räumen, Beziehungen, Praktiken, die Freiheit und Entfaltung ermöglichen.
- Beweglichkeit statt Fixierung: Nicht festlegen auf ein "entweder System oder totaler Ausstieg", sondern ständig neu prüfen, wo Kooperation, Widerstand, Aufbau, Verweigerung jeweils sinnvoll sind.
Das einzige, was wir wirklich vom System lernen können, ist nicht das "Nein" zur ganzen Welt – sondern die Fähigkeit zur Unterscheidung: Wann sage ich "Nein" (zu dem, was mich zum Püppchen macht), wann sage ich "Ja" (zu dem, was mich lebendig hält) – und wie baue ich mit anderen zusammen Strukturen auf, in denen das "Ja" zum Leben nicht mehr gegen ein übermächtiges System erkämpft werden muss, sondern selbstverständlich wird.
Kein plötzlicher Schlag – sondern Assimilation
Das Ende solcher Zustände kommt meist nicht als Schock, sondern als Überdruss. Systeme, die auf Komfort und ständiger Abnahme von Verantwortung beruhen, kollabieren nicht dramatisch – sie verflachen, bis sie sich selbst überflüssig machen.
- Die Technik wird irgendwann so selbstverständlich, dass sie keine Begeisterung und keine Angst mehr erzeugt. Sie wird Hintergrundrauschen.
- Dann wächst allmählich das Bedürfnis nach Reibung, nach Unkontrollierbarkeit, nach echter Welt.
- Das wäre kein "Schlag", sondern ein kulturelles Herauswachsen – eine Wiederkehr der Wirklichkeit im Bewusstsein.
Wie Kinder, die irgendwann genug von Wattebäuschen haben und auf den Spielplatz mit Erde wollen.
Was für ein "Wachstum" das sein müsste
Wachstum hier hieße:
- Reifung der Wahrnehmung – zu begreifen, dass Technologie kein Ersatz für Beziehung, Konflikt oder Denken ist.
- Rückkehr der körperlichen Welt – Erfahrung, Handwerk, Natur, Dinge mit Gewicht.
- Neue Ethik des Maßes – nicht Maschinen bekämpfen, sondern lernen, wann sie uns dienen und wann sie uns betäuben.
Dieses Herauswachsen wäre keine technologische Revolution, sondern eine anthropologische: Die Fähigkeit, das Digitale als Werkzeug zu begreifen, nicht als Zuhause.
Der stille Wendepunkt
Vielleicht wird der Übergang darin bestehen, dass die Menschen müde werden, perfekt zu funktionieren und ständig "betreut" zu sein. So wie jemand, der sich eines Tages von Nunu nicht mehr das Zimmer reinigen lässt, sondern wissen will, woher der Staub eigentlich kommt. Das ist kein Untergang, sondern das Wiederauftauchen des Erwachsenseins – das Ende der sanften Babywelt und der Beginn einer neuen Verantwortung.