Enshittification statt Fortschritt
Warum Hard- und Software nicht stetig besser wird
Neue Technik ist nicht automatisch besser als die der Generation davor – allzu oft auch objektiv schlechter, langsamer, nerviger. Wir haben anhand konkreterVerschlechterungen nach Ursachen für dieses Phänomen gesucht, trennen mutwillige von unbeabsichtigten Rückschritten und klären, was es mit dem Begriff Enshittification auf sich hat.
Die Gesetzmäßigkeit, die Intel-Mitgründer Gordon Moore schon 1965 beschrieb, enthält das große Versprechen der IT. Er postulierte in Moore’s Law, dass sich die Anzahl der Transistoren pro Chip etwa alle zwei Jahre verdoppeln werde. Was damals utopisch klang, war rückblickend fast prophetisch und die Rechnung ging jahrzehntelang erstaunlich genau auf: Prozessoren wurden und werden durch neue Fertigungstechnik pro Fläche immer leistungsfähiger oder bei gleichbleibender Rechenleistung zumindest preisgünstiger, und nebenbei auch effizienter. Immer schnellere Computer für weniger Geld, das würde unweigerlich zu paradiesischen Zuständen für alle führen, die sie nutzen. Doch das passt nicht so recht zu den Erfahrungen, die jeder täglich mit Computern macht: Die Chips werden zwar unbestritten schneller, die allgemeine Zufriedenheit mit Computern wächst aber nicht in gleichem Maße. Ärgernisse verschwinden nicht, ihre Art änderte sich lediglich.
Liegt es also an der Software, dass Digitaltechnik nicht stetig besser wird? Dem widerspricht einiges, denn wer heute Software schreibt, steht auf den Schultern von Riesen. Gemeint ist die ungeheure Menge an Vorarbeiten, die Generationen von Entwicklern zuvor geleistet haben: Einerseits sind da Protokolle und standardisierte Schnittstellen, um deren Pflege und Weiterentwicklung sich teils große und professionelle Stiftungen und Standardisierungsgremien kümmern. Andererseits gibt es unter Open-Source-Lizenzen veröffentlichte Software-Meisterwerke – vom Linux-Kernel bis zu Bibliotheken und Frameworks in jeder erdenklichen Programmiersprache, die fast jedes exotische Problem schon gelöst haben. Wer heute beispielsweise eine Software schreiben will, die To-dos verwalten soll, muss sich ausschließlich um genau das kümmern, was die eigene Anwendung von allen anderen schon geschriebenen Programmen unterscheidet. Nicht darum, wie ein Computer Tastatureingaben annimmt, wie er die Inhalte speichert, nicht mal, wie man sie über Netzwerk oder das Internet verschickt, auf Servern entgegennimmt und dort verarbeitet. Es gibt bereits sichere und stabile Übertragungsprotokolle, Formate für strukturierte Daten und ausgereifte Datenbanken. Kurz: Noch nie zuvor war es angesichts der schieren Menge schon gelöster Probleme so einfach wie heute, gute Software zu schreiben.