0180 – Fazit zur Entwicklung des Internets

Das Internet hat sich in seiner kurzen Geschichte im Vergleich zu anderen historischen Leitmedien rasant entwickelt. Sowohl diese schnelle Entwicklung als auch die unzähligen technologischen Fortschritte sind historisch betrachtet beispiellos. Wie bei jedem Leitmedienwechsel bedarf es neuer Kompetenzen sowohl auf Ebene der Institutionen als auch der Individuen, um den Übergang unter Wahrung der demokratischen Errungenschaften für die Gesellschaft positiv zu gestalten. Technologieeinsatz ist dafür notwendig, aber bei Weitem nicht hinreichend.

Im Zentrum vieler Herausforderung steht die Fragen nach digitalen Daten. Ihnen kommt je nach Kontext wichtige Bedeutung zu:

  • Daten als Rohstoff für Wachstum
  • Daten als Rohstoff für Gefahrenabwehr
  • Daten als Grundlage für neue Angriffs- und Kontrollszenarien
  • Aber auch: Daten als Grundlage für die individuelle Unterstützung und Analyse von Individuen zur Erleichterung und Verbesserung der Lebensumstände

Entscheidene Zukunftsfragen sind u.a.: Wie und von wem werden diese Daten zu welchem Zweck verwendet? Welche Rolle spielt der Staat dabei? Wie lassen sich global agierende Digitalkonzerne staatlich steuern?

Allerdings treffen diese Entwicklungen auf ein kulturelles System, welches mehrere Leitmedienwechsel mehr oder minder erfolgreich gemeistert hat. Die heutigen Menschen verfügen bereits über ein Vielzahl von Kompetenzen aus den historisch durchlebten Leitmedienwechseln, die die Voraussetzung zur Meisterung der nun anstehenden Aufgaben darstellen. Auch diese Stärke ist historisch gesehen wiederum – dieses Wort habe ich nun wahrlich überstrapaziert – beispiellos.

Unter der Perspektive eines Bildungsystems ergeben sich hieraus interessante Fragestellungen. Politik hat dabei eher das im wörtlichen Sinne Fassbare, nämlich den Geräteeinsatz im Blick. Auch der Digitalpakt trägt in Teilen noch diese Züge, indem er z.B. weiterhin interaktive Tafelsysteme – also konkrete Geräte – fördert.

0170 – Warum das alles eine Überwindung des klassischen Marktes ist

Vor dem Zeitalter der Digitalisierung war in der westlichen Welt der klassische Industriekapitalismus die führende Wirtschaftsideologie. Im wesentlichen bestimmten einfache Prinzipien wie etwa Angebot und Nachfrage grundlegende Abläufe. Durch Personalisierung ist eine Erweiterung des im Grunde immer noch kapitalistischen Prinzips möglich – Shoshana Zuboff verwendet dafür den Begriff des Überwachungskapitalismus.

Der Überwachungskapitalismus ermöglicht ihre Meinung nach z.B. auf Basis von Datenanalysen Vorhersagen darüber zu machen, welche Dienstleistungen und Produkte mit hoher Wahrscheinlichkeit bald am Markt nachgefragt sind. Macht kumuliert sich dabei nicht mehr allein in staatlichen Institutionen, sondern zunehmend auch in digitalen Großkonzernen, weil Macht für Zuboff direkt mit der Menge der zur Verfügung stehenden Daten korreliert – darin sind z.B. Google, Amazon oder Microsoft staatlichen Institutionen schon jetzt überlegen und durch ihre globale Ausrichtung zudem schwierig durch gängige demokratische Instrumente (u.a. gesetzgeberische Regelungen) zu kontrollieren.

Damit sind bisher eingespielte Verfahren zur Regulierung des Marktes nicht mehr wirksam. Der Markt ist ein klassischer mehr, sondern ein durch digitale Möglichkeiten immens erweiterter. Zudem sind oftmals demokratische Meinungsbildungsprozesse schlicht zu langsam, um mit immer neuen technologischen Entwicklungen und damit verbundenen Fragestellungen mitzuhalten. Es braucht also neue Formen staatlicher Souveränität – und nicht zuletzt digital mündige Bürgerinnen und Bürger.

0160 – Ist Personalisierung im Netz per se gefährlich?

Personalisierung ist m.E. dann gefährlich, wenn sie allein einer kapitalistischen Logik der Profit- und Datenmaximierung folgt. Wenn z.B. Google dazu gezwungen würde, personalisierte Verkehrsdaten nur ohne Rückschlussmöglichkeit auf ein Individuum zu verarbeiten, wären die sich daraus ergebenden Analysemöglichkeiten ein Segen für z.B. die dynamische Steuerung von Verkehrssystemen.

Die Fridays4Future-Bewegung ist eine Bewegung, die durch soziale Netzwerke entstanden ist und die sich durch sie organisiert und am Leben hält – auch durch Algorithmen und personalisierte Daten. Das heutige Netz leistet auch sonst auf vielfältige Art und Weise einen Beitrag zur Demokratisierung von Gesellschaft. Dadurch dass das Netz eines freies Publikationsmedium ist, wurden auch viele Verfehlungen staatlicher Organisationen oder von Konzernen publik und einer breiteren Öffentlichkeit überhaupt erst zugänglich – vor allem in den letzten Jahren.

Medizinische Daten ermöglichen schon heute wesentlich verfeinerte Diagnose- und Heilungsmethoden. Soziale Netzwerke können auch durch Personalisierung Horte des Wissenstransfers werden, in denen Menschen zusammengebracht werden, die vorher nie voneinander gewusst hätten – z.B. im Bereich der Wissenschaften, der Kunst, der Politik. In diesem idealisierten Modell würde das Netz zurückkehren zur Phase des Graswurzelvertrauens, allerdings erheblich aufgewertet durch personalisierte Algorithmen, die z.B. Menschen gleicher Interessen noch effektiver zusammenführen.

Alte und lokal gebundene Menschen erhalten durch die sozialen Medien wieder einen Zugriff auf die Welt. Sie können z.B. Anteil an der Entwicklung ihrer Kinder und Enkelkinder nehmen, was vor dem personalisierten Internet in dieser Form kaum möglich erschien.

Nicht das personalisierte Internet bereitet uns heute Probleme, sondern die ihm innewohnende kapitalistische Marktlogik.

0150 – Der Staat und das personalisierte Internet

Spätestens seit Edward Snowden wissen wir, dass nicht nur Internetkonzerne personalisierte Daten sammeln. Auch staatliche Institutionen haben spätestens seit 9/11 ein großes Interesse daran, möglichst umfassende Informationen über ihre Bürgerinnen und Bürger zu erhalten – in totalitären Systemen mehr als in demokratischen Strukturen.

Um die Probleme der Überwachung öffentlicher Räume wissen wir. Wir wissen um die Problematik von Funkzellenabfragen (als Polizei alle Handydaten in der Umgebung eines Verbrechens auslesen) und wie wissen um die Möglichkeit totaler staatlicher Überwachung, wenn z.B. Schnittstellen zu sozialen Netzwerken von der Polizei anlasslos und ohne Richtervorbehalt genutzt würden. Im Kern läuft es immer auf ein Aushebeln der Unschuldsvermutung hinaus: Durch Überwachungsmaßnahmen geraten immer massenhaft unbeteiligte Menschen mit ihren Daten in den Fokus staatlicher Exekutivorgane. Für die Ausweitung staatlicher Befugnisse wird immer wieder ins Feld geführt, dass sich Kriminelle zunehmend im digitalen Räumen organisieren und der Staat hier handlungsfähig bleiben muss. Selbst in einer starken Demokratie wie Deutschland sind hier die Grenzen und Bedingungen noch lange nicht ausgehandelt.

Den Handlungen des Staates gegenüber sind wir nach meiner Beobachtung deutlich kritischer eingestellt als z.B. den Aktionen digitaler Großkonzerne – solange nicht eigene Handlungsfelder von uns Lehrenden betroffen sind.

Auch Schule ist in vielen europäischen Ländern eine staatliche Institution. Insbesondere durch die deutsche Schulpflicht wird in erheblicher Art und Weise in das Erziehungsrecht der Eltern eingegriffen, weil wir durch die Geschichte dafür eine ausführliche Folgenabschätzung als Gesellschaft vorgenommen haben.

Ausgerechnet im liberalen Schweden gab es im letzten Jahr einen Vorfall staatlicher Überwachung in einer Schule. Die Anwesenheit der Schülerinnen und Schüler wurde in einer Klasse nicht durch Klassenbucheintragungen, sondern im Pilotbetrieb vollautomatisch durch Gesichtserkennung festgestellt. Aus einer einseitigen Perspektive klingt das Verfahren genial: Nie mehr lästige Blicke am Anfang der Stunde, nie mehr verlorene Unterrichtszeit und dadurch eine große Entlastung der jeweiligen Lehrkraft. Der Preis dafür ist die Speicherung und Verarbeitung biometrischer Daten von Kindern und Jugendlichen. Wer garantiert dafür, dass das nicht in der Cloud geschieht? Wer garantiert dafür, dass diese Daten auch künftig allein auf die Schule beschränkt bleiben? Wie handle ich pädagogisch bei einem Schüler, der zu Hause arge Probleme hat und daher oft verspätet oder gar nicht kommt? Daten lügen nicht. Ab einer bestimmten Fehlquote gilt u.U. für diesen Schüler ein Fach als unbelegt – mit u.U. weitreichenden, sich verschärfenden Folgen für seine Zukunft.

Auch Lehrplattformen sind prinzipiell Instrumente, die geeignet sind, personalisierte Daten von Schülerinnen und Schülern zu erfassen. Lehrplattformen unterscheiden sich für mich von Lernplattformen dadurch, dass vom Design her bei Lehrplattformen die Lehrkraft bestimmt, was eine Schülerin oder ein Schüler auf der Plattform darf- bei z.B. Mahara oder Wikis ist das grundsätzlich anders. Lehrplattformen sind natürlich attraktiv, weil sie – mit Bedacht eingesetzt – große Transparenz darüber schaffen, auf welchem Lernstand sich eine Schülerin oder ein Schüler befindet – dadurch fallen zumindest in der Theorie weniger Menschen durch das Raster und es wird eine individuelle Förderung möglich. Leider scheitert eine tatsächliche Umsetzung meist an menschlichen Ressourcen, die im Gegensatz zu algorithmischen nicht unbegrenzt skalieren.

  • Lange Zeit habe ich Blogsysteme als Lehrplattformen verwendet. Blogsysteme ermöglichen u.a., dass Texte online erstellt werden und für alle Mitglieder einer Lerngruppe sichtbar sind. Das hatte für mich als Lehrperson immense Vorteile:
  • Ich wusste schon am Abend vorher, welche Fehlerschwerpunkte in der Lerngruppe auftreten und konnte für die Stunde gezielt Übungsmaterial zusammenstellen
  • Durch das Blog war ich nicht an Dateiformate gebunden und konnte querlesen – endlich kein x‑faches Geklicke mehr in der Hoffnung, dass meine Textverarbeitung das aktuelle Microsoftformat frisst.
  • Durch den Beitragszähler bei den Autorennamen wusste ich ganz genau, wer in welchem Umfang gearbeitet, bzw. die Hausaufgabe überhaupt erledigt hat.
  • Gerade für stillere Schülerinnen und Schüler war von Vorteil, dass ihre Leistungen dokumentiert waren und für die Benotung der „sonstigen Leistung“ mit herangezogen werden konnte. So wurde niemand dafür bestraft im Unterricht still zu sein.
  • Durch die Sortierung nach Autoren entstanden nach und nach Portfolios, die auch dabei halfen, Schülerinnen und Schülern Entwicklungen in ihren Schreibfertigkeiten aufzuzeigen.

Ein Schüler äußerte sich kritisch zu diesem Ansatz – sinngemäß in etwa so:

Herr Riecken, zu Ihrer Bloggerei mit uns, muss ich Ihnen mal ein paar Dinge sagen. Immer wenn ich eine Hausaufgabe innerhalb des Blogs erledige, fühle ich mich genötigt, das besonders zeitaufwendig und gut zu machen, weil es eben für immer und ewig dort stehenbleibt. Das kostet mich Zeit und ist im Vergleich zum normalen Heft einfach unglaublich aufwändig. Außerdem werde ich ja immer ’erwischt’, wenn ich etwas nicht erledigt habe. In einer normalen Unterrichtsstunde kann ich hoffen, einfach nicht dranzukommen – es gibt neben den ganzen Hausaufgaben schließlich immer noch sowas wie ein Leben – gerade in Zeiten von G8. Zu dieser ganzen Portfolio- und ’Sonstige Leistungen’-Geschichte: Machen Sie das mit allen Ihren Schüler*innen? Um Klausuren zu korrigieren, brauche Sie doch jetzt schon eher Wochen als Tage. Sie schauen sich ernsthaft für alle Ihre Schülerinnen und Schüler die Schreibentwicklung an? Hallo? Wachen Sie mal auf und kommen Sie in der Realität an. Kriegen Sie mal Ihre tägliche Verwaltungsarbeit in den Griff, bevor Sie hier Ihr Traumtänzerzeug mit uns machen!

Ich denke, dass kann man unkommentiert so stehen lassen. Momentan werden große Hoffnungen darauf gesetzt, in Lehrplattformen weitgehend automatisiert Wissen und sogar Kompetenzstände kleinteilig zu überprüfen. Entsprechend der Ergebnisse würden dann den Schülerinnen und Schülern individuell neue Lehrinhalte präsentiert. Nebenbei entstehen bei diesem Ansatz Unmengen an personalisierten Daten, die für die weitere Zukunft eines Individuums von Bedeutung sein könnten, würden sie z.B. im Sinne einer kapitalistisch konzipierten Algorithmik verarbeitet und die dabei gewonnenen Daten später an potentielle Arbeitgeber veräußert – im Sinne der Schutzbedürftigkeit von Kindern und Jugendlichen wird man hier sehr genau hinschauen und demokratisch kontrollierbare Regelungen finden müssen.

 

0140 – Lass‘ uns Geld verdienen oder addictive design

Google ist die bedeutenste Plattform zum Anzeigen von Werbung. Damit Werbung gesehen, geklickt oder ggf. zu einem realisierten Kauf wird, müssen Nutzerinnen und Nutzer möglichst viel Zeit auf Online-Plattformen verbringen. Folglich sind diese Plattformen daraufhin optimiert, uns Informationen zu zeigen, die unseren Interessen und Vorlieben am besten entsprechen. Dabei ist oft von der Herrschaft der Algorithmendie Rede. Bezogen auf soziale Netzwerke stecken Algorithmen in den Programmen, die dafür sorgen, welche Informationen ein Benutzer bei Facebook, Twitter oder Instagram angezeigt bekommt. Nach welchen Kriterien Algorithmen der großen Internetkonzerne dabei arbeiten, ist weitgehend unbekannt. Allerdings lassen sind einige Vermutungen unter der Prämisse anstellen, dass in sozialen Netzwerken Geld verdient werden soll und dass eine weitgehend personalisierte Datenerhebung erfolgt. Einfacher wären Aussagen darüber zu treffen, wenn es für die Anbieter eine gesetzliche Pflicht gäbe, algorithmisch ausgewählte Inhalte zu kennzeichnen.

Ich gehe von der Hypothese aus, dass Nachrichtenpräsentation im Netz sich zunächst an etablierten journalistischen Grundsätzen orientiert. Einer davon ist der gute, alte Boulevard-Grundsatz: Only bad news are good news.  (nur mit schlechten Nachrichten lässt sich Aufmerksamkeit erzeugen und Geld verdienen).

Nehmen wir einmal an, ein lernender Algorithmus würde anhand des Nutzerverhaltens ermitteln, dass dramatische, polarisierende Nachrichten von Nutzern bevorzugt angesehen werden. Wenn diese Algorithmus der Prämisse unterläge, möglichst viel Onlinezeit bei den Nutzerinnen und Nutzern zu generieren, sie möglichst lange im Netz zu halten, dann würden diese Nachrichten bevorzugt ausgeliefert werden. Noch zielgerichteter wäre natürlich, wenn der Algorithmus zusätzlich durch personalisierte Daten besondere Interessen berücksichtigen würde. Der Nutzende fände dann eine Umgebung vor, die weitgehend seinen Informationsbedürfnissen entspräche.

Zusätzlich befindet er sich nicht als isoliertes Wesen in einem sozialen Netzwerk, sondern es sind auch noch andere Menschen dort aktiv, die bequem Informationen untereinander austauschen können, Inhalte teilen, Facetten ihres Lebens darstellen. Der Besuch des sozialen Netzwerkes wäre für diese Person schnell unverzichtbar, weil sich eine digital vermittelte Nähe zwischen den digitalen Konstruktionen von Individuen einstellt. Diese Unverzichtbarkeit wäre ein Optimum für den Plattformbetreiber. Es ist fraglich, inwieweit dabei schon von einer Sucht (addiction) gesprochen werden sollte. Das technische Design der Plattform wäre aber daraufhin angelegt, ein Maximum an Verbindung zwischen den Nutzenden und ihr zu generieren.

Bei Online-Spielen können prinzipiell ähnliche Mechanismen eingesetzt werden. Wenige Entwickler können in einer Spielwelt quasi soziale Experimente mit den Nutzenden durchführen. Welche Änderungen bewirken ein möglichst hohe Aufmerksamkeit? Welche Mechanismen begünstigen z.B. den Kauf virtueller Güter? Bis hin zu ganz fein granularen Informationen: Welche Farbe muss ein Spielgegenstand besitzen, um möglichst oft gekauft zu werden?

Diese Gedanken sind keine Hirngespinste, sondern mittlerweile tatsächlicher Gegenstand von Plattform-, Spiele- und Produktentwicklung, mehr dazu in diesem Buch (Eyal, Nir: Hooked: A Guide to Building Habit-Forming Products, Penguin Group, New York 2014). Gerade mit Blick auf Schule und Bildung sollte deutlich werden, dass hier erheblicher Aufklärungs- und Handlungsbedarf besteht. Jugendliche und Kinder haben es entwicklungsbedingt deutlich schwerer, sich diesen Mechanismen zu entziehen. Selbst Erwachsene nutzen ihr Handy in sehr gefährlichen Situationen (etwa am Steuer ihres Wagens), weil die Sogkraft von Plattformen und Messengerdiensten doch erheblich zu sein scheint.

0130 – Wie Google etablierte Webtechniken weiterentwickelt

Ein geradezu prototypisches Beispiel dafür, wie sich Datenverarbeitung unter dem Einfluss von Personalisierung verändert hat, sind die CAPTCHAs. CAPTCHAs sollten ursprünglich in Webformularen nachweisen, dass tatsächlich ein Mensch und nicht etwa ein Programm gerade Daten eingibt. Sie kennen solche Sicherungen alle:

ReCaptcha - früher

Bildquelle: wikimedia.org, Public Domain

Daraus entwickelte sich mit der Firma reCAPTCHA schon früh eine Geschäftsidee: Man präsentierte dem Nutzer ein bekanntes Wort und eines, welches Texterkennungsprogramme aus Digitalisierungsprojekten (z.B. in Archiven) nicht erkennen konnten.

Es lässt sich statistisch herausfinden, ob die Eingabe eines Benutzers korrekt ist: Die Wortkombination wird innerhalb eines sehr kurzen Zeitraums mehreren Benutzern zugleich präsentiert und die häufigste Eingabe wird als richtig angenommen.

( https://de.wikipedia.org/wiki/ReCAPTCHA )

Man trainierte also unter Ausnutzung von Menschen unauffällig die eigene Texterkennungssoftware! Es wurde dabei jedoch nur die Eingabe verwertet, keine anderen Daten. Google kaufte 2009 reCAPTCHA und der Dienst machte daraufhin ein bemerkenswerte Entwicklung durch. Heute sehen CAPTCHAs ganz anders aus:

Heutiges Captcha

Ein heutiges CAPTCHA

Sie klicken einfach auf ein Feld Ich bin kein Roboter- und die Trennung zwischen Mensch und Programm funktioniert trotzdem perfekt. Was geschieht da? Ein Hacker namens neuroradiology hat sich die Mühe gemacht, den dahinterliegenden JavaScript-Code zu analysieren. Google verwendet unter anderem folgende Daten, um zu bestimmen, ob ein Mensch die Checkbox klickt:

  • Browser und genutzte Plugins,
  • Zeitzone und Ausführungszeit des Computers,
  • IP-Adresse und grober Standort,
  • Bildschirmauflösung,
  • Anzahl der Klick-, Tastatur-, beziehungsweise Touch-Aktionen,
  • Vermutlich auch serverseitige Cookies,
  • Und einiges mehr.

Man muss nicht alle diese Punkte verstehen, um zu begreifen, dass hier personalisierte Daten in großem Umfang an Google fließen – beim Klick auf eine simple Checkbox! Und das nicht nur auf dem Handy – bei jedem Endgerät, mit dem das Internet genutzt wird! Bei einigen Daten ist es sogar denkbar, dass sich Benutzer über verschiedene Geräte hinweg wiedererkennen lassen – trotz Adblocker und anderer Sicherheitsmaßnahmen – solange JavaScript aktiv ist (und ohne JavaScript ist fast kein Surfen möglich). Google arbeitet im Übrigen daran, selbst diese Checkbox verschwinden zu lassen und Menschen allein auf Basis von Daten wiederzuerkennen, die ihre Endgeräte beim Surfen liefern.

Die Entwicklung von reCAPTCHA zeigt für mich beispielhaft, wie sich das kommerzielle Netz von der Phase der Kommerzialisierung zur Phase der Überwindung des Marktes hin verändert hat.

0120 – Wie Google auf das iPhone reagiert

Das ermöglichte in der Folge vor allem Google ganz neue Geschäftsfelder: Man konnte jetzt Suchergebnisse datenbasiert an die Vorlieben des jeweiligen Nutzers anpassen und damit Werbung noch zielgerichteter ausspielen. Das Smartphone als universelles Gerät bot mit seiner eingebauten Sensorik dafür die ideale Ausgangsplattform. Ziel musste sein, möglichst viele Informationen zu erhalten, um die Trefferquote der Werbeanzeigen zu steigern. Daher erstaunt es nicht, dass sehr bald mit Androidhandys ein zum iPhone mehr als konkurrenzfähiges Produkt von Google geradezu in den Markt gedrückt wurde. Niedrige Lizenzkosten und ein quelloffenes Betriebsystem waren der Grundstein für die Produktion von Geräten unterschiedlicher Preisklassen. Die offensichtlichen Nachteile – etwa eine im Vergleich zu Applegeräten weitaus unzuverlässigere Updatefähigkeit – gingen in der Euphorie des Marktes zunächst einfach unter.

Die Datensammlung ließ sich im Kontext neuer Dienste hervorragend verschleiern. Als Beispiel kann der Routenplaner (Maps) von Google dienen: Haben Sie sich schon einmal gefragt, wie Google so zuverlässig und nahezu in Echtzeit Verkehrsdaten generieren kann? Jedes Handy enthält eine umfangreiche Sensorik, die sich mit bestimmten Apps sichtbar machen lässt.

In fast jedem Auto fährt ein modernes Handy mit, das u.a. über Sensoren zur Erfassung des Standorts verfügt, etwa GPS-Sensoren. Kombiniert mit einer Zeiterfassung lässt sich so die Geschwindigkeit jedes Autos erfassen. Fährt eine bestimmte Anzahl von Autos sehr langsam (= es ändern sich die GPS-Daten der Handys langsam), ist das ein Hinweis auf dichten Verkehr. Im Vergleich zu den Bewegungsdaten der Handys auf Alternativrouten lässt sich nun die optimale Wegstrecke berechnen – ein toller Dienst, oft besser und aktueller als jeder Verkehrsfunk.

 

Zur reinen Stauvorhersage wäre es aber ausreichend, diese Daten rohzu verarbeiten, d.h. ohne sie mit einer bestimmten Person zu verknüpfen. Das geschieht aber nicht, sondern Google setzt noch eines drauf und kann u.a. durch personalisierte Verarbeitung dieser Daten sogar Aussagen zu z.B. unserem Arbeitsweg machen und und per Pushnachricht mahnen, an einem Tag früher aufzustehen, weil die Verkehrslage kritisch ist.

Die Datenerhebungsmöglichkeiten sind nahezu unbegrenzt. Moderne Handys haben u.a. Sensoren für Abstand, Licht- und Lautstärke, Lagebestimmung des Handys u.v.m. mit an Bord.

 

0110 – Die Überwindung des klassischen Marktes oder die Phase der Personalisierung

Im Jahre 2007 kam das iPhone als technische Neuerung auf den Markt, die das Internet erneut revolutionieren sollte.

Hand, die ein iPhone hält

Bild von Jan Vašek auf Pixabay

Heute stellen wir Ihnen drei revolutionäre Produkte vor: Das erste ist ein Breitbild-iPod mit Touchscreen. Das zweite ist ein revolutionäres Mobiltelefon und das dritte ist ein neues, bahnbrechendes Internet-Kommunikationsgerät. Kapiert ihr es? Das sind nicht drei verschiedene Geräte. Das ist ein Gerät. Und wir nennen es: iPhone. Heute wird Apple das Telefon neu erfinden! (Steve Jobs, 2007)

Bisher erfolgte Internetzugriff meist über Laptops oder Desktop-PCs, also Geräte, die in der Regel zumindest im privaten Umfeld von mehreren Personen genutzt wurden. Das iPhone war das erste personalisierte Gerät, also ein Gerät, das genau einem Menschen zuzuordnen war.

Bei der Vorstellung im Jahre 2007 stand dieser Gedanke noch nicht so sehr im Vordergrund – vielmehr erlaubte das iPhone erstmals, das Internet ständig bei sich in der Hosentasche zu tragen und damit auch ständig onzu sein. Es schuf eine Verbindung zwischen der eigenen analogen Welt und dem globalen Netz. Man konnte jetzt überall Musik hören, Bilder aus seinem Leben auf einfache Weise mit Freunden z.B. auf Facebook zu teilen oder über Messenger kostenlos zu texten – der Niedergang der SMS war damit besiegelt. Alles war auf einmal nur einen Klick oder besser Wisch entfernt, Uploads konnten aus der Euphorie des Augenblicks heraus erfolgen.

Wir haben heute schon fast vergessen, dass man vor dem iPhone erst eine Digitalkamera an einen Rechner anschließen musste, um dann in einem sozialen Netzwerk Bilder hochladen zu können – ein aus heutiger Sicht unzumutbar umständlicher Weg, der aber auch durch den zeitlichen Abstand zur eigentlichen Handlung zumindest theoretisch Reflexionsprozesse ermöglichte: Think before you post! war schon 2007 eine gängige Floskel von Jugendschutzorganisationen, die an Aktualität bis heute nichts verloren hat.

Da das iPhone als Gerät bisher auf dem Markt beispiellos war, konnte wahrscheinlich selbst Steve Jobs bei Markteinführung nicht absehen, wohin sich diese wahrscheinlich ursprünglich auf Nutzungserfahrung optimierte Geräteklasse in der Folge entwickeln würde: Das Smartphone als Geräte ermöglichte erstmals die personenbezogene Erfassung von Nutzerdaten – sein Handy teilt man schließlich ebenso wie die eigene Unterhose nicht einmal mit dem (Ehe-)Partner.

0100 – Im Fokus des Marktes – die Phase der Kommerzialisierung

Sätze wie „Sie haben Post!“ oder „Bin ich schon drin, oder was?“ und Filme wie E-Mail für dich! mit Meg Ryan und Tom Hanks sind Ausdruck dessen, was Anfang der 1990er-Jahre mit dem Internet passiert: Das Netz der Wenigen wird Stück für Stück zu einem Netz der Massen. Tausende Menschen sitzen jernseits und diesseits des Atlantiks vor quäkenden Modems und wählen sich über die Telefonleitung in Dienste wie America Online (AOL) oder Compuserve ein.

Gebräuchliches V-90-Modem in der 90er Jahren

Gebräuchliches Creatix-Modem – Bild von User Chrkl auf Wikimedia, CC-BY-SA

Es werden erste Informationsdienste angeboten, z.B. Nachrichten und Wetter aber auch elektronische Kommunikation über E-Mail, Foren oder Newsgroups. Anfangs sind die Netze noch relativ geschlossen – weit über die AOL- oder Compuserve-Startseite kommt man nicht hinaus, aber mehr und mehr erobern ganz normale Menschen das Netz, die es konsumorientiert nutzen. Sie verstehen die technische Vorgänge dahinter nicht und sind daran auch nicht interessiert. Ein immer intuitiveres Webdesign mit zunehmend auch für Laien bedienbaren Oberflächen bildet dafür die Grundlage.

Menschen, die z.B. eigene Domainnamen registrieren und Webseiten anlegen, kommen eher aus der ehemaligen Homecomputingszene. Sie bleiben die Minderheit im Netz.

Der Zugang zum Internet wird über Telefongebühren finanziert. Satte Minutenpreise garantieren den Anbietern auskömmliches Wirtschaften und Familien ständig belegte Telefonanschlüsse. Oft kann man sich die erste Seite, die man aufrufen möchte, gar nicht aussuchen, sondern wird vom Internetanbieter gleich zwangsweise auf das eigene Portal gelenkt – heute unvorstell- aber technisch immer noch leicht machbar.

Um dem dem zunehmenden Wildwuchs an Seiten im Netz Herr zu werden, sind Suchmaschinen als leicht zu bedienende Zugangsportale unverzichtbar. Neben längst vergessenen Namen wie Altavista kommt schon 1998 ein Player auf den Markt, der heute das Internet dominiert: Google. Alles begann als ein studentisches Projekt von Lawrence (Larry) Page und Sergey Brin an der Stanford University mit der Entwicklung des PageRank-Algorithmus – bis dahin beispiellos und daher ließen nur mit Mühe Investoren finden. Lawrence Page ist noch heute als CEO im Konzern.

Erster Googleserver im Netz

Erster Google-Server an der Stanford University – Bild von User Christian Heilmann auf Wikimedia, CC-Lizenz

Die Bezüge zum Logo von Google sind bis heute unverkennbar – es sind die bei den Duplosteinen anzutreffenden Grundfarben.

Suchmaske von Google im Jahr 1998

Zugehörige Suchmaske von 1998 – Screenshot von WayBackMachine.org

Auch das Webseitendesign von Google hat sich bis heute – über 20 Jahre später – kaum verändert. Google erscheint als Understatement in schlichtem Gewand, hat als Suchmaschine jedoch alle seine Konkurrenten entweder verdrängt oder weit hinter sich gelassen. Wie Google steigen um die Jahrtausendwende unzählige Startups auf. Die deutsche Börse schuf mit dem neuen Marktein eigenes Marktsegment zum Handel von Aktien der Internetunternehmen.

Dadurch dass das Internet nun Stück für Stück zum Massenmedium wurde, kamen auch die ersten Probleme – vor allem im Mailsystem. Die Tatsache, dass E-Mails in unbegrenzter Zahl kostenlos verschickt werden können und dass das E-Mailprotokoll Designelemente aufweist, die eine oberflächliche Täuschung des Empfängers ermöglicht, wird heute kritisch gesehen. Eines der immer noch weitgehend ungelösten ist die Spam-Mail. Der größte Teil der weltweit verschickten E-Mails sind Spam-Mails. Über E-Mails werden bis heute aber auch gezielte Attacken auf ahnungslose Anwender ausgeführt. Selbst wenn nur Zehntelcentbeträge für das Verschicken von E-Mails fällig würden, könnte man das Problem entscheidend eindämmen. Organisatorisch scheitert eine solche Idee schlicht an Abrechnungsfragen. Durch die Offenheitheit und Diskriminierungsfreiheit des E-Mailsystems kann jeder Privatmensch z.B. eigene Server betreiben, die einen Versand von E-Mails erlauben.

Aber auch wirtschaftlich taten sich Probleme auf: Die großen Hoffnungen, die mit dem neuen Markt verknüpft waren, erfüllten sich nicht. Kaum ein Anbieter hatte ein wirklich tragfähiges Geschäftsmodell. Eine Ausnahme war hier schon Amazon Inc., 1998 allerdings noch auf den Onlinebuchhandel beschränkt. Mit Inhalten und Angeboten im Internet war aber für die allermeisten Startups zu diesem Zeitpunkt noch kein Geld zu verdienen.

In der Folge platzte 2001 eine Finanzierungsblase und riss auch assoziierte Aktiengesellschaften wie z.B. Cisco Systems (Netzwerktechnik), Intel (Prozessortechnik) und IBM (Computer- und Rechenzentrumstechnik) mit in den Abwärtsog, die vorher sehr wohl profitabel waren. Die Wirtschaft lernte hier eine wichtige Lektion: Es brauchte im Internet tragfähige Geschäftsmodelle. Diese waren noch nicht gefunden.

Selbst für Google wurde es kritisch, jedoch ergab sich für den PageRank-Algorithmus in Kombination mit Werbung ein erster Ansatz der Refinanzierung. Schließlich war das Netz nun ein Netz der Massen und somit auch für Werbetreibende zunehmend attraktiv.

Ein anderes Ereignis überschattete die Welt im gleichen Jahr, was sich für die weitere Entwicklung des Internets als fundamental erwies.

9/11 - Terroranschlag auf die USA

9/11 – Terroranschlag auf die USA – Nachbearbeitetes Bild von User MattWade auf Wikimedia, CC-BY-SA-Lizenz

Wie sich später herausstellen sollte, wären die koordinierten Terroranschläge im Jahre 2001 ohne die Möglichkeiten, die das Internet bot, kaum zu realisieren gewesen. Nicht nur die USA, auch andere Staaten der Welt lernten aus diesem historisch beispiellosen Ereignis und nahmen das freie Internet in den Fokus.

Im Kontext dieser beiden Ereignissen formierte sich das Netz neu: Auf der einen Seite die einsetzende Kommerzialisierung, auf der andere Seite der Aufbau einer zunächst rein staatlichen Überwachungsstruktur.

2004 erblickte Facebook in mehr oder weniger seiner jetzigen Form zunächst als studentisches Netzwerk an der Havard University das Licht der Welt. Mit Apple und Microsoft wäre die Liste der heutigen, fünf größten Internetkonzerne dann schon zu diesem Zeitpunkt nahezu komplett.

Völlig parallel entwickelte sich ab 2001 die Wikipedia als gemeinnütziges Projekt, mit dem Ziel, Wissen für jedermann frei zugänglich zu machen. Zu Wikipedias größtem Trumpf wurde die vernetzte, dezentrale Struktur. Anfangs belächelt avancierte die Wikipedia bald zu einer ernsthaften Konkurrenz klassischer, redaktionell betreuter Lexika, die hinsichtlich der Aktualität und des transparenten Zustandekommens von Artikeln weit hinter die Agilität einer völlig neu strukturierten Wikipedia zurückfielen. Heute ist die Wikipedia zu einem ernsthaften Rechercheinstrument geworden. Die Qualität von Wikipediaartikeln lässt sich im Gegensatz zu gedruckten Lexika anhand einfacher Fakten wie der Diskussionseite oder der Versiongeschichte verlässlich einschätzen.

Damit wären wichtige Entwicklungen aus der Zeit der Kommerzialisierung des Internets dargestellt. Die ist bei Weitem nicht vollständig. Wichtig für den weiteren Verlauf dieses Kapitels sind folgende Aspekte:

Die Phase der Kommerzialisierung ist geprägt von folgenden Entwicklungen:

  • Das Netz der wenigen wird ein Netz der vielen, die es zum Großteil nicht mehr gestalten, sondern eher konsumorientiert nutzen. Dies wird möglich durch bessere Oberflächen, die sich intuitiver bedienen lassen.
  • Wirtschaftlich setzt sich die Erkenntnis durch, dass es tragfähige Geschäftsmodelle braucht. Diese basieren primär auf Werbung – eine aus den Printmedien bekannte Finanzierungsstrategie.
  • auf Seite des Staates wird erkannt, dass sich durch das Internet neue Angriffsszenarien ergeben, die einer stärkeren Kontrolle bedürfen und den Aufbau einer staatlichen Überwachungsstruktur legitimieren.

Das Misstrauen in staatliche Interventionen in das Internet bleibt bis heute wesentlich ausgeprägter als das MIsstrauen in das Agieren großer Digitalkonzerne.

0090 – Gründerzeit oder die Phase des Graswurzelvertrauens

Eine Legende über die Entstehung des Internets besagt, dass die dezentrale Netzstruktur maßgeblich unter militärischen Erwägungen heraus entwickelt worden ist, um bei einem Nuklearschlag der Sowjetunion einen Ausfall von Kommunikationsstrukturen durch Redundanz zu verhindern. Tatsächlich scheint das nichts als eine Legende zu sein, wie Christoph Drösser im Interview mit Leonard Kleinrock, der Erfinder der paketbasierten Datenübertragung (s.u.), 2001 herausfand.

Die Advanced Research Projects Agency (ARPA) förderte damals in den USA im Auftrag des US-Verteidigungsministeriums Forschungsprojekte, aber in der Hauptsache wohl zivile. Der ARPA ist der Aufbau des ersten dezentralen Netzes zu verdanken. Primär hatte man Sinn, die damals arg begrenzten Rechnerkapazitäten an den verschiedenen Universitäten im Westen der USA besser auszunutzen. Im April 1984 war das sogenannte ARPANet bereits über die gesamte USA gespannt.

Das ARPANet - Ausbaustand 1984

Das ARPANet – Ausbaustand 1984

Von nun an wuchs das Netz rasant. Ende der 80er-Jahre gab es auch schon erste Leitungen nach Europa.

Interessanter als das Wachstum des Netzes in dieser Phase ist die Tatsache, dass es vorwiegend als Forschungsnetz konzipiert war und damit nahezu ausschließlich von wissenschaftlichen Institutionen genutzt wurde. Damit einher ging ein eng begrenzter Nutzerkreis mit überwiegend hohem Bildungsniveau und einem klaren, jeweils projektbezogenen Auftrag. Allein die Tatsache, dass Rechner- und Übertragungsressourcen eng begrenzt und teuer waren, dürfte für ein anderes Bewusstsein bei der Nutzung gesorgt haben. Dennoch gibt es auch schon in dieser Zeit Ansätze, dass das Netz auch teilweise zu einem sozialen Raum werden ließ. Gerade in der 90er Jahren gelangten die sogenannten Newsgroups zur Blüte, die man sich als Vorläufer der heutigen Internetforen und sozialen Netzwerke vorstellen kann – allerdings nur auf Basis von Text – später auch Dateianhängen. Im Gegensatz zu einer Direktverbindung wie bei einer Telefonleitung muss bei einem Übertragungsnetz mit mehreren möglichen Transportwegen wie dem ARPANet immer wieder neu entschieden werden, welchen Weg Daten nehmen. Daher hat man schön früh Daten in kleinere Einheiten, den sogenannten Paketen, aufgeteilt, die der Sender einzeln losschickte und die jeweils auf einem anderen Weg ihr Ziel erreichten. Dort wurde die Pakete dann wieder zusammengesetzt. Pakete brauchen Metainformationen (z.B. Absender, Empfänger, Reihenfolge, Zeitstempel etc.), um beim Zielort anzukommen. Diese Metadaten sind bis heute unverschlüsselt und offenbaren viel über die Teilnehmer und ihre Art der Kommunikation.

Eine Absicherung oder die Wahrung der Privatssphäre der Kommunikationsteilnehmer war im ARPANet nicht im Fokus. Dank des begrenzten Nutzerkreises und der ebenso begrenzten Ressourcen war das zu damaliger Zeit schlicht nicht notwendig. Einige der damals üblichen höheren Übertragungsprotokolle haben bis heute überlebt, etwa die Art und Weise, wie die Metadaten von E-Mails (Absender, Empfänger, Transportwege und -zeiten) gesendet werden. Auch die heutigen SPAM-Mails sind im Kern durch eine zu vertrauensselige Konzeption des E-Mailprotokolls überhaupt in dieser Form möglich.

In der Zivilgesellschaft erfolgte derweil eine davon abgetrennte Parallelentwicklung. In den 1980er Jahren verbreiteten sich die ersten Homecomputer. Prominente und bis heute bekannte Vertreter sind der Commodore 64 (C64), der Amiga oder Atari ST. Ich selbst habe meine ersten Spiel- und Programmiererfahrungen ausgerechnet auf einem Applesystem (Apple II) gemacht. Diese Geräte waren sündhaft teuer. Wer sie erweitern wollte, musste gut programmieren und oft auch mit einem Lötkolben umgehen können. Einfache Systeme konnten sogar selbst aus einfachsten elektronischen Grundbauteilen zusammengebaut werden.

Bild eines Commodore C128

Homecomputer (Commodore C128) – Bild von WikiMediaImages auf Pixabay

Durch Homecomputing kamen erstmals breitere Bevölkerungsschichten mit Computertechnologie in Verbindung. Im Unterschied zum ARAPNet waren diese Systeme jedoch technisch nicht vernetzt. Es gab lokale Vernetzungsansätze wie etwa Mailboxen, in die man sich per Telefonleitung einwählen und dann mit anderen Benutzern Daten austauschen und kommunizieren konnte. Aber diese ergänzten allenfalls persönlichen Kontakt und den physischen Austausch von Datenträgern.

Menschen der Homecomputingszene verstanden ihre Rechner teilweise von Grund auf, so wie die Wissenschaftler im ARPANet ihre Systeme und Protokolle von Grund auf verstanden. Einige von ihnen sollten die technischen Architekten des heutigen Internets werden, weil sich informatische Grundstrukturen über Jahrzehnte nicht wesentlich verändert haben. Das Technologie gesellschaftliche Auswirklungen haben würde, war damals noch unvorstellbar. Die einzige gesellschaftlich wahrnehmbare Tatsache war, dass es offenbar einen Kreis Menschen gab, die eine völlig andere Sprache verwendeten. Der Mythos vom pizza- und colaverschlingendem Nerd war geboren.

Die Phase des Graswurzelvertrauens war damit geprägt von folgenden Entwicklungen:

  • Zivil- und Wissenschaftsnetze entwickelten sich unterschiedlich
  • Nur ein enger Benutzerkreis – sowohl zivilgesellschaftlich als auch in Wissenschaftsnetzen – nutzte digitale Technologie oder vernetzte Strukturen
  • Die meisten Nutzer verstanden, was sie taten. Sie hatten das Gefühl, Technoloie zu kontrollieren und damit ein großes Selbstwirksamkeitsempfinden
  • Anzeichen, dass der Einsatz von Technologie auch kulturelle Auswirkungen haben könnte, waren erkennbar, wurden aber nicht reflektiert – es dominierte Diving inals Grundhaltung
  • Das ARPANet war öffentlich finanziert und damit frei von kommerziellen Akteuren
  • Die paketbasierte Kommunikation legt den technologischen Grundstein für heutige Fehlentwicklungen im Netz

Hersteller von Software boten Anwendungsprogramme, aber auch erste Spiele feil und markierten dadurch zusammen mit den Hardwareherstellern den aus heutiger Sicht zarten Beginn einer Kommerzialisierung. Es entwickelte sich ein erster Markt für digitale Produkte.

1 2