KULTURATIONOnline Journal für Kultur, Wissenschaft und Politik
Nr. 24 • 2021 • Jg. 44 [19] • ISSN 1610-8329
Herausgeberin: Kulturinitiative 89
 Start  Reports  Themen  Texte  Zeitdokumente  Kritik  Veranstaltungen 
 Editorial  Impressum 


TextKulturation 2013
Peter Kaiser
Von Wittgenstein zur NSA.
Vom Positivismus über den Anti-Terrorismus bis zur Abhöraffäre
Eine kurze Geschichte vom Positivismus über den Anti-Terrorismus nach 9/11 bis zur neuesten Abhöraffäre
Inhalt

Vorbemerkung
Wittgenstein und der Wiener Kreis
Logik gegen Metaphysik
Das Ende des Wiener Kreises
Von positivistischer Logik zur Kriegsforschung
9/11 oder Orwell läßt grüßen
Matrix ist keine Science Fiction
Nachbemerkung
Vorbemerkung, aus gegebenem Anlaß


Als dieser Artikel vor einigen Jahren geschrieben wurde, hatten die meisten hierzulande keinen Begriff davon, was die National Security Agency ist und was die Abkürzung NSA bedeutet. Wer allerdings jemals mit Security und Secrecy im Internet zu tun hatte, der hatte auch mit Kryptofizierung zu tun und wußte, dass die Verschlüsselungstechniken vom zweitgrößten Geheimdienst der USA für private und geschäftliche Zwecke in der Weise beschränkt sind, dass sie immer nur unterhalb der höchstmöglichen Kryptofizierung angewendet werden „durften“. Der militärische Geheimdienst NSA mit Sitz in Fort Meade (offizieller Spitzname: „Cryptocity“), hat sich immer vorbehalten, jedwede Verschlüsselung dekryptofizieren zu können, wenn es angebracht schien. Einen beträchtlichen Aufwand hätte es allerdings gebraucht. Trotzdem: die Schlußfolgerung ist offenbar, dass ein US-amerikanischer, militärischer Geheimdienst bestimmt, mit welchem Kryptofizierungsgrad in der ganzen Welt gearbeitet werden darf. Erreicht wird dies durch ganz einfache technische Mittel: entsprechende Software, die Dokumente, Nachrichten etc. für Dritte unlesbar machen würde, gibt es nicht zu kaufen; die NSA hält die Hand darüber. Man kann sogar davon ausgehen, dass nicht einmal Quantenverschlüsselung, obwohl es noch keine echten Quantencomputer gibt, vor der NSA bestehen könnte.i Zurzeit gibt es Quasi-Quantencomputer, z.B. solche, die mit Licht arbeiten, das in verschiedenen Richtungen polarisiert ist, so dass damit verschlüsselte Nachrichten gesendet werden können; diese können jedoch trickreich abgefangen werden. Ein echter Quantencomputer würde mit verschränkten Teilchen arbeiten, bei denen eine Abhöraktion unmittelbar diesen Verschränkungszustand aufheben würde, so dass der Eingriff erkannt wird. Allerdings können verschränkte Teilchen nur im Hochvakuum und bei Temperaturen nahe dem absoluten Nullpunkt „hergestellt“ werden; da die Verschränkung im Nano- bis Millisekunden-Bereich wieder zerfällt, müssen die Rechen- oder Nachrichtenoperationen in dieser extrem kurzen Zeit durchgeführt werden. So ist der Quantencomputer im Moment eher ein langjähriges Forschungsprojekt als eine anwendbare Methode, geschweige denn ein kommerzielles Objekt. Aber er wäre „abhörsicher“.


Bei den Arbeiten zum philosophischen Problem der richtigen Definition von Begriffen und Kategorien wie „Kausalität“ und „Zufall“ fiel mir auf, dass es anscheinend einen großen Bogen vom Positivismus, von dem noch heute viele Naturwissenschaftler durchaus angetan sind, über den Neopositivismus, etwa des Wiener Kreises, zur Entstehung von Computersprachen gibt. Anscheinend hatte alles mit künstlichen Sprachen zu tun sowie mit formaler und inhaltlicher bzw. dialektischer Logik. Alle Programmiersprachen beruhen auf formaler Logik, eine inhaltliche Logik ist ausgeschlossen; dies kann Software nicht. Deren Sprachbefehle beruhen auf der Boolschen Algebra (Funktionen wie: und/oder/wenn - dann/nicht etc.) und sind abstrakt formalisierbar. Als Beispiel mag eine beliebige Suchma-schine für das Internet dienen: man möchte einen bestimmten Begriff suchen, der einen ganz bestimmten Inhalt hat, dem also eine Semantik zugrunde liegt; Suchmaschinen können aber nicht nach Inhalten unterscheiden, sie kennen nur identische oder nicht-identische Zeichenketten, im Programmier-Slang „strings“. Daher kommt es, dass noch der kleinste Schreibfehler in einem Suchbegriff dazu führt, dass er scheinbar nicht vorhanden ist.


Für eine Suchmaschine ist der Begriff "Mercedes" stets einfach nur "Mercedes". Dabei kann es sich um diverse Autotypen handeln, einen alten Firmennamen mit all den dabei noch möglichen Verwendungen (z.B. Wertpapiere) oder um Personennamen. Und wahrscheinlich gibt es noch weitere Bedeutungen. Indem der Suchbegriff um weitere Begriffe, verknüpft mit Boolschen Operatoren, ergänzt wird, kann der Suchende eine inhaltliche Eingrenzung vornehmen - doch das kann nur er, die Suchmaschine selbst bleibt weiter "dumm".ii Es entsteht die sogenannte „semantische Lücke“.iii Diese beschreibt den semantischen, also bedeutungsbezogenen Unterschied zwischen zwei Beschreibungen eines Objekts, der dadurch entsteht, dass verschiedene Repräsentationsformen (Sprachen) dafür gewählt werden. Dieser in der Informatik verwendete Begriff wird im Allgemeinen dort deutlich, wo ein Abbild des realen Lebens in eine formale, maschinell verarbeitbare Repräsentation übertragen werden muss. Um nun das Suchen im Internet verbessern zu können, haben sich einige Wissenschaftler daran gemacht, das sogenannte „Semantic Web“ zu entwickeln, den nächsten logischen Schritt nach dem World Wide Web.iv Allerdings ist man von einer Abbildung der natürlichen Sprachen im binären System noch weit entfernt. Immer ist an einer kritischen Schnittstelle ein Mensch vonnöten, der den semantischen Inhalt eines Begriffes zu deuten weiß, also weiß, in welcher Richtung ein Computerprogramm weiterlaufen soll und das auch „eingeben“ muss.


So waren es die Wissenschaftler des Wiener Kreises – abgesehen von Leibniz, auf den die binäre Codierung (0-1) zurückgeht – die die Voraussetzungen dafür schufen, dass Menschen überhaupt mit Maschinen kommunizieren konnten. Dies waren wiederum die Voraussetzungen dafür, dass „man“ in den 1960er Jahren Software entwickeln konnte, die im Laufe der darauffolgenden Jahre und Jahrzehnte zu Programmen der 2-dimensionalen Rastererkennung (Auswertung von Röntgenbildern, Magnetresonanz-Imaging und Steuerung von Cruise Missiles), Übersetzung in und aus fremde(n) Sprachen (nicht nur Bedienungsanleitungen, sondern auch Abhöraktionen der Geheimdienste und der Polizei), Gesichtsfelderkennung (Einreise in die USA) und schließlich „Gait-Recognition“ (Erkennung der Gangart eines Menschen) weiter entwickelt wurden. Mit letzterem Programm, bilden sich die Geheimdienste ein, könnte man Terroristen aus sicherer Entfernung an ihrer Gangart erkennen. Diese ist – wie ein Fingerabdruck – einzigartig, allerdings muß sie vorher ermittelt und als Vergleich in einer Datenbank gespeichert worden sein – ebenfalls wie beim Fingerabdruck oder einer DNA-Probe.


Die wissenschaftliche Entwicklung der entsprechenden, eben genannten Programme vollzog und vollzieht sich innerhalb des enormen Forschungsetats des nach 9/11 gegründeten Ministeriums „Homeland Security“ (genauer: United States Department of Homeland Security, DHSv), wie wir im folgenden Artikel sehen werden. Daher ist von einer engen Zusammenarbeit dieser Behörden auszugehen.


Wenn man daher wirklich verstehen will, wie es zu dem NSA-Debakel kam, muß man den philosophischen Hintergrund berücksichtigen, der zur Entstehung von Computer-programmen geführt hat. So stringent man Positivismus wie Neopositivismus auch kritisieren kann, so stringent sind diese Denkweisen, die hochgradig ideologieanfällig sind, wie gesagt, die Voraussetzung für jedwede Art von Software gewesen. Allerdings zeigt die Kritik, in welcher Begrenztheit jedwede Art von Software eingeschlossen ist; da inhaltliche Logik nicht programmierbar ist, allen Verfechtern der „Künstlichen Intelligenz“ zum Trotz, kann Software auch keine „intelligenten“ Ergebnisse bzw. Lösungen von Problemen produzieren. Das stört jedoch Geheimdienste wie die NSA wenig; in schönstem und reinsten Reduktionismus glauben sie an die Allmacht der technischen Mittel eher, als an die kreative Intelligenz von Menschen.vi


Dabei ist die NSA nur einer der insgesamt 16 Geheimdienste der USA, wie anläßlich der Umstrukturierung aller Geheimdienste mit einer „Oberaufsicht“, dem Director of National Intelligence (DNI), James R. Clapper (*1941), im Jahre 2010 auch in Deutschland bekannt wurde.vii Obama selbst hatte den Militärstrategen und Vietnamkämpfer Clapper im Juni 2010 vorgeschlagen und er wurde Anfang August 2010 vom amerikanischen Senat bestätigt. Während der NSA-Affäre sagte er im Mai vor dem Kongressausschuss für Nachrichten-dienste auf die Frage, ob die NSA rechtswidrig Telefondaten US-amerikanischer Bürger sammle, das stimme nicht.viii Jedoch veröffentlichte er dann weniger als einen Monat später ein Dokument, welches das Gegenteil zugab – Metadaten von Telefonanrufen und -geräten würden gespeichert und ausgewertet.ix Obwohl in den Medien international der Rücktritt Clappers gefordert wurdex und zu erwartende strafrechtliche Sanktionen diskutiert wurdenxi, ist er nach wie vor im Amt.xii


„Halten sich die Geheimdienste für Gott?“, schrieb dann die FAZ am 09. September 2013, und wähnte eine „Elite von digitalen Allsehern“, die im Vorborgenen walte. Zu Recht macht der Autor, Frank Rieger, darauf aufmerksam, dass der Kanzleramtschef Roland Pofalla in einem kleinen Halbsatz zur Erklärung, der NSA-Skandal sei nun zu Ende, erkennen ließ, dass es keinerlei politische Kontrolle über die Geheimdienste gebe. Er zitierte aus einem NSA-Papier, das der deutschen Regierung helfen sollte: „Die NSA hält sich an alle Abkommen, die mit der deutschen Bundesregierung, vertreten durch ·die deutschen Nachrichten-dienste, geschlossen wurden, und hat sich auch in der Vergangenheit stets daran gehalten." Es wird deutlich, dass nicht etwa die Regierung hier verhandelt, nein, die Dienste machen alles unter sich aus. Was genau vereinbart wurde, welchen technischen Zugriff die NSA auf die Systeme unserer Dienste sowie deutsche und europäische Datenströme erhalten hat – das geht offenbar niemanden außerhalb des kleinen Zirkels der Eingeweihten etwas an. Schon gar nicht die Politiker, die von den Geheimdiensten immer als unzuverlässige Kantonisten angesehen werden. Die Politik ist stets nur Zaungast der internationalen Geheimdienstgeschäfte, dem Austausch von Abhörresultaten, Daten, Zugangsmöglichkeiten oder Schnüffeltechnologien.xiii


Aber Abkommen hin, Abkommen her: ist nicht das Datenschutzgesetz gerade deshalb entstanden, weil die Privatsphäre der Bürger geschützt werden sollte? Erinnern wir uns an den Anlaß: die Volkszählung von 1983/87 und das Grundsatzurteil des Bundesverfassungs-gerichts (BVerfG) vom Dezember 1983! An dieser Stelle ist ein Blick ins Gesetz hilfreich: im § 1 Zweck und Anwendungsbereich des Gesetzes (Bundesdatenschutzgesetz, BDSG) steht Folgendes:


(1) Zweck dieses Gesetzes ist es, den Einzelnen davor zu schützen, dass er durch den Umgang mit seinen personenbezogenen Daten in seinem Persönlichkeitsrecht beeinträchtigt wird. (2) Dieses Gesetz gilt für die Erhebung, Verarbeitung und Nutzung personenbezogener Daten durch 1. öffentliche Stellen des Bundes, 2. öffentliche Stellen der Länder, soweit der Datenschutz nicht durch Landesgesetz geregelt ist und soweit sie a) Bundesrecht ausführen oder b) als Organe der Rechtspflege tätig werden und es sich nicht um Verwaltungsangelegenheiten handelt, 3. nicht-öffentliche Stellen, soweit sie die Daten unter Einsatz von Datenverarbeitungs-anlagen verarbeiten, nutzen oder dafür erheben oder die Daten in oder aus nicht automa-tisierten Dateien verarbeiten, nutzen oder dafür erheben, es sei denn, die Erhebung, Verarbeitung oder Nutzung der Daten erfolgt ausschließlich für persönliche oder familiäre Tätigkeiten.


Allein danach sind sämtliche Abhöraktionen auf deutschem Boden nicht nur illegal nach dem BDSG, sondern sogar verfassungswidrig. Nur wenn jeder Bürger, der abgehört werden will, sein Einverständnis erklären würde, könnte er von deutschen Behörden abgehört werden. Aber auch die amerikanischen Spionageaktionen sind illegal; in einem bis heute gültigen Abkommen mit der UNO hat die USA sich verpflichtet, keine verdeckten Aktionen zu unternehmen. In einem Fall habe die NSA zudem den chinesischen Geheimdienst dabei ertappt, ebenfalls zu spionieren. Daraufhin haben die NSA abgefangen, was zuvor die Chinesen abgehört hatten.xiv Illegal sind auch Abhöraktionen mithilfe von technischem Equipment, das auf den Dächern der Botschaftsgebäude, z.B. in Berlin, installiert ist. Formal legal sind dagegen Abhöraktionen von den USA oder England aus, wenn von dort der internationale Funkverkehr abgehört wird. Der Chefredakteur des „Guardian“, Alan Rusbridger, berichtete am 19. August 2013 von einem „eher bizarren“ Vorfall, der sich einen Monat zuvor im Keller des Redaktionsgebäudes zugetragen haben soll: der britische Geheimdienst GCHQxv hatte zwei Mitarbeiter der Zeitung gezwungen, Datensätze zu vernichten, die Edward Snowden ihnen kurz zuvor zugespielt hatte. Die angebliche Begründung war, die Informationen sollten nicht bei chinesischen Agenten landen. Als Rusbridger im Vorfeld angerufen wurde, mußte er sich Folgendes anhören: „Ihr habt Euren Spaß gehabt, jetzt wollen wir das Zeug zurück.“ Im Verlauf dieser Aktion wurden dann ganze Notebooks geschreddert. Ein weiterer Vorfall ereignete sich, als der Brasilianer David Miranda, aus Berlin kommend, auf dem Flughafen Heathrow neun Stunden festgehalten und dabei von sieben Sicherheits-beamten eingeschüchtert und bedroht wurde; er konnte seinen Flug nach Rio de Janeiro erst einen Tag später fortsetzen. Die Metropolitan Police berief sich auf den „Terror Act 2000“; sein Partner Glenn Greenwald war nämlich der erste, der über den Fall Snowden berichtet hatte und so stand Miranda offenbar sogleich unter „Terrorismus-Verdacht“. Sein Handy und sein Laptop wurden beschlagnahmt. Greenwald sagte in Rio, er wolle „jetzt erst recht auspacken.“ Die britische Journalisten-Union bezeichnete die Festnahme als „Mißbrauch des Gesetzes“.xvi Ein ganz anderer Vorfall soll hier nicht unerwähnt bleiben, der zeigt, wie anfällig derartige Überwachungssysteme schlicht und allein aufgrund ihrer monströsen Größe für die Hardware-Ausstattung in Zukunft werden könnenxvii: weil sie den weltweiten Internetverkehr noch effektiver überwachen will, baut die NSA in Utah jetzt eine gigantische Anlage. Der Start verzögert sich jedoch und die Eröffnung könnte sich um ein Jahr verschieben. Dem Wall Street Journal liegen Dokumente vor, aus denen hervorgeht, dass die Anlage in Utah von Stromschwankungen geplagt sei. Die Ausfälle hätten Maschinen in Wert von mehreren Hunderttausend US-Dollar vernichtet. Die Schwankungen bringen Metall zum Schmelzen und sorgen für Explosionen, so das Wall Street Journal weiter. Ein Mitarbeiter habe die Stromstöße als Blitze bemerkt. Innerhalb von 13 Monaten habe es zehn Fälle gegeben. Eine NSA-Sprecherin sagte der Zeitung, dass es in der Testphase technische Probleme gab, die aber inzwischen eingedämmt seien. An den Ursachen werde weiterhin geforscht, da Uneinigkeit darüber herrsche, ob die Lösungsvorschläge funktionieren. Der Speicherplatz reicht dem Bericht nach bis in den Bereich von Zettabytes. Wer sich das vorstellen will: 36.000 Jahre lang HD-TV zu schauen, entspricht einem Exabyte. Das Ganze multipliziert mit 1000, ergibt ein Zettabyte (1021 Byte). Nur die Stromkosten eines so gigantischen Datenzentrums liegen angeblich bei einer Million US-Dollar - pro Monat!


Doch nun zunächst zum ursprünglichen Teil dieser Arbeit.xviii


Ein kleiner, aber notwendiger Umweg – der Beginn mit reiner Philosophie


Wittgenstein und der Wiener Kreis


Zu Beginn des 20. Jahrhunderts war Wien, nach Karl Kraus eine „Versuchsstation für Weltuntergänge“, mit seinem anregenden geistigen Klima in Philosophie, Mathematik, Physik, Psychoanalyse und den Künsten eines der kulturellen Zentren der europäischen Moderne. Das Mathematische Institut der Universität Wien war neben denen in Göttingen und Warschau in den Disziplinen Mathematik und Logik führend; hier lehrten u.a. als ordentliche Professoren Philipp Furtwängler (1869-1940), der von Göttingen (Fritz Klein) kam, und der Österreicher Hans Hahn (1879-1934). Hahn leistete wichtige Beiträge zur Variationsrechnung, Mengentheorie, Topologie und der Theorie der reellen Funktionen; sein Arbeitsgebiet war die Funktionenanalyse. 1922 wird Moritz Schlick (1882-1936) auf den Lehrstuhl für Philosophie der induktiven Wissenschaften berufen, den zuvor Hahns Lehrer Ernst Mach innehatte. Der Physiker, Professor für Mechanik, und Hobby-Philosoph Ernst Mach (1838-1916) vertrat einen dezidierten Positivismus, der sich insbesondere durch seine Auffassung ausdrückte, dass Ursache und Wirkung nur im menschlichen Bewußtsein existierten: „In der Natur gibt es keine Ursache und keine Wirkung.“xix Damit wird auf eine Erklärung der Naturerscheinungen vollkommen verzichtet und das von einem Physiker! Die Aufgabe der Wissenschaft sei es lediglich, diese zu beschreiben. Hierfür brauche man nicht den Begriff der Ursache. Außerdem existiere die Welt nur in Form von „Empfindungen“ und nur von diesen wüsste man.xx Da nimmt es nicht wunder, dass Mach auch die bedeutendsten Theorien der Neuzeit ablehnte: „Ich kann die Relativitätstheorie ebensowenig akzeptieren, wie ich die Existenz von Atomen und anderen solchen Dogmen akzeptieren kann.“xxi Hans Hahn gehörte zu einer kleinen Gruppe von Gelehrten, die von Machs Positivismus beeinflußt waren und sich einmal wöchentlich in einem Wiener Kaffeehaus trafen. Obwohl Schlick als Führer der Gruppe galt, war es Hahn, der das Interesse der Mitglieder auf die Logik richtete. 1924 installierte Schlick ein formelles Kolloquium, das sich jeden Donnerstagabend im Hinterhaus des Instituts für Mathematik in der Boltzmanngasse traf. Das waren die Anfänge des Wiener Kreises, benannt nach einem Manifest, das 1929 von Rudolf Carnap, Otto Neurath, einem utopischen Sozialreformer, und Hans Hahn veröffentlicht wurde. Zugang zu den Sitzungen erhielt man nur durch Einladung. Zur engeren Gruppe gehörten auch der Physiker Philipp Frankxxii oder der Mathematiker Karl Mengerxxiii; zum erweiterten Kreis u.a. Egon und Else Frenkel-Brunswick, die später in den USA mit drei anderen Autoren, darunter Adorno, die Studie „The Authoritarian Personality“ verfasste.xxiv 1926 besuchte der Physik- und spätere Mathematikstudent Kurt Gödel (1906-1978) die Sitzung zum ersten Mal, als sich der Wiener Kreis mit einer zweiten Lesung des Tractatus von Wittgenstein beschäftigte. Hans Hahns Schüler Kurt Gödel nahm bis 1928 regelmäßig teil, einige Male auch der Student Heinz von Foerster (1911-2002), der später in den USA als Sekretär der Macy Konferenzen bekannt wurde. Schon wenig später, nämlich 1930, wird Gödel seine Unvollständigkeitssätze vorlegen, die 1931 publiziert werden. Damit werden nicht nur heftige Diskussionen im Wiener Kreis hervorgerufen, sondern es wird auch das mathematische Weltbild der Mechanisten, als deren Vertreter Hilbert gelten kann, in Frage gestellt.xxv Rudolf Carnap (1891-1970) kam auf das Betreiben Hahns 1926 als Privatdozent für Philosophie nach Wien, und wurde sofort zu den Sitzungen des Wiener Kreises eingeladen. Carnap hielt Vorlesungen über die philosophischen Grundlagen der Arithmetik, die auch Gödel besuchte.xxvi Carnap erarbeitete bis zu Beginn der 1930er Jahre die Ideen des logischen Empirismus und wendete den Apparat der mathematischen Logik auf die Analyse der Begriffe und die Axiomatisierung einzelner Theorien an. In einer zweiten Etappe bis 1936 – der syntaktischen – konstruierte Carnap die logische Sprache eines erweiterten Prädikatenkalküls.xxvii Er stellte die These auf, dass die Logik der Wissenschaft die Syntax der Sprache der Wissenschaft sei. In seiner dritten Periode, die zwei bis drei Jahre später begann, befaßte sich Carnap mit Problemen, die mit der Konstruktion einer Universalsprache der Wissenschaft zusammenhängen. Er untersuchte die Semantik, d.h. die Beziehung zwischen einer Sprache und dem von ihr beschriebenen Bereich von Gegenständen, und beschäftigte sich mit der Konstruktion künstlich interpretierter Sprachen.xxviii Für Martin Heidegger (1889-1976) waren Carnap und die Mitglieder des positivistischen Wiener Kreises, in dem die Fundamente für die an formaler Logik und Wissenschaftstheorie interessierte analytische Tradition gelegt wurden, dagegen Leute, die angeblich die Strenge der Forschung mit Exaktheit, Wahrheit mit Wissenschaft und Denken mit Rechnen verwechselten. „Hier“, nämlich in Carnaps Aufsatz von 1929 in der Zeitschrift Erkenntnisxxix, „vollzieht sich die äußerste Verflachung und Entwurzelung der überlieferten Urteilslehre unter dem Schein mathematischer Wissenschaftlichkeit“, so Heidegger.xxx Carnap dagegen hielt – wie der Wiener Kreis – am besonderen Status der Wissenschaft für die Wahrheitssuche fest.xxxi
Vor allem Otto Neurath war es, der die programmatische Schrift „Wissenschaftliche Weltauffassung: Der Wiener Kreis“ verfasste, die den Charakter eines politischen Manifestes hatte und damit Kontroversen über den Inhalt bei den übrigen Mitgliedern des Wiener Kreises provozierte, denen die Schrift zu sehr politisches Manifest war. Einig aber war man sich bei den Mitgliedern des Wiener Kreises im Unbehagen darüber, dass „die Philosophie“ im Gegensatz zu den Naturwissenschaften wenig Erfolg in der Lösung von Problemen im Bereich der Metaphysik hatte.xxxii Man war der Überzeugung, dass im Rahmen eines klar formulierten Empirismus solche Probleme mittels an neuer mathematischer Logik orientierten, analytischen Methoden gelöst werden könnten. Zu dieser Überzeugung gehörte die Auffassung, dass alle Aussagen über die Welt durch Beobachtungssätze überprüfbar sind – alle empirischen Begriffe seien auf elementare Beobachtungsbegriffe rückführbar. Eine „Meta-Mathematik“ für die Aufklärung des Wesens des Unendlichen schien notwendig. Behauptet wurde ein „zusammenhängender Mechanismus“, der sowohl in der Natur als auch im Denken zu finden sei. Durch das Aufstellen logischer Systeme hoffte man auf Sicherheit und geordnete Verhältnisse in Mathematik, Physik und Philosophie, aber auch auf die Möglichkeit, „Weltgesetze“ aufzustellen. Das bedeutete die Anwendung von Logik für alle Wissenschaften, aber auch für die Künste, z.B. die Musik. Man wollte in einer sogenannten „Einheitswissenschaft“ „Systeme“ entwickeln, auf deren Grundlage man kommunizieren und die Welt beschreiben konnte. Alle Anhänger einer solchen „wissenschaftlichen Weltauffassung“ waren sich einig in der Ablehnung der offenen Metaphysik und der versteckten des Apriorismus. Der Wiener Kreis aber vertrat darüber hinaus die Auffassung, dass auch die Aussagen des (kritischen) Realismus und Idealismus über Realität oder Nichtrealität der Außenwelt und des Fremdpsychischen metaphysischen Charakters sind, da sie denselben Einwänden unterlägen wie die Aussagen der alten Metaphysik; sie seien sinnlos, weil nicht verifizierbar. Etwas ist „wirklich“ dadurch, dass es dem Gesamtgebäude der Erfahrung eingeordnet wird. Es gibt kein Reich der Ideen, das über oder jenseits der Erfahrung stünde.xxxiii Im Wiener Kreis ging es um die Vision einer “universalen Weltsprache“, die Leibniz´ Traum von einer Kunstsprache sowie eines rationalen Kalküls (lingua characteria und calculus ratiocina) weiterführte: logisch, mathematisch, präzise, mit der man sich sowohl transnational verständigen konnte, als auch mit Maschinen, und in der auch Maschinen mit Maschinen ‚sprechen‘ konnten. Das sollte eine Zeichen- und Bildsprache sein, deren Vorbild „Basic English“ war und deren abstrakte Zeichen- und Symbolketten mit mechanisierten Ableitungen Jahrzehnte später mit den Computersprachen Wirklichkeit wurde. Nicht von ungefähr heißt eine modernere, noch gebräuchliche Programmier-sprache „Basic“.

Logik gegen Metaphysik und „Deutsche Physik“


Die neuen Arbeitsmethoden sollten auf neuer Logik, Mathematik, Physik und Interdisziplinarität basieren. Der Einzelne arbeitet an seiner bestimmten Stelle innerhalb der einen Gesamtwissenschaft. Einig war man sich in der Ablehnung von Religion und Metaphysik (etwa der des deutschnationalen Dichters Othmar Spann oder des bereits erwähnten Martin Heidegger). Im NS-Deutschland hinwiederum wollte man von diesen Auffassungen, der „analytischen, hermeneutischen und positivistischen Philosophie“, offiziell nichts wissen. Diese wurden als „Vorstellungen von einer Meß- und Zählbarkeit der Welt“ und als „rein formalistisch-rechnerisches Denken, das Kalkül nicht als Hilfsmittel, sondern als die Sache selbst, als ein Absolutum nimmt“, abgelehnt - im Gegensatz etwa zum „deutschen schöpferischen Denken“. Der Wiener Kreis bedeutete für die Vertreter der „deutschen Wissenschaft“ jüdische Philosophie, Physik und Mathematik: „Der Jude ist ein A-metaphysiker, und liebt in der Philosophie den Logizismus, den Mathematismus, den Formalismus und Positivismus“. Ein Vertreter der „deutschen Wissenschaft“ ist der Physiker Phillip Lenard (1862-1947), Professor in Heidelberg. Schon 1922 fordert er in einem Manifest „mehr arische Wissenschaft“ und polemisiert speziell gegen Albert Einstein. 1936 erschien sein vierbändiges Werk „Deutsche Physik“, in dem er zum Kampf für eine deutsche Physik aufforderte – gegen jüdische Tendenzen in der deutschen Wissenschaft, gegen das „Dogmatische, die mathematische Abstraktion, den Mangel an Nutzen und Geistesakrobatik“.xxxiv Nach der Machtübernahme der Nationalsozialisten in Österreich emigrierten viele Wissenschaftler, darunter auch Mitglieder des Wiener Kreises wie Carnap, Neurath, Frank und Morris. Gödel emigrierte 1940 nach Princeton, an das neugegründete Institute for Advanced Study, das 1930 von Caroline Bamberger Fuld, Louis Bamberger und Abraham Flexner gegründet wurde. Hier traf Gödel u.a. auf den ungarischen Mathematiker John von Neumann (1903-1957)xxxv und Albert Einstein. Carnap emigrierte 1935 ebenfalls in die USA, zunächst nach Chicago und später nach Kalifornien an die UCLA (University of California Los Angeles). Die Idee der „Einheitswissenschaft“ und einer „Einheitssprache“ wird nach der Emigration aber durch Einbeziehung in die Kriegsforschung während des Zweiten Weltkriegs verändert. Sie erhält einen neuen „Kick“, vor allem durch den amerikanischen Pragmatismus und dessen praktische Anwendung im Krieg, aber auch durch das System der Kommerzialisierung im amerikanischen Wissenschaftsbusiness.

Das Ende des Wiener Kreises, Kritik des Neopositivismus und die Entwicklung der Computersprachen Das, was man sich damals in den 1930er Jahren in Wien zurechtgelegt hatte, wie man Wissenschaft organisieren soll, ist in den 1950er und 1960er Jahren zu Ende. In den USA beginnt man, mit ganz starker europäischer Beteiligung in den späten 1940er und dann 1950er Jahren, Interdisziplinarität anders zu sehen und zu organisieren. Die Idee einer interdisziplinären „Systemtheorie“ kommt auch sehr intensiv über eine ältere Wien-Verbindung, nämlich durch Ludwig von Bertalanffy, der später in den 1950er Jahren zusammen mit anderen in den USA die Gesellschaft für „General Systems Theory“ gründete. Er war der erste, der die Idee von Fließgleichgewichten in natürlichen, also biologischen Systemen entwickelte und so zur thermodynamischen „steady-state-theory“ wesentlich beitrug, lange vor Ilya Prigogine. Eine weitere Plattform für diese Entwicklung sind die Macy-Konferenzen zu verschiedenen wissenschaftlichen Themen, z.B. zu Kybernetik.xxxvi Es werden aber nicht nur diese Systemsprachen entwickelt, sondern beispielsweise auch zirkuläre „Feedback-Modelle“, die nicht nur in der Technik und in der neuen Kommunikationstechnologie relevant sind, sondern die auch in die Naturwissenschaften, die Sozialwissenschaften, ja, eigentlich in alle Einzelwissenschaften Eingang finden sollten, wie ihre Vertreter meinten. Neben Norbert Wiener ist der Neurophysiologe und Kybernetiker Warren McCulloch (1898-1969) die große Figur der 1940er-60er Jahre für diese Themen. Beide sind die Organisatoren und Koordinatoren der Macy-Konferenzen über Kybernetik. Über eine allgemeine und einheitliche Sprache von Systemdarstellungen sollte nun auch der Soziologe, der Mediziner oder der Techniker seinen Gegenstandsbereich als „systemisch“ beschreiben können. Die Macy-Konferenzen über Systemtheorie versuchten zu klären, was ein System ist, dass ein System aus einer bestimmten Anzahl von Komponenten besteht und dass diese Begrifflichkeit und der formale Ansatz sich fast zwanglos in allen Disziplinen anwenden lassen würden: in einem „sozialen System“, „ökonomischen System“ oder „psychischen System“ usw. Dazu kam ein dritter Punkt: zur Bewegung mit „Systemsprachen“, kybernetischen „Modelleinheiten“ und der Kybernetik als der neuen Leitwissenschaft von Kontroll- und Kommunikationsprozessen kamen eine neue Architektur von Rechnern sowie vielfältige neue Möglichkeiten des „Berechnens“ und der mathematischen Darstellung dieser Modellwelten. Dieser dritte Bereich wurde für verschiedenste Richtungen wichtig, z.B. für die künstliche Intelligenz (KI oder Artificial Intelligence = AI), die Mitte der 1950er Jahre aus der Taufe gehoben wurde und sich mit entsprechenden Tagungen, Gesellschaften, Programmen und Förderungen, z.B. am M.I.T. (Massachusetts Institute of Technology, Marvin Lee Minsky, *1924, übrigens ein Schüler Alan Turings) organisiert.xxxvii Damit befand man sich schon mitten im Neopositivismus. Dessen Grenzen sollen im Folgenden zunächst aufgezeigt werden; obwohl philosophisch grundlegend kritisierbar, muss man dennoch festhalten, dass diese Ideologie auf der hier geschilderten Entwicklungsstufe für die Konstruktion von Computersystemen unerläßlich gewesen ist. Ohne die schon genannten Mathematiker und jemanden wie John von Neumann, der später maßgeblich an der Konstruktion der Wasserstoffbombe beteiligt war, wäre es nicht möglich gewesen, Programmiersprachen überhaupt zu entwickeln. Gleichzeitig zeigen die folgenden Ausführungen, wie begrenzt die positivistische Auffassung geistiger Prozesse ist. Aber wir wollen der Kritik der neueren, vergeblichen Bestrebungen, an den hartnäckig widerkehrenden Behauptungen, man könne ein Gehirn mit Hilfe oder in Form eines Computersystems „nachkonstruieren“, nicht vorgreifen. Dabei werden wir auch sehen, dass die „Macher“ von computergestützten Systemen zur Überwachung von menschlichen Bestrebungen unter dem Deckmantel „Terrorismusbekämpfung“ sich keinen Deut darum scheren, ob dem Positivismus, falls sie von diesem überhaupt etwas gehört haben sollten, irgendein Wahrheitsgehalt zukommt oder nicht, solange er sich instrumentalisieren läßt. Auf diesem Hintergrund bekommt der Positivismusstreit à la Habermas, Hans Albert u.a. eine ganz andere Bedeutung. Die verschiedenen Ausgestaltungen bzw. Varianten des Neopositivismus sind im Grunde genommen in Wittgensteins Tractatus logico-philosophicus von 1918/21 vorweggenom-men und in ihrem Kern in wenigen seiner Sätze zusammengefaßt: „Die Gesamtheit der wahren Sätze ist … die Gesamtheit der Naturwissenschaften. Die Philosophie ist keine der Naturwissenschaften. Der Zweck der Philosophie ist die logische Klärung der Gedanken. Die Philosophie ist keine Lehre, sondern eine Tätigkeit. Das Resultat der Philosophie sind nicht ‚philosophische Sätze’, sondern das Klarwerden von Sätzen“.xxxviii Später wird Schlick formulieren: „Es ist das eigentliche Geschäft der Philosophie, den Sinn von Behauptungen und Fragen zu suchen, und klarzumachen. … Der Sinn jedes Satzes wird in letzter Linie ganz allein durch Gegebenes bestimmt und schlechterdings durch nichts anderes.“xxxix Genauer betrachtet, werden im Neopositivismus in eklektischer Weise verschiedene Philosophierichtungen aufgenommen. Mal ging es darum, wie immer in der professoralen Auseinandersetzung an den Hochschulen, möglichst originell zu sein, oder es ging darum, die dialektische Denkweise zu vermeiden – seltener aus völliger Unkenntnis der Hegelschen Philosophie, die ja auch nicht zu den leichtesten gehört –, häufiger aber aus Angst, unmittelbar, meist sogar, ohne es zu wissen, in die Auseinandersetzungen des Kalten Krieges an den Universitäten zu geraten und möglicherweise dabei seine Stellung zu verlieren oder sie gar nicht erst antreten zu können. Für den Wiener Kreis kann man sagen, dass er einen radikalen Physikalismus vertritt, der – obwohl grundlegend kritisiert – bis in die heutige Zeit hinein wirkt. Zudem kann man zwei weitere Feststellungen machen, die diese Einschätzung zusätzlich unterstützen: 1. die Ansichten bei einigen Vertretern ändern sich mit der Zeit, und 2. gehen häufig die Institute der jeweiligen prominenteren Vertretern, wie bei von Foerster, mit der Pensionierung oder dem Ableben ihrer Direktoren zugrunde oder werden nicht mehr weitergeführt. Im Falle von Heinz von Foerster wurde sogar das Institutsgebäude an der University of Illinois abgerissen.xl Und schließlich: der ganze Wiener Kreis ist im Grunde am Ende, als Friedrich Albert Moritz Schlick von einem ehemaligen Studenten, Dr. Hans Nelböck, am 22. Juni 1936 kurz vor Beginn seiner Vorlesung erschossen wird. Nelböck war ein rechtsextremer Psychopath, der wegen Morddrohungen gegen Prof. Schlick schon zweimal in eine Psychiatrische Anstalt eingewiesen worden war. Er wurde wegen des Mordes zwar verurteilt und zu 10 Jahren „Kerkerhaft“ inhaftiert, aber nach dem „Anschluß“ Österreichs 1938 schnell wieder auf freien Fuß gesetzt. Die Vertreter des Neopositivismus behaupten, dass ihnen allen nur eins gemeinsam ist: eine „streng wissenschaftliche“ Haltung in der Philosophie, die durch systematische Anwendung der modernen mathematischen Logik erreicht werden soll. So wird der gesamte Erkenntnisprozess auf die Logik reduziert. Das positive Element aber ist die dezidiert intendierte Überwindung der Metaphysik. Paradoxerweise hält der Neopositivismus gerade und angeblich die Überwindung des Empirismus für seine eigene, bedeutendste Leistung. Neopositivisten erklären nämlich selbst, dass Mathematik und Logik überhaupt nichts über die Wirklichkeit aussagen, dass sie wesentlich inhaltsleer seien, lediglich Methoden zur Umformung von Sätzen darstellen und daher a priori gelten. Die Proklamation dieser absoluten Beziehungslosigkeit von Logik und Mathematik auf eine Serie apriorischer Symbolreihen und deren Umformung in sich selbst führt nicht über den primitiven Erfahrungsbegriff des traditionellen subjektiv-idealistischen Empirismus hinaus; auch wird das eigentliche Wesen von Mathematik und Logik gerade nicht erfaßt. Denn Mathematik und Logik spiegeln in abstrakter, äußerst kompliziert und vielseitig bedingter Form allgemeinste Beziehungen zwischen wirklichen Dingen und Klassen wirklicher Dinge wider. Der Neopositivismus leugnet jedoch die Existenz des Allgemeinen und damit auch die Klassen der Dinge und kann so den Abstraktionsprozess, in dem die mathematischen und logischen Begriffe generiert werden, nicht erklären. Damit kann auch der Erkenntnisprozess nicht erklärt werden. Die gewaltigen Erfolge der Anwendung von Mathematik und Logik in der menschlichen Praxis, in der zweckbestimmten Veränderung und Nutzbarmachung der Wirklichkeit, werden unverständlich, unerklärbar und letzten Endes mystifiziert. Die Anerkennung dieser Erfolge, die auch der Neopositivismus nicht leugnen kann, bedeutet die Verlegung der Wirklichkeit in die Logik, in das Denken, in das Bewußtsein. (Und dort soll es auch bleiben!) Der Ansatz des Neopositivismus, der angeblich der Überwindung des Empirismus dient und eine wissenschaftliche Erklärung der Welt anbietet, wird nicht konsequent zu Ende geführt, denn das würde den Zweck des Unternehmens, den Schein der Wissenschaftlichkeit seiner Position zerstören sowie die anti-dialektische Stoßrichtung offen hervortreten lassen. Diese ideologische Funktion des Neopositivismus tritt unmittelbar in der Erklärung zutage, dass alle Probleme in sämtlichen Wissenschaften, die nicht lediglich mit den analytischen Mitteln der modernen mathematischen Logik geklärt werden können, nur „Scheinprobleme“ seien; wirklich ist laut dieser Auffassung nur das, was sich im Bereich mathematischer Logik abspiele. Natürlich wird dann auch eine von unserem subjektiven Bewußtsein unabhängige Realität geleugnet. Das ist bei Foerster eindrucksvoll zu beobachten, wenn er in Interviews bei der Erwähnung des Wortes „Realität“ süffisant fragt: „Wo ist die Realität?! Wo ham Sie die?“xli Also werden Fragen, die diese Realität betreffen und nicht in das neopositivistisch-formallogische Schema passen, als „sinnlos“ bezeichnet.xlii Eigentlich ist damit gemeint, Neopositivisten wollen solche Fragen nicht beantworten, weil sie nicht in ihr Schema passen; die Antworten, die sie geben würden oder müßten, sind zu offensichtlich falsch. Nach Auffassung des Neopositivismus besteht die Aufgabe der Philosophie nicht mehr in der Aufdeckung der allgemein objektiven Gesetzmäßigkeiten der Wirklichkeit und des wirklichen Verhältnisses von Materie und Bewußtsein, sondern lediglich in der logischen Analyse der Begriffsbildung der einzelnen Wissenschaften. Die weltanschauliche Funktion der Philosophie wird so auf Sprachphilosophie reduziert; damit werden dann auch die Einzelwissenschaften von ihrer weltanschaulichen Grundlage getrennt. Nachdem der Neopositivismus alle wesentlichen Probleme, die in der Geschichte der Philosophie jemals ein Rolle gespielt haben, als „Scheinprobleme“ auf diese Weise hinweg eskamotiert hat, bleibt als Gegenstand der Philosophie nur noch die logische Analyse der Sprache übrig. Aber nicht etwa der konkreten, wirklichen Sprachen, sondern „Strukturen möglicher Reihenordnungen beliebiger Zeichenelemente“. Damit wird – ganz „logisch“ – schließlich auch noch die Sprache aus ihren objektiven Bedingungen herausgelöst und im letzten Grund irrationalistisch verabsolutiert. Die Herausarbeitung der Syntax solcher „Reihenordnungen“ wird als die philosophische Hauptaufgabe angesehen. Die Syntax einer solchen „Sprache“ sei die Struktur des jeweiligen Darstellungssystems. Es wird behauptet, dass der Sinn eines Satzes nicht durch die wirklichen Zusammenhänge, die er widerspiegelt, festgelegt sei, sondern durch die Klasse der aus ihr ableitbaren, nichtanalytischen Sätze. Da alle Sätze der Mathematik und der Logik analytisch sind und sich aus ihnen daher auch nur weitere analytische Sätze ableiten lassen, ergibt sich von neuem im Konkreten der Schluß, dass Mathematik und Logik objektiv leer seien, d.h. nichts über die Wirklichkeit aussagten. Q.e.d. Die Sprache der Wissenschaften zerfalle – so die Neopositivisten – in zwei Klassen von Sätzen, syntaktische und empirische. Syntaktische Sätze sind Sätze über Zeichen, Zeichenreihen und deren Verknüpfung. Es wird behauptet, man habe eine besondere Entdeckung mit der Feststellung der Existenz von „quasi-syntaktischen“ Sätzen gemacht. Diese Begriffsbildung geht vom Unterschied zwischen der Objektsprache und der syntaktischen Sprache eines Gebietes aus. Die Objektsprache handelt von Dingen, Eigenschaften und Beziehungen der Begriffe, Sätze und Theorien über dieses Gebiet; die syntaktische Sprache handelt von den logischen Beziehungen der Begriffe, Sätze und Theorien über dieses Gebiet. Als „quasi-syntaktische“ Sätze bezeichnet der Neopositivismus solche Sätze, die scheinbar der Objektsprache angehören, sich aber tatsächlich in die syntaktische Sprache übersetzen ließen. So ließe sich z.B. der Satz „Fünf ist eine Zahl“ in den syntaktischen Satz „Fünf ist ein Zahlwort“ übersetzen. Damit sei der erste Satz als „quasi-syntaktisch“ bewiesen. Seine Besonderheit bestehe darin, dass er in „inhaltlicher“ Redeweise das ausdrücke, was der zweite in „formaler“ Redeweise sage. Die „quasi-syntaktischen“ Sätze handelten also nur scheinbar von außerhalb der Sprache gelegenen Gegenständen. Später mußten die Neopositivisten jedoch zugeben, dass die oben genannte Art und Weise der Satztransformation den Sinn, den Inhalt und den Charakter des Satzes ändert. Es traten daher neben die syntaktischen Probleme auch semantische Probleme, bei denen das Hauptgewicht auf der Bedeutung der Wörter und Sätze lag. Daraus wurde aber nicht der Schluß gezogen, die Wörter, Begriffe und Sätze auf die Wirklichkeit zurückzuführen, obwohl man nur so die oben erwähnten Antinomien, semantische und logische, hätte lösen können; der Neopositivismus gründete die logische „Wahrheit“ keineswegs auf die Beziehungen zwischen Aussage und Wirklichkeit, sondern wieder nur auf Regeln, nämlich semantische Regeln. Mit dieser Wendung und um die Wissenschaftlichkeit aufrecht zu erhalten, wurde die semiotische Analyse der Sprache der Wissenschaften zum Inhalt der Philosophie erklärt. Einer solchen Analyse wurden nur drei Aspekte zugeschrieben: der syntaktische Aspekt – die Syntax der Sprache –, der semantische Aspekt (die „Bedeutung“ der Sprache) und der pragmatische Aspekt der Sprache, also ihr Gebrauch. Vor allem wurde diese Wendung von der Seite der Mathematik erzwungen, also gerade auf dem Gebiet, von dem die Neopositivisten glaubten, es für sich monopolisieren zu können. Eine Ironie der Wissenschaftsgeschichte ist es, dass Gödel durch seine Forschungsarbeit unwiderlegbar nachwies, dass ein rein syntaktischer mathematischer Wahrheitsbegriff unbrauchbar ist, womit eine der ursprünglichen Grundthesen der Neopositivisten widerlegt wurde. Der wirkliche Gehalt des Übergangs von der Syntax zur Bedeutung der Begriffe und Wörter wird dadurch bestimmt, wie diese „Bedeutung“ gewonnen wird. Solange die Bedeutung eines Wortes nur definitorisch auf andere Wörter zurückgeführt wird, deren Bedeutung als feststehend angesehen wird, wird das Problem nur von einem Wort oder Satz auf einen anderen verschoben, und jede Erklärung wird tautologisch. In letzter Instanz müssen aber die den Wörtern entsprechende Begriffe mit etwas konfrontiert werden, das selbst nicht Begriff ist und sein kann. Dies ist beim Neopositivismus eben nicht die objektive Realität, sondern das unmittelbare Erlebnis, getreu dem Machschen Ansatz. Der erwähnte Rudolf Carnap hat in diesem Sinne versucht, ein Konstitutionssystem der Begriffe auf der Grundlage des „Erlebnisgegebenem“ zu entwickeln.xliii Dabei behauptet er, dass sich alle Beziehungen auf Ähnlichkeiten zwischen „Elementarerlebnissen“ zurückführen ließen; die „Ähnlichkeitserinnerung“ sei die Grundrelation. In diesem System ließe sich keine bewußtseinsunabhängige Realität konstituieren und es sei daher „sinnlos“, von einer solchen zu reden. Den Elementarerlebnissen entsprächen nun Elementarsätze von der Gestalt: „Jetzt ist es hier so und so.“ Die Wörter seien wesentlich nur hinweisend. Die „Wahrheit“ eines solchen Elementarsatzes sei zugleich mit seinem Verstehen gegeben; die „Wahrheit“ allgemeiner Sätze sei eine Funktion der „Wahrheit“ der Elementarsätze, die unter diesen Satz fielen. Da dies wegen des „Erlebnis“charakters aber nur für den Augenblick gilt, in dem etwas wahrgenommen wird, haben die Aussagen solcher Sätze keinen bleibenden Wert, und sie sind – logisch – dann auch nicht beweisbar, wenn die Situation sich geändert hat bzw. einfach nur die Zeit fortgeschritten und das Erleben nicht reproduzierbar ist. Also ist der „Elementarsatz“ nicht in der Lage, die Bedeutung von Sätzen und Wörtern wirklich zu begründen. Die Neopositivisten versuchten daher, an Stelle des „Elementarsatzes“ den „Protokollsatz“ zu setzen, der eben die zuletzt angegebene Form haben sollte. Jede allgemeine Aussage einer Wissenschaft sollte dann dadurch verifiziert werden, dass aus ihr „Protokollsätze“ abgeleitet würden, die dann ihrerseits mit unmittelbaren Erlebnissen verglichen würden. Die „Protokollsätze“ sollen unmittelbare Erlebnisse bezeichnen, aber in ihnen sollen keine erst durch theoretische Verarbeitung der Wahrnehmungen gewonnene Sätze enthalten sein. Wie solche Sätze jedoch aussehen sollten, darüber gingen die Auffassungen weit auseinander. Alle Versuche, solche „Protokollsätze“ für ein Fundament der Wissenschaft aufzustellen, scheiterten denn auch. Die Neopositivisten mußten den „Protokollsätzen“ die ihnen zugewiesene Qualität der absolut gültigen, letzten Grundlage der Wissenschaft wieder entziehen. Weitere Versuche, sich aus den Widersprüchen des subjektiven Idealismus gegenüber der Wirklichkeit herauszuwinden, führten daher noch tiefer in den Subjektivismus hinein, womit dann weitere Widersprüche auftraten. Es entstand nämlich sogleich die Frage: wie muß man sich verhalten, wenn ein solcher, subjektiv festgesetzter „Protokollsatz“ einer bereits erarbeiteten und durch die Praxis als richtig bestätigten wissenschaftlichen Theorie widerspricht? Gibt man die Theorie auf, so gesteht man ein, dass die „Protokollsätze“ nicht die Grundlage der Wissenschaft sind, sondern die auf die Wirklichkeit bezogene Wissenschaft die Grundlage der „Protokollsätze“ ist. Dann würde man den Weg zum Materialismus einschlagen. Das durfte jedoch nicht sein; also beließ man es bei den Widersprüchen. Durch den zweiten Weltkrieg wurde die Tätigkeit des Wiener Kreises unterbrochen; danach gelangte der Neopositivismus als Analytische Philosophie in den USA, England, den skandinavischen Ländern und in Lateinamerika zu einigem Einfluß. Deren sprachanalytische Richtung stützte und stützt sich vorwiegend auf Ludwig Wittgenstein. Eine dritte, von der Analytischen Philosophie nicht scharf zu trennende Strömung des Neopositivismus, die sich als Neo-Empirismus bezeichnet, ist vor allem um die Neubelebung des erkenntnistheoretischen Phänomenalismus sowie um die Verfeinerung des positivistischen Verifikationsprinzips und dessen Anwendung in den Sozialwissenschaften bemüht. Offen apologetischen und ausgeprägt antikommunistischen Charakter nimmt der Neo-Emipirismus in Form des sogenannten kritischen Rationalismus an (K.R. Popper, Hans Albert u.a.).xliv Der extrem antidialektische und wissenschaftsfeindliche Charakter des Positivismus, wie er sich im Wiener Kreis herausgebildet hat, äußert sich u.a. im Verharren auf der Ebene der Empirie und in der Scheu vor theoretischen Verallgemeinerungen oder konsistenten weltanschaulichen Interpretationen der einzelwissenschaftlichen Resultate. In der Tendenz, bestimmte einzelne Objekteigenschaften, Denkabstraktionen oder auch einzelwissenschaftliche Methoden zu verabsolutieren und schematisch, gleichsam willkürlich, auf andere Gegenstands- bzw. Erkenntnisbereiche zu übertragen, sind sich Positivisten wie Neopositivisten und letztlich auch kritische Rationalisten einig. Zum Problem der Sprache in der Quantenmechanik z.B. kann folgende, anekdotenhafte Bemerkung Heisenbergs angeführt werden: in einem Gespräch mit Niels Bohr ist die Rede von Begriffen, die bei der Beschreibung von Experimenten vorkommen und „deren Anwendungsbereich wir nicht genau angeben können.“xlv In diesem Zusammenhang kam Heisenberg auf die Positivisten zu sprechen, über die er sich dezidiert äußerte: „… ich habe einmal in einem Briefwechsel mit einem allzu eifrigen Positivisten der Wiener Schule etwas anderes behauptet. Ich hatte mich darüber geärgert, dass die Positivisten so tun, als habe jedes Wort eine ganz bestimmte Bedeutung und als sei es unerlaubt, das Wort in einem anderen Sinne zu verwenden. Ich habe ihm dann als Beispiel geschrieben, dass es doch ohne weiteres verständlich sei, wenn jemand über einen verehrten Menschen sagt, dass das Zimmer heller werde, wenn dieser Mensch das Zimmer betrete. Natürlich sei mir klar, dass das Photometer dabei keinen Helligkeitsunterschied registrieren würde. Aber ich wehrte mich dagegen, die physikalische Bedeutung des Wortes >hell< als die eigentliche zu nehmen und die andere nur als die übertragene gelten zu lassen.“xlvi

Von positivistischer Logik zur Kriegsforschung – ARPANet als Vorläufer des Internet und DARPA als militärische Operationalisierung von Grundlagen-forschung


Historisch war es also die Kombination von Logik – Denken – Kognitionsprozessen, allerdings undialektisch, d.h. ohne Widersprüche, aus der schließlich eine neue Generation von Computern hervorging. Dafür waren Systemtheorie und abstrakte Sprachen nötig, mit denen an der Schnittstelle Mensch – Maschine kommuniziert werden konnte und Prozesse oder Dinge dargestellt werden konnten, die sich sprachlich oder über Tabellen nur schwer vermitteln lassen. Der Mensch mußte sich den Erfordernissen der abstrakten, formalen Logik der Rechenmaschinen unterordnen. Am 9.1.1958 fordert US-Präsident Dwight D. Eisenhower (1890-1969) in seiner Rede „Zur Lage der Nation“xlvii eine Konzentration der Anti-Missile und Satellitentechnologie innerhalb des Department of Defense unter dem Aspekt beschleunigter Verteidigungsanstrengungen. Die Bedrohung der Welt ging für Eisenhower ganz simpel von der Sowjetunion aus: „The threat to our safety, and to the hope of a peaceful world, can be simply stated. It is communist imperialism.”xlviii Schließlich gründete Eisenhower am 7. Februar 1958 die „Advanced Research Projects Agency“ (ARPA), eine Forschungsabteilung des Pentagon, die eindeutig als Reaktion auf den sowjetischen Sputnik 1 zu verstehen ist. Die ARPA besaß jedoch keine eigenen Forschungseinrichtungen. Die von ihr initiierten Projekte wurden an Universitäten oder zivilen Forschungsinstituten durch ausgewählte Vertragspartner durchgeführt. Unter dem Direktor der ARPA (1961) Jack P. Ruina wird das „Command and Control Project“ zur Sammlung, Auswertung und Beurteilung strategischer Daten mit Hilfe von Computern gestartet. 1962-1964 wird Joseph C.R. Licklider auf Wunsch der ARPA dessen Direktor. Licklider kam vom Lincoln Lab des MIT, wo er im „Psychoacoustic Laboratory“ tätig war, einer speziellen Forschungsrichtung der Informationswissenschaften. Licklider verfasst 1963 das „Memorandum to Members and Affiliates of the Intergalactic Network“, wo er den Mitgliedern des Intergalaktischen Netzwerkes, dem Vertragspartner der ARPA, seine Visionen für ein künftiges Computernetzwerk mitteilt. 1964-1965 wird Ivan Sutherland, der ebenfalls vom MIT kam, Direktor der ARPA. 1966-1969 wird sein Assistent bei der ARPA, Robert Taylor, neuer Direktor des Information Processing Techniques Office (IPTO), das zur ARPA gehört.xlix Das IPTO steckte Forschungsgelder in fortgeschrittene Computer- und Netzwerktechnologien und beauftragte dreizehn Forschergruppen mit technologischen Projekten, die mit Mensch-Computer-Interaction und verteilten Systemen zu tun hatten. Jeder Gruppe wurde ein Budget zur Verfügung gestellt, das dreißig- bis vierzigmal größer war als eine normale Forschungsförderung für ein Projekt. Es wurde komplette Geheimhaltung über ihre Verwendung verlangt und der Zugang zur state-of-the-art Technologie wurde über folgende Institutionen organisiert: Carnegie-Mellon University MIT RAND Corporation Stanford Research Institute System Development Corporation University of California in Berkeley, Santa Barbara, und Los Angeles University of South Carolina University of Utah. 1966 wird Charlie Hertzfeld neuer ARPA-Direktor. Robert Taylor benötigt für sein 1966 begonnenes Netzwerk einen Leiter und holt Lawrence (Larry) G. Roberts vom Lincoln Laboratory des MIT. Dafür hatte ihm Hertzfeld eine Million Dollar Budget versprochen, wenn er den Aufbau eines verteilten Kommunikationsnetzwerks organisieren könne. Roberts wollte erst nicht, aber schließlich kam er als ARPA IPTO Chef-Wissenschaftler im Dezember 1966, nachdem ein wenig Druck ausgeübt worden war. Roberts begann sofort mit der Arbeit an einem Systemdesign für ein “wide area digital communications network”, sozusagen das erste WAN, das schließlich zum ARPANet führte. 1967 stellt Roberts den ersten Netzwerkplan eines „circuit-switching“ Netzwerks. 1968 erfolgt die erste Ausschreibung für das ARPANet. 1969 werden Rechner an der UCLA, am Stanford Research Institute u.a. implementiert und miteinander vernetzt; im selben Jahr noch zieht ARPA nach Arlington, Virginia um. Die erste öffentliche Vorführung in Washington DC war dann 1972 – es gelang den Entwicklern, aus der Rechenmaschine Computer das Kommunikationsmedium Computer zu entwickeln: ein Netzwerk vorwiegend an mit Militär verbundenen Universitäten sowie Firmen wie MITRE und Rand Corporation, „der einflußreichsten ‚Denkfabrik‘ des Kalten Krieges“.l Von dieser erhielt z.B. der Hegel-Philosoph Gotthard Günther (1900-1984) jahrelang Forschungsgelder.li Ebenfalls 1972 wird ARPA umbenannt in DARPA, wobei das D für „Defense“ steht. 1974 entwickeln Bob Kahn und Vint Cerf das Internet-Netzwerk-Verfahren TCP, eine Art standardisierte Vorschrift, die für die Kommunikation zwischen den Netzwerken unerläßlich ist und noch heute so genannt wird.lii 1975 geht die Netzwerkverwaltung des ARPANet von der DARPA an die DCA („Defense Communication Agency“ des Verteidigungsministeriums) über, die Bedarf angemeldet hat; man will ein von den üblichen Kanälen unabhängiges Netz, um im Falle eines Atomkrieges weiter kommunizieren zu können. Die weiteren Stationen sind: 1983 Splitting von ARPANet und MILNET, das in das DEFENSE DATA NETWORK integriert wird. 1989 werden die Reste des ARPANet abgebaut und demontiert, 1993 wird DARPA unter der Clinton-Administration wieder umbenannt in ARPA, 1996 erneut umbenannt in DARPA.liii


9/11 oder: Orwell läßt grüßen


Um die Geschichte des DARPA vollends würdigen zu können und um zu sehen, wie schmal der Grat zwischen „reiner“ Wissenschaft und ihrer (in diesem Fall mißbräuchlichen) Anwendung ist, muß man sich ansehen, was heute daraus geworden ist. Es steht nämlich in unmittelbarem Zusammenhang mit 9/11 und ist bereits vor einigen Jahren in einem isländischen Kriminalroman verarbeitet worden.liv Auch in den amerikanischen Romanen von David Baldaccilv bilden die jetzt zu erwähnenden Szenarien den politischen Hintergrund, auf dessen Boden dubiose Gestalten mehrerer der insgesamt 16 staatlichen Geheimdienste der USA auftreten. Nach den terroristischen Anschlägen auf das World Trade Center in New York setzte in den USA eine rasante, antidemokratische Entwicklung ein, die mit der hastigen Verabschiedung des Patriot Act begann. Dies geschah in so großer Eile, dass einige Abgeordnete später zugaben, den Gesetzestext erst hinterher gelesen zu haben, als es zu spät war, noch etwas zu ändern.lvi Dieses als Anti-Terror-Maßnahme gemeinte Gesetz bedeutet verschiedene Einschränkungen der bürgerlichen Rechte; u.a. ermöglicht es, eine Person allein aufgrund des Verdachtes einer möglichen Bedrohung öffentlicher Interessen festzunehmen und für unbegrenzte Zeit einzusperren, ohne Anklage zu erheben, ohne den Angehörigen mitzuteilen, wo und aus welchen Gründen der Betreffende gefangen gehalten wird, und ohne dass der Verdächtigte einen Anwalt bekommt.lvii Viele amerikanische Rechtsphilosophen sehen dies als einen eindeutigen Verstoß gegen die verfassungsmäßigen Rechte der Bürger an. Der oberste Gerichtshof der USA bestätigte jedoch dieses Gesetz und die Verfahrensweise. Besonders schlimm wird es, wenn Militärbehörden erklären, dass eine Person ein feindlicher Soldat oder eine Person außerhalb von Recht und Ordnung (unlawful combatant) ist, wie z.B. die Gefangenen in Guantánamo auf Kuba, denn dann werden dieser Person augenblicklich sämtliche Rechte genommen, egal welcher Nation er angehört.lviii Ein Projekt, das von der DARPA gegründet wurde, war das Information Awareness Office (IAO). Aufgabe des IAO war es, innerhalb einer Datenbank alle verfügbaren Merkmale der Bürger der USA zu erfassen, zu durchsuchen und diese später auf verdächtige Muster hin auszuwerten. Dass eine solche Datenbank immens groß sein würde, konnte man voraussehen. Das Unternehmen sollte vor allem dem Schutz vor Terrorismus dienen. Die Behörde selbst gab ihre Aufgabe wie folgt an: „The DARPA Information Awareness Office (IAO) will imagine, develop, apply, integrate, demonstrate and transition information technologies, components and prototype, closed-loop, information systems that will counter asymmetric threats by achieving total information awareness useful for preemption; national security warning; and national security decision making.“ Anfangs wurde das IAO von Präsident Bush unter dem Namen Total Information Awareness zu Beginn 2002 ins Leben gerufen. Zum Leiter der Behörde wurde John Poindexter bestellt, der unter anderem durch die Iran-Contra-Affäre bekannt ist.lix Die erste öffentliche Information war am 13. Februar 2002 in der New York Times zu lesen.lx Zu diesem Zeitpunkt war noch sehr wenig über die Ziele der neu geschaffenen Behörde bekannt. Allein die Tatsache aber, dass man Festplatten in Petabyte-Größe benötigen würde, sorgte für starke Verwunderung und Überwachungsängste.lxi Bürgerrechtsorganisationen, wie die Electronic Frontier Foundation in San Francisco (EFF), protestierten wegen der ‚Orwellschen‘ Absichten und wegen der Vergangenheit von Poindexter gegen diese Behörde. Die Mission des IAO war es, soviel Informationen wie möglich an einer zentralen Stelle über jede Person zusammenzutragen. Dadurch sollte es der US-Regierung ermöglicht werden, auf folgende Aktivitäten jederzeit Zugriff zu haben: Internetaktivitäten, die Historie von Kreditkarteneinkäufen, Käufe von Flugtickets, Mietwagen, Medizinische Aufzeichnungen (Krankenberichte), Studienbücher, Führerscheinlizenzen, Gas-, Wasser- und Stromrechnungen, Steuererstattungen und andere Daten. Im Wesentlichen war es das Ziel des IAO, in der Lage zu sein, die gesamte Lebensgeschichte von Gedanken und Bewegungen irgendeines Individuums auf diesem Planeten auf Verlangen rekonstruieren zu können, ein Unterfangen, das damals der Bush-Administration notwendig erschien, um der Bedrohung des Terrorismus adäquat begegnen zu können.lxii Des weiteren war das Logo des IAO (siehe Abbildung), welches von der Rückseite des Siegels der USA inspiriert wurde, Zündstoff für Illuminaten-Gläubige und Verschwörungstheoretiker, vor allem angesichts des allsehenden Auges, das auf die Weltkugel blickt und außerdem schon auf den Ein-Dollarnoten abgebildet ist. Die Pyramide mit dem allsehenden Auge ist ein altes Freimaurerzeichen und seine Verwendung auf dem Siegel der USA geht vermutlich auf George Washington zurück, der Freimaurer war. Nach den Kritiken am Logo wurde dieses am 19. Dezember 2002 von der Seite entfernt. Inzwischen sind alle links auf die ursprüngliche Seite, wo es noch zu sehen war, auch blockiert. Am 16. Januar 2003 wurde von Senator Russ Feingold ein Gesetz eingebracht, das den Kongress zu einer Prüfung der Aktivitäten der IAO veranlassen sollte. Nach einer ähnlichen Eingabe eines anderen Senators sollte die IAO nicht mehr in den USA operieren dürfen. Ende Februar desselben Jahres wurde dann eine Anordnung erlassen, nach der die IAO alle Aktivitäten beenden solle. Die DARPA änderte am 20. Mai 2003 den Namen von Total in Terrorist Information Awareness (TIA), um damit deutlich zu machen, dass man nicht Dossiers von US-Bürgern anfertigen wolle. Stattdessen solle die Behörde nur zur Terrorismusbekämpfung dienen. Trotz alledem wurde zwei Monate später beschlossen, keine Gelder mehr für die Behörde bereitzustellen. Die DARPA selbst hatte 2004 ein Budget von vier Milliarden $ zur Verfügung.


Abb. Logo des IAO Dept. der DARPA. Es wurde schon im Dezember 2002, nach Etablierung des IAO anfangs desselben Jahres, wieder entfernt.


Das "Limitation on Deployment of Terrorism Information Awareness Program" wurde in den Defense Appropriations Act 2004 aufgenommen, welcher vom Repräsentantenhaus am 8. Juli 2003 verabschiedet wurde.lxiii Man konnte denken, dass dies das Ende für das IAO bedeutete, vor allem aus finanziellen Gründen. Am 14. Juli 2003 berichtete Wired News, dass "The Senate's $368 billion version of the 2004 defense appropriations bill, released from committee to the full Senate on Wednesday, contains a provision that would deny all funds to, and thus would effectively kill, the Terrorism Information Awareness program, formerly known as Total Information Awareness. TIA's projected budget for 2004 is $169 million."lxiv
Im Conference Report H.R. 2658, Department of Defense Appropriations Act, 2004 (24. September 2003, House Report 108-283) konnte man dann lesen: Sec. 8131. (a) Notwithstanding any other provision of law, none of the funds appropriated or otherwise made available in this or any other Act may be obligated for the Terrorism Information Awareness Program ... the term "Terrorism Information Awareness Program" means the program known either as Terrorism Information Awareness or Total Information Awareness, or any successor program, funded by the DARPA, or any other Department or element of the Federal Government, including the individual components of such Program developed by the DARPA. In einem folgenden Review des Repräsentantenhauseslxv wurden allerdings die Restriktionen lediglich für den „Einsatz“ und die „Implementation" angesehen, nicht für Forschung.lxvi Reuters erhielt einen Kongressbericht, der neun Monate, nachdem der Kongress das kontroverse Computerüberwachungs-Programm des Pentagon abgeschossen hatte, zeigte, dass die US-Verwaltung fortfährt, private Aufzeichnungen und Datenbanken durchzukämmen, um verdächtige Aktivitäten auszuschnüffeln. Peter Swire, oberster Beamter der Clinton-Administration, sagte: "I believe that Total Information Awareness is continuing under other names."lxvii Forschung für die Totale Überwachung Als Teil des "Total Information Awareness" Programms werden verschiedene neue Technologien erforscht:lxviii Effective Affordable Reusable Speech-to-text, oder EARS, hat das ausgesprochene Ziel, "developing speech-to-text (automatic transcription) technology whose output is substantially richer and much more accurate than currently possible." Dieses Programm ist auf menschliche Radio- und Telephon-Konversation in einer Vielzahl von Sprachen fokussiert; es ist notwendig für die computerunterstützte Analyse der massiven Anzahl an Telefonüberwachungen, zu der das IAO ohne richterliche Anordnung das Recht hat. Futures Markets Applied to Prediction, oder FutureMAP, ist dazu gedacht, sich "auf Markt-basierte Techniken zu konzentrieren, um Überraschungen zu vermeiden und zukünftige Ereignisse vorherzusagen." Es analysiert Daten der Weltökonomie, um politische Instabilität, Bedrohungen der nationalen Sicherheit und ganz allgemein jedes größere Ereignis in der nächsten Zukunft bereits im Ansatz vorauszusagen. Die dezidierte Strategie des IAO für diese Abteilung umfaßt auch: "the markets must also be sufficiently robust to withstand manipulation", was auf die Absicht schließen läßt, zukünftige Ereignisse zu beeinflussen, um die Ziele der USA zu unterstützen. Genisys ist der Name eines Datenbanksystems, das als die zentrale Informationseinheit für das IAO implementiert werden sollte. Die bis dahin verwendeten Datenbanksysteme, die in der 1980er Jahren entworfen worden waren, erwiesen sich für die enormen Mengen an Daten, die es zu sammeln galt, als vollkommen unzureichend. Genoa stellt "structured argumentation, decision-making and corporate memory to rapidly deal with and adjust to dynamic crisis management" zur Verfügung. Im wesentlichen ist dieses Programm dazu entworfen, Schlußfolgerungen zu ziehen und Entscheidungen auf der Basis von Informationen zu treffen, die menschliche Analyse („human analysis“), Firmengeschichte („corporate history“) und strukturiertes Denken miteinander vereinigen. Dieses Forschungsprojekt wurde im Fiskaljahr 2002 beendet; ihm folgte das Genoa II Projekt, das in effektiver Weise die Zusammenarbeit zwischen den Regierungsabteilungen automatisch regeln soll. Human Identification at a Distance, oder HumanID, "ist ein Programm, um automatisierte, biometrische Identifikationstechnologien zu entwickeln, um Menschen über große Distanzen aufspüren, erkennen und identifizieren zu können." Dieses Programm war dazu gedacht, ein Gesichts- und Gangart-Identifikationssystem über eine Distanz von 150 m für das Fiskaljahr 2004 zu implementieren.lxix Damit im Zusammenhang steht die entsprechende Hardware, ein „All-seeing-Eye“, um aus der Höhe Menschen an ihrer Gangart erkennen zu können („Gait Recognition“; siehe nächsten Punkt). Autonomous Real-time Ground Ubiquitous Surveillance-Imaging System (ARGUS-IS): Im Programm für dieses autonome System wird ein Echtzeit, hochauflösendes, wide-area Videoüberwachungssystem entwickelt, das dem Krieger im Minimum 65 VGA Videofenster über sein Gesichtsfeld zur Verfügung stellt. Jedes Videofenster kann elektronisch gesteuert werden, unabhängig von den anderen, und kann entweder kontinuierlich ein Bild eines bestimmten Areals am Boden erfassen oder es ist so gestaltet, dass ein spezifisches Zielobjekt (dismount oder Fahrzeug) im Fenster automatisch erfaßt wird. Translingual Information Detection, Extraction and Summarization, oder TIDES, wird entwickelt, um Informationen in der Sprache oder im Text verschiedener Sprachen zu entdecken, zu übersetzen und zu extrahieren. Eine Demonstration der maschinellen Fähigkeiten und Integration in die TIA Systeme der DARPA wurde 2003 erwartet, die Realisierung war für 2005 angestrebt.lxx Aufschlußreich sind die Sprachen, die im Moment vorrangig getestet werden: Arabisch in English (A2E) und Chinesisch in English (C2E).lxxi Es dient zum Beispiel dem FBI für dessen beide Systeme: Federal Bureau of Investigation (FBI) Integrated Data Warehouse (IDW) und Security Concept of Operations (S-CONOPS), Investigative Data Warehouse (IDW) Program. Wargaming the Asymmetric Environment, oder WAE, ist dazu gedacht, automatische Technologien zu entwickeln, die in der Lage sind, terroristische Attacken vorherzusagen und prädiktive Indikatoren durch die Überprüfung individuellen und Gruppenverhaltens in einem breiten Umfeld zu identifizieren. Das WAE wird auch Interventionsstrategien auf der Basis der Motivation spezifischer Terroristen entwickeln. Wie schon gesagt, ist das TIA keineswegs „gestorben“, sondern es werden ganze Teile des TIA offenbar weiterhin von der National Security Agency (NSA) genutzt, die u.a. die Oberhoheit in Fragen der Kryptologie innehat. Keine Verschlüsselung darf so hoch sein, dass die NSA sie nicht mehr dekryptofizieren kann. Wie das US-Magazin "The National Journal" kürzlich berichtete, ist die Arbeit an zwei Data-Mining-Systemen im TIA-Projekt nicht eingestellt, sondern an eine Abteilung der NSA weitergegeben worden. Es handelt sich dabei um das "Information Awareness Prototype System" und "Genoa II", deren Entwicklung unter den Bezeichnungen "Basketball" und "Topsail" von der US-Regierung weiterfinanziert wird. Grundlage ist offenbar ein als geheim eingestufter Zusatz zu dem Gesetz, mit dem die Finanzierung von TIA 2003 vom US-Kongress eingestellt worden war. Danach werden Teile des Projekts weiter gefördert, wenn sie von anderen amerikanischen Regierungsbehörden übernommen werden. Die NSA hat Zugriff auf die Kommunikationsdatenaufzeichnungen der meisten US-Telekommunikationsunternehmen und wertet diese unter Umgehung des so genannten FISA-Gesetzes aus, um Hinweise auf terroristische Aktivitäten herauszufiltern. Das FISA-Gesetz von 1978 (Foreign Intelligence Surveillance Act)lxxii schreibt eigentlich vor, dass Lauschangriffe in den USA nur mit richterlicher Genehmigung erfolgen dürfen. US-Justizminister Alberto Gonzalez hatte in einer Anhörung im Februar 2006 eingeräumt, dass das FISA-Gesetz nicht in allen Fällen eingehalten worden war. Die New York Times hatte nämlich Ende 2005 enthüllt, dass die Regierung von George W. Bush trotz der Aufweichung und der erweiterten Befugnisse das Gesetz systematisch gebrochen hatte und die Kommunikation von Amerikanern im Ausland mit den USA tausendfach abhören ließ. Als die Senatoren Gonzalez fragten, warum FISA überhaupt umgangen worden sei, antwortete dieser, er könne dazu aus Gründen der nationalen Sicherheit keine Aussage machen. Inzwischen wurde das FISA-Gesetz 2008 erneuert und soll bis 2012 gelten. Danach kann legal jeder Amerikaner, der sich nachweislich im Ausland aufhält und mit den USA kommuniziert, abgehört werden. Und gerade erst unterschrieb Präsident Obama in letzter Minute mit Hilfe eines Unterschriftsautomaten, da er sich auf Reisen befand, die Verlängerung des Patriot Act bis Juni 2015.lxxiii Zwei Hauptkomponenten des TIA-Projekts sind auf diese Weise weitergewandert – zur Advanced Research and Development Activity (ARDA), die im NSA-Hauptquartier in Fort Meade – Spitzname: „Crypto City“ – angesiedelt ist. Dabei handelt es sich zum einen um das Information Awareness Prototype System. Das war als Kernstück der TIA-Architektur gedacht und sollte sämtliche Werkzeuge zur Gewinnung, Analyse und Weiterleitung von Informationen integrieren. Laut National Journal wurde es in „Basketball“ umbenannt. Die zweite Komponente war Genoa II (siehe oben). Dieses läuft nun unter dem Name „Topsail“ weiter. Gonzalez’ Zeugenaussage, dass die US-Regierung verstärkten Gebrauch von FISA macht, und seine Argumentation, warum das Gesetz nur teilweise gelte, zeigt: Das Problem ist nicht nur, dass Regierungsagenten schnell handeln wollen. Die FISA-Regeln verlangen für die Genehmigung eines Lauschangriffs die altmodische Begründung eines „Verdachtsfalls“ vor dem zuständigen Gericht. Diese Regelung kann jedoch nicht greifen, wenn die NSA eine automatisierte Analyse und Auswertung von Telefon- und Email-Daten vornimmt.lxxiv Wie die Klage der Bürgerrechtsorganisation EFF (Electronic Frontier Foundation) in San Francisco gegen die Telekommunikationsfirma AT&T zeigt, hat die NSA Zugang zu den Schaltungen und Aufzeichnungen der meisten, vielleicht sogar aller führenden amerikanischen Telekommunikationsunternehmen. Deren Datenressourcen sind umfangreich: Im AT&T-Rechenzentrum in Kansas etwa sind 1.92 Billionen Gesprächsaufzeichnungen aus mehreren Jahrzehnten gespeichert. Mehr noch, die meisten internationalen Telekommunikationsverbindungen laufen inzwischen nicht mehr über Satelliten, sondern über unterseeische Glasfaserkabel, so dass viele Carrier internationale Telefonate über ihre Schaltrechner in den USA leiten. Dank der Willfährigkeit der Telekom-Unternehmen kann die NSA heute deutlich mehr Kommunikationsvorgänge abfangen, und dies fast in Echtzeit. Mit Zugang zum Großteil des weltweiten Telefondatenverkehrs können die Superrechner der NSA jeden Anruf in einem Netzwerk digital absaugen und ein Arsenal an Data-Mining-Werkzeugen darauf loslassen. Eine Datenverkehrsanalyse zusammen mit der Theorie sozialer Netzwerke (sic!) erlaubt, Muster möglicher terroristischer Aktivitäten aufzudecken, die menschlichen Analysten unzugänglich wären. Das Filtern von Inhalten mit Hilfe von ausgeklügelten Suchalgorithmen und statistischen Verfahren wie der Bayes’schen Analyse sowie Methoden des Maschinenlernens ermöglichen die Suche nach bestimmten Wörtern oder Sprachkombinationen, die auf die Kommunikation von Terroristen hindeuten könnten.lxxv Ob die speziellen TIA-Technologien von der NSA in der Inlandsüberwachung der USA tatsächlich schon genutzt werden, ist noch nicht bewiesen. Die beiden Teilsysteme Topsail und Basketball ähneln aber Beschreibungen von Technologien, die ARDA und NSA einsetzen, um die Datenströme aus Telefon- und Emailkommunikation zu belauschen. Ein ehemaliger TIA-Projektmanager hat ausgesagt, dass die TIA-Forscher sich regelmäßig mit der ARDA ausgetauscht und eine „gute Koordinierung“ unterhalten hätten. Diese letzte Tatsache ist besonders bedeutsam. Ganz gleich, ob nun TIA-Technologien in der Inlandsaufklärung eingesetzt wurden oder nicht – vergleichbare Technologien kamen auf jeden Fall zum Einsatz. 2002 vergab die ARDA beispielsweise Fördergelder in Höhe von 64 Millionen Dollar für ein neues Programm namens „Novel Intelligence from Massive Data“. Eine Untersuchung des US-Rechnungshofes von 2004 zeigte darüber hinaus, dass amerikanische Regierungsbehörden 199 Data-Mining-Projekte betrieben oder entwickelten. Davon waren 120 darauf ausgelegt, große Mengen persönlicher Daten zu sammeln und auszuwerten, um das Verhalten von Individuen vorhersagen zu können. Da die als geheim eingestufte Projekte in der Untersuchung nicht berücksichtigt wurden, dürfte die tatsächliche Zahl noch weitaus höher ausfallen. Zusätzlich zu diesen Programmen existieren bereits Data-Mining-Anwendungen in der Industrie, die etwa Kreditkartenbetrug oder Gesundheitsrisiken für Versicherungen aufspüren sollen. All diese Informationen gehen in Datenbanken ein, die früher oder später für Behörden zugänglich werden könnten. Wie also sollte man Data-Mining-Technologien wie TIA regulieren? Kim A. Taipale, leitender Direktor am Center for Advanced Studies in Science and Technology Policy in New York, wies 2006 in einem Artikel ("Whispering Wires and Warrantless Wiretaps: Data Mining and Foreign Intelligence Surveillance")lxxvi darauf hin, dass es 1978, als FISA verfasst wurde, noch sinnvoll war, das Gesetz auf das Abfangen von klar definierten Kommunikationsvorgängen zu beschränken. Denn diese fanden damals in Telefonaten immer zwischen zwei bekannten Endpunkten statt, so dass der Kommunikationskanal abgehört werden konnte. In heutigen Netzwerken wird die Kommunikation hingegen während des Sendens in einzelne Datenpakete, normalerweise etwa acht, zerlegt und beim Empfänger wieder zusammengefügt. Will man diese abfangen, muss man Filter an diversen Kommunikationsknoten installieren, in der Hoffnung, die richtigen Pakete herauszu-fischen und wieder richtig zusammenzusetzen. Selbst wenn man eine konkrete Kommunikationsverbindung belauschen will, muss man deshalb den gesamten Datenfluss überwachen, in den diese eingebettet ist. Angesichts dessen sei das FISA-Gesetz nicht mehr zeitgemäß, argumentiert Taipale. Denn wenn man „es in einer strengen Auslegung anwendet – also ohne ‚elektronische Überwachung’ des ausländischen Kommunikationsflusses durch die USA oder dort, wo sich mit einer gewissen Wahrscheinlichkeit US-Bürger abhören lassen –, dann könnte es keine automatisierte Überwachung irgendeiner Art geben.“lxxvii Taipale schlägt vor, das FISA-Gesetz nicht aufzugeben, sondern anzupassen. Elektronische Überwachung würde dann den Status einer gewöhnlichen kurzen Personenüberprüfung nach US-Recht bekommen, falls ein Verdachtsmoment vorliegt. Im Kontext automatisierten Data-Minings würde das bedeuten, dass die Überwachung abgebrochen wird, wenn der Verdacht sich als unbegründet erwiesen hat. Sollte sich der Verdacht hingegen erhärten, würde der Lauschangriff fortgesetzt, und dann müsste vom Überwachungspersonal entschieden werden, ob eine richterliche Genehmigung im Sinne des FISA-Gesetzes nötig ist, um die Identität des Belauschten zu ermitteln. FISA und andere Gesetze zum Schutz der Privatsphäre ungeachtet der heutigen technischen Veränderungen aufrechterhalten zu wollen, betont Taipale, würde zu einem Absolutismus im Kampf um die Privatsphäre führen, der sich am Ende selbst besiegt. Ein Beispiel dafür könnte das Schicksal des Genisys Privacy Protection Projekts sein. Dieser Teil des TIA-Projekts war dazu gedacht, Sicherheitsbehörden gleichzeitig größeren Zugang zu Daten zu verschaffen und die individuelle Privatsphäre zu schützen, indem die Daten den Analytikern nur anonymisiert zur Verfügung gestellt wurden. Die Identität einer Person sollte erst enthüllt werden, wenn Beweise und eine entsprechende Genehmigung vorlagen. Genisys war die einzige TIA-Technologie, die gestoppt wurde, nachdem der öffentliche Aufschrei das TIA-Projekt zu Fall gebracht hatte. Ein neues Ministerium der USA: Heimatschutz Als eine weitere, beachtenswerte Maßnahme als Antwort auf 9/11 wurde im Jahre 2002 ein neues Ministerium der USA geschaffen, das Heimatschutzministerium der Vereinigten Staaten (engl. United States Department of Homeland Security, DHS).lxxviii Es ist mit über 200 000 Beschäftigten nach dem Pentagon und der Rentenorganisation die drittgrößte Bundesbehörde. In ihm wurden einige zuvor unabhängige Institutionen zusammengelegt, so zum Beispiel die Sicherheitskontrollen an den Flughäfen, der Zoll, die Küstenwache und die Katastrophenschutzbehörde Federal Emergency Management Agency (FEMA). Entgegen ursprünglichen Plänen wurden ihm jedoch nicht das FBI und die CIA unterstellt. Erster Minister des DHS war Tom Ridge. Seit dem 20. Januar 2009 ist Janet Napolitano die Ministerin. Hauptaufgabe des DHS ist der Schutz der amerikanischen Bevölkerung und Staatsgebiete vor terroristischen und anderen Bedrohungen. Diese Aufgabe obliegt in den USA anders als in anderen Ländern somit nicht dem Innenministerium, denn das Innenministerium der Vereinigten Staaten ist nur für die Verwaltung der bundeseigenen Ländereien wie Nationalparks verantwortlich. Das Ministerium nahm 22 bestehende Bundesbehörden in sich auf, z.B. den Katastrophenschutz (siehe unten). Diesen hatte Präsident Jimmy Carter bereits 1979 für nationale Notfälle gegründet. FEMA wurde damals aus mehreren kleinen Agenturen zu einer Bundesbehörde zusammengefügt und zählt heute innerhalb des Ministeriums 2600 Angestellte. Eine weitere Vorläufer-Institution war das United States Army Corps of Engineers (USACE). Es ist ein Hauptkommando der US Army für das Pionier- und Bauingenieurwesen mit landes- und weltweiten Strukturen. Die Koordinierungsstelle der Homeland Security ist das National Operations Center (NOC). Sitz der Behörde ist der Nebraska Avenue Complex, Washington D.C. Ein weiteres Büro unterhält man im Ronald Reagan Building im Federal Triangle. Im Weißen Haus gibt es zur politischen Koordinierung den Heimatschutz-Rat (Homeland Security Council) mit John O. Brennan als Präsidentenberater für den Heimatschutz an der Spitze. Andere bedeutende Vertretungen, die unter den Verantwortungsbereich des Heimatschutzministeriums fallen, umfassen unter anderem die US-Ministerien für Gesundheit, Justiz und Energie. Obwohl nach Mitarbeitern drittgrößtes Ministerium, ist das Budget jedoch deutlich kleiner als das der beiden größten Ministerien und beträgt etwa die Hälfte des Budgets des Landwirtschaftsministeriums. Im Namen des Heimatschutzministeriums unterzeichnete George W. Bush im Mai 2007 die National Security Presidential Directive 51 (NSPD 51), auch als Homeland Security Presidential Directive 20 (HSPD 20) bekannt, eine präsidentielle Direktive zur nationalen Sicherheit, die im Falle einer nationalen Katastrophe, eines Notfalls oder Angriffes die Fortdauer der konstitutionellen Regierungsarbeit („Enduring Constitutional Government“) sicherstellen soll, indem der US-Präsident sich mit der Führung der gesamten Bundesregierung betraut, und die Kooperation zwischen der Exekutive, der Legislative, und der Judikative koordiniert. Interessant ist der Aufbau des DHS: unterstellte Behörden United States Citizenship and Immigration Services United States Customs and Border Protection United States Immigration and Customs Enforcement Transportation Security Administration United States Coast Guard (Küstenwache; durch Präsidialbeschluss oder im Falle einer Kriegserklärung durch den Kongress untersteht sie automatisch der Navy, bis der Präsident etwas anderes dekretiert) Federal Emergency Management Agency (FEMA) United States Secret Service beratende Organe Homeland Security Advisory Council National Infrastructure Advisory Council Homeland Security Science and Technology Advisory Committee Critical Infrastructure Partnership Advisory Council Interagency Coordinating Council on Emergency Preparedness and Individuals with Disabilities Task Force on New Americans Einrichtungen des Ministeriums Domestic Nuclear Detection Office Federal Law Enforcement Training Center National Protection and Programs Directorate Federal Protective Service National Communications System Directorate for Science and Technology Directorate for Management Office of Policy Office of Immigration Statistics Office of Health Affairs Office of Intelligence and Analysis Office of Operations Coordination Office of the Secretary, umfaßt Privacy Office, Office for Civil Rights and Civil Liberties, Office of Inspector General, Citizenship and Immigration Services Ombudsman, Office of Legislative Affairs, Office of the General Counsel, Office of Public Affairs, Office of Counternarcotics Enforcement (CNE), Office of the Executive Secretariat (ESEC), Military Advisor's Office; National Cyber Security Center. Um seine Aufgabe zu erfüllen, Bedrohungen „vorauszusehen, zuvorzukommen und abzuwenden“, benutzt das Ministerium ein fünf Stufen umfassendes, auf Farben basierendes Homeland Security Advisory System, um die angenommene Gefahrenlage anzuzeigen: Grün, Blau, Gelb, Orange, Rot. Eine ähnliche Skala wird schon seit den Zeiten des Kalten Krieges vom US-Militär verwendet, um den Verteidigungszustand der Streitkräfte anzuzeigen. Er wurde als DefCon bekannt. Das Homeland Security Advisory System wurde unter anderem von Michael Moore in seinem Film „Fahrenheit 9/11“ kritisiert, weil es der Regierung durch Anhebung der Gefahrenstufe ermögliche, die Medienaufmerksamkeit auf sich und von gewissen anderen Ereignissen abzulenken. Zum Beispiel wurde beim Parteikongress der Demokraten in Boston 2004 vor den Präsidentschaftswahlen die Alarmstufe angehoben, weil „Hinweise auf Anschläge“ eingetroffen seien. Beim Wahlparteitag der Republikaner im selben Jahr in New York geschah dies aber nicht. Ein weiterer Kritikpunkt besteht darin, dass noch nie objektive Kriterien für die Warnstufen veröffentlicht wurden. Dazu wird von Sicherheitsexperten das Warnsystem hinterfragt, weil die Warnhinweise viel zu wenig konkret sind. Die Polizeikräfte werden zwar bei einer erhöhten Alarmstufe aufgestockt, doch sie erhalten nur vage Hinweise wie: „möglich sind Anschläge auf das Eisenbahnnetz“. Dies ist wenig hilfreich, denn logischerweise ist es jederzeit möglich, dass auf Eisenbahnen Anschläge verübt werden.


„MATRIX“ ist keine Science Fiction

Als ob das alles noch nicht unheimlich genug ist, fällt jetzt noch eine ominöse Datenbank einer dubiosen Firma in Florida auf, die den Namen MATRIX trägt. Auch in dieser sollen persönliche Informationen von Amerikanern gesammelt werden.lxxix Allein der Name ist nicht glücklich gewählt, ähnlich ungeschickt wie beim FBI, das ein System zur Überwachung von Internetdaten Carnivore (Fleischfresser) nannte. MATRIX steht für Multistate Anti-Terrorism Information Exchange. Mit dem System, entwickelt von der Firma Seisint Inc. in Boca Raton, Florida, sollen, wie die Washington Post berichtetlxxx, Muster und Verbindungen zwischen Personen und Ereignissen schneller gefunden werden. In die Datenbank werden Informationen der Strafverfolgungsbehörden sowie persönliche Informationen über US-amerikanische Staatsbürger eingespeist, die in käuflichen Datensammlungen verfügbar sind. Alles sei ganz harmlos, wird gesagt, weil das System nur Daten benutze, die sowieso vorhanden und verfügbar seien. Wie der Name schon sagt, soll das System später nicht nur für Florida, sondern erst einmal in insgesamt 13 Bundesstaaten (Alabama, Connecticut, Florida, Georgia, Kentucky, Louisiana, Michigan, New York, Oregon, Pennsylvania, South Carolina, Ohio und Utah) eingesetzt werden und den Datenaustausch zwischen diesen Ländern verbessern. Für das Pilotprojekt sind Virginia, Maryland, Pennsylvania und New York vorgesehen. Dabei geht das MATRIX-Projekt gar nicht auf die Initiative von Behörden, sondern auf die eines Unternehmers zurück, der entweder meinte, sich um den Staat verdient machen zu wollen, oder aber glaubte, dass mit Sicherheitstechnik auch künftig gute Geschäfte zu machen sind. Hank Asher, der Gründer der IT-Firma Seisint, rief anscheinend kurz nach den Anschlägen vom 11.9.2001 bei der Polizei in Florida an und versprach, er könne die Terroristen und andere finden, die verdächtig sind. Seisint stellte dann seine Software MATRIX dem Staate Florida erst einmal kostenlos zur Verfügung. Dann wurde das System in anderen Staaten vorgeführt und wohlwollend aufgenommen. Dabei kam die Idee auf, die Datenbank mit einer Suchmaschine namens "Who" auszustatten, die im Zentrum des Projekts stehen sollte. Das Justizministerium von Florida steckte daraufhin weitere vier Millionen Dollar in das von Seisint entwickelte Programm MATRIX, um es landesweit zu erweitern. Auch für das angeblich kostenlos für Florida entwickelte System hatte Seisint 1.6 Millionen $ bewilligt bekommen. Das uns schon bekannte Heimatschutzministerium wollte dann weitere 8 Millionen investieren. Offenbar wurde das System bereits kurz darauf in Florida benutzt. Bis 2003 sollen sich 135 Polizeibehörden angeschlossen haben. MATRIX soll nach einem Dokument des Justizministeriums "den Austausch von Informationen über Terrorismus und andere kriminelle Aktivitäten erweitern und verbessern". Abgesprochen wurde das System offenbar auch mit dem demokratischen Senator Bob Graham, der zu der Zeit Leiter des Geheimdienstausschusses war. Graham und die Demokraten hatten übrigens hohe Spenden von Seisint erhalten. Neben Virginia, Maryland, Pennsylvania und New York nimmt auch Washington D.C. an der geplanten MATRIX-Datenbank oder dem weniger monströs klingenden internetbasierten Justice Information System teil. Der demokratische Bürgermeister von Washington D.C., Anthony Williams, wies noch einmal darauf hin, dass es sich dabei nicht nur um Informationen zur Vorbereitung auf Notfälle handelt, sondern dass die Datenbank auch zur Bekämpfung der allgemeinen Kriminalität gedacht ist. Man würde die Informationen auf die Daten der Strafverfolgungsbehörden beschränken und nicht alle verfügbaren Daten aller Amerikaner in einer zentralen Datenbank speichern. Das kann man glauben oder auch nicht. Das System soll, wie Margret Nedelkoff Kellems, in Washington für öffentliche Sicherheit zuständig, anmerkte, es beispielsweise ermöglichen, in Kraftfahrzeug-Daten nach Fotografien und Informationen über rothaarige Besitzer von roten Hondas im Umkreis von 30 Kilometern um einen bestimmten Ort herum suchen zu können. Das hieße dann aber doch, dass Informationen über alle Bürger zumindest der beteiligten Bundesstaaten verfügbar sein würden. Kellems war offenbar bemüht, das mit staatlichen Geldern weiter entwickelte System von der MATRIX-Datenbank in Florida abzugrenzen, die mehr Daten enthalten soll. Und wie schon im Fall von Poindexter bei der TIA ist auch der Experte für Computertechnologie Hank Asher eine dubiose Gestalt.lxxxi 1999 beendete die DEA und das FBI einen Vertrag mit einer Asher-Firma, weil bekannt wurde, dass er von einem Zeugen als Pilot und Drogenschmuggler identifiziert worden ist und als Informant fungiert hat. Von der Drogengeschichte wisse man im Justizministerium, aber schließlich sei er weder angeklagt noch verhaftet worden. Seit 1993 arbeitet Asher mit den Strafverfolgern in Florida zusammen, dem Florida Department of Law Enforcement (FDLE) – unbeschadet dessen, dass das FBI und die DEA 1999 die Verträge mit seiner alten Firma DBT Online wegen seiner Verbindungen mit dem Drogenschmuggel beendeten, woraufhin Asher die Firma verkauft hatte. Trotzdem erhielt seine neue Firma Seisint in Florida zwei Verträge, ohne dass dabei eine Ausschreibung stattfand. Mit dem ehemaligen Direktor des FDLE, der gerade pensioniert wurde, ist Asher eng befreundet. Der neue Direktor hat inzwischen eine Hintergrundüberprüfung von Asher angeordnet. Asher hat auch für andere Behörden wie FBI oder Secret Service kostenlos gearbeitet. Angeblich habe die Firma tatsächlich dabei geholfen, Verbindungen zwischen den Flugzeugentführern von 9/11 herzustellen. Bekanntlich haben einige der Flugzeugentführer unter immer noch mysteriösen Umständen in Florida Flugunterricht genommen. Auch hier gibt es Verbindungen zum Drogenschmuggel.lxxxii Interessant ist auch, dass Florida 1998 mit der DBTlxxxiii, der damals noch Asher gehörenden Firma, einen Vertrag über 4 Millionen Dollar abschloss, um eine Wählerliste zu erstellen, auf der sich diejenigen befanden, die von der Wahl ausgeschlossen werden können. DBT wurde später zu ChoicePoint.lxxxiv Für die Präsidentschaftswahlen im Jahr 2000 wurden aufgrund der Informationen von ChoicePoint von der Innenministerin Katherine Harris einige Zehntausend Menschen – vornehmlich Schwarze, Latinos und arme Weiße, also eher Gore-Wähler – von der Wahl ausgeschlossen, die angeblich in anderen Staaten Vorstrafen hatten. In den meisten US-Bundesstaaten dürfen Straftäter aber nach Verbüßung ihrer Strafe wieder wählen. Manche der Straftäter wurden auch erst in der Zukunft verurteilt, wie damals in der amerikanischen Presse berichtet wurde. Die Liste der angeblich Vorbestraften ist angeblich aus Texas gekommen. Zwar wurde die Liste von Harris korrigiert, aber Tausende blieben weiterhin von der Wahl ausgeschlossen. Die Wahl in Florida ging mit gerade einmal 500 Stimmen Mehrheit für Bush aus. In Florida wurden zudem über 170.000 abgegebene Stimmen für ungültig erklärt. Eine Nachzählung wurde vom Obersten Gericht als nicht für notwendig befunden, das Bush daher als Sieger der Wahl anerkannte. Eine trotzdem durchgeführte Nachzählung ergab allerdings, dass bei einer rechtzeitigen Nachzählung Al Gore der Gewinner in Florida und damit auch in den USA gewesen wäre. Wir haben gesehen, dass es nichts hilft, Positivismus und Neo-Positivismus allein zu kritisieren, obwohl das schon notwendig ist. Einrichtungen und Forschungsinstitute des militärisch-industriellen Komplexes (Eisenhower) scheren sich darum wenig bis gar nicht. Man könnte sich angesichts der Kritik ruhig zurücklehnen und sich sagen: wenn der ideologische Unterbau (eigentlich ist es der Überbau) derart falsch oder wenigstens unzureichend, nämlich allein mit formaler Logik konstruiert ist und Inhalte keine Rolle zu spielen scheinen, wenn es reduktionistischer gar nicht mehr geht (wie z.B. in dem Vorhaben, ein menschliches Gehirn im Computer nachzubilden), dann kann ja eigentlich nichts Schlimmes passieren. Aber allein, wenn man über die Fehler nachdenkt, die bei der Maschinen- und Software-gesteuerten Überwachung der Bürger eines Staates entstehen und die zu falschen Informationen in den Datensammlungen über die gleichen Personen führen, dann kann einem Angst und Bange werden. Dies gilt umso mehr, als alle diese Datenbanken unter äußerster Geheimhaltung aufgebaut werden (wahrscheinlich schon sind), nämlich unter der Obhut unterschiedlichster Geheimdienste und damit der öffentlichen Kontrolle weitgehend, wenn nicht vollständig entzogen sind. Ob damit „der Terrorismus“ wirksam bekämpft werden kann oder Terroristen an ihrer Gangart oder der Gesichtsstruktur sicher identifiziert werden können, ist ohnehin zu bezweifeln. Orwell lebt und läßt grüßen.


Nachbemerkung, aus noch gegebenerem Anlaß


Als ob das hier Geschilderte noch nicht genug wäre, wuchs die Empörung über die NSA erst so richtig an, als bekannt wurde, dass das Mobiltelefon der Bundeskanzlerin Dr. Angela Merkel abgehört wurde; sie benutzte selten ihr abhörsicheres Zweit-Mobiltelefon, weil es ihr zu umständlich sei, es zu bedienen.
Kurz zuvor war schon bekannt worden, dass die NSA nicht nur die Europäische Union (EU), sondern auch die United Nations (UNO) abhört. Nach Auswertungen von Dokumenten, die dem SPIEGEL spätestens seit dem 25. August 2013 vorliegen, ist es der NSA im Sommer 2012 gelungen, die Verschlüsselung zu knacken und in die interne Videokonferenzanlage der UNO einzudringen. Dies habe für "eine dramatische Verbesserung der Daten aus Video-Telekonferenzen und der Fähigkeit, diesen Datenverkehr zu entschlüsseln" gesorgt, heißt es in einem geheimen NSA-Dokument. "Der Datenverkehr liefert uns die internen Video-Telekonferenzen der UNO (yay!)". Innerhalb von knapp drei Wochen sei die Zahl der entschlüsselten Kommunikationen von 12 auf 458 angestiegen.lxxxv Die Spionageaktionen sind illegal, in einem bis heute gültigen Abkommen mit der UNO hat sich die USA verpflichtet, keine verdeckten Aktionen zu unternehmen. Aus den internen Dokumenten geht zudem hervor, dass die NSA die EU auch nach deren Umzug in die neuen Botschaftsräume im September 2012 noch ausspioniert hat. Unter den Dokumenten, die der Whistleblower Edward Snowden von Rechnern der NSA kopiert hat, befinden sich Lagepläne der EU-Botschaft an der 3rd Avenue in New York, die die Lage der Büros, aber auch der IT-Infrastruktur und der Server betreffen. Dem neuen EU-Gebäude gab der US-Geheimdienst den Codenamen "Apalachee". Die EU-Botschaft in Washington wurde intern "Magothy" genannt. Auf drei Wegen attackierte die NSA nach eigenen Angaben die europäischen Dependancen: jeweils per Wanze sowie durch Kopieren der Festplatten in New York und das Infiltrieren des Computernetzwerks in Washington. Dabei machte sich die NSA zunutze, dass die Computer der beiden EU-Botschaften über ein sogenanntes Virtuelles Privates Netzwerk (VPN) miteinander verbunden sind. "Wenn wir den Zugang zu einer Seite verlieren, können wir ihn unmittelbar zurückerhalten, wenn wir über das VPN der anderen Seite kommen", konstatieren die NSA-Techniker in einer internen Präsentation. "Wir haben das mehrere Male genutzt, als wir bei ,Magothy' rausgeschmissen wurden." Das Auswärtige Amt in Berlin besitzt nach eigenen Angaben keine Informationen über eine mögliche Ausspähung der Vereinten Nationen und von Botschaften durch den US-Geheimdienst NSA. "Wir haben keine eigenen Erkenntnisse", sagte ein Sprecher. Laut den internen Dokumenten unterhält die NSA zudem in mehr als 80 Botschaften und Konsulaten weltweit ein eigenes Abhörprogramm, das intern "Special Collection Service" genannt wird und oft ohne das Wissen des Gastlands betrieben wird. Einen entsprechenden Lauschposten soll die NSA demnach in Frankfurt, einen weiteren in Wien unterhalten. Die Existenz der Lauscheinheiten in Botschaften und Konsulaten sei unter allen Umständen geheim zu halten, heißt es in dem Material. Wenn sie bekannt würden, würde das "den Beziehungen zum jeweiligen Gastland schweren Schaden zufügen", so ein NSA-Dokument. Inzwischen ist aber bekannt geworden, dass auf dem Dach der US-Amerikanischen Botschaft in Berlin, direkt neben dem Brandenburger Tor, eine Abhöranlage aufgebaut ist. Weiter wurde im Oktober 2013 bekannt, dass auch die brasilianische Präsidentin Dilma Rousseff von der NSA abgehört wird/wurde; sie will zusammen mit Deutschland diese Affäre in Form einer Resolution gegen das Ausspähen von elektronischer Kommunikation vor die UNO bringen.lxxxvi Darin werden alle Staaten aufgefordert, Gesetzgebung und Praxis bei Überwachungsaktionen im Ausland auf den Prüfstand zu stellen. Wörtlich heißt es: „Die gleichen Rechte, die Menschen offline haben, müssen auch online geschützt werden - vor allem das Recht auf Privatheit.“ Der Text wurde zusammen mit Brasilien ausgearbeitet, dessen Präsidentin Dilma Rousseff ebenfalls vom US-Geheimdienst NSA bespitzelt wurde.lxxxvii Der Entwurf geht nun zunächst an den zuständigen Menschenrechtsausschuss, der im November darüber beraten wird. Der in der Vorbemerkung erwähnte US-Geheimdienstchef James Clapper hat Spähangriffe auf ausländische Spitzenpolitiker verteidigt. „Die Absichten politischer Führungen, wie auch immer sie ausgedrückt werden, sind das Grundsätzliche, was wir sammeln und analysieren müssen“, sagte der Koordinator der 16 amerikanischen Geheimdienste in einer Kongress-anhörung am 29. Oktober 2013 in Washington. Zugleich zeigten er und der NSA-Chef Keith Alexander sich in der Befragung überzeugt, dass Europa seinerseits die USA und deren Politiker ausspioniere. Auch würden die Europäer massiv Daten eigener Bürger sammeln. Clapper bestätigte zwar nicht, dass die USA etwa Telefongespräche von Merkel oder anderen Staats- und Regierungschefs abgehört hätten. Es sei aber generell „absolut“ hilfreich, an solche Kommunikation zu kommen. „Das ist eines der ersten Dinge, die ich 1963 in der Geheimdienstschule gelernt habe“, sagte der Spionage-Veteran. „Es ist unersetzlich für uns zu wissen, was die Länder bewegt, was ihre Politik ist.“ Zu den bevorzugten Abhörzielen gehörten auch militärische Führer.lxxxviii Der ebenfalls in der Vorbemerkung zu diesem Artikel erwähnte Enthüllungsjournalist Glenn Greenwald erklärte, dass es bei der Affäre nicht nur um Bespitzelung von Bürgern gehe, sondern um politische Macht und Wirtschaftsspionage. Ersteres wird von Clapper bestätigt, letzteres zunächst nicht. Auch die hiesige Presse hat diesen Aspekt bisher vollkommen ausgeklammert. Sehr deutlich konnte man einem Interview der FAZ mit dem weißrussischen Publizisten aus Amerika, Evgeny Morozov, im Oktober 2013 entnehmen, was im Hauptteil dieses Artikels schon herausgearbeitet wurde, dass nämlich über einfache Wirtschaftsspionage hinausgehende weltweite Analysen wirtschaftlicher und privater Daten mit Hilfe von spezieller Software angestellt werden, um prognostische Faktoren über Konsumverhalten, Krisen des Marktes und der Finanzwirtschaft herausarbeiten zu können. Dies wurde im Artikel oben unter „Forschung für die totale Überwachung“ bereits erwähnt. Im Interview heißt es: „Es ist eine strukturelle Logik im Spiel, die etwas mit Kapitalismus zu tun hat, mit Konsumverhalten, mit Dingen, über die Amerikaner nicht gern reden. Das Resultat ist eine neue Reihe von Anreizen, um die Leute zu verleiten, ihre Daten preiszugeben und zu teilen. Die NSA wird sie so oder so bekommen, aber für mich ist die NSA nur Teil eines viel größeren Problems, das ich in einer Art von präemptivem Regieren sehe, gestützt auf Voraussagen, und Informationsanalysen, durch die Probleme entschärft werden sollen, bevor es Probleme sind. So, wie die NSA Terroristen ausfindig macht, bevor sie Terroranschläge begehen, so handeln andere Behörden nach der gleichen Logik. Leute sollen gesund werden, bevor sie krank sind. Dank der neuen technologischen Infrastruktur werden Probleme im Voraus gelöst, und zwar mittels Anreizen, die neue Verhaltensweisen hervorrufen. Für einen Technokraten ist das eine perfekte Sache. Nicht so für einen Demokraten, der sich denkende Bürger wünscht, die zwischen richtig und falsch zu unterscheiden wissen und fähig sind, sich an der Verbesserung des Systems zu beteiligen.“lxxxix Wie man „den Wirkungsgrad des Wahlkampfs steigern“ und sich „die richtigen Wähler effektiver erreichen“ lassen Schließlich soll ein letztes Beispiel zeigen, in welchem Stadium der Analyse, aber nicht nur der Analyse, sondern der massiven Wählerbeeinflussung und des Kaufverhaltens man offenbar schon jetzt angekommen ist. Wegen seiner Ungeheuerlichkeit wird der Bericht aus der Frankfurter Allgemeinen Zeitung hier in ganzer Länge wiedergegeben:xc „Ende August hatte die deutsche Vertretung von Google Journalisten, Wahlkämpfer und Interessierte nach Berlin eingeladen, um die Google-Projekte zur Wahl vorzustellen. Den Hauptvortrag hielt Julius van de Laar, der für Barack Obama im entscheidenden Bundesstaat Ohio Wahlkampf geführt hatte. Er berichtete, was man aus dem digitalen Wahlkampf in den USA inzwischen gelernt habe. Natürlich ging es als erstes um’s Geld: ‚Meine Güte, 1.2 Milliarden Dollar hatten wir zur Wählermobilisierung zur Verfügung‘, um dann darauf einzugehen, was darunter verstanden wird. 2012 sei die Ausgangslage schlecht gewesen, 8% Arbeitslosigkeit, 41% Zustimmungsrate für den Präsidenten, dazu eine katastrophale Performance des Kandidaten im ersten Fernsehduell‘. Nur in der politischen Botschaft sei die Obama-Kampagne klar vorn gelegen. ‚Mitt Romney – Killerkapitalist‘ ließ sich gut verkaufen, auch ‚General Motors am Leben, Usama Bin Ladin tot‘. Das Team von de Laar stellte sich aber als wichtigste Frage in Ohio, wie man ‚den Wirkungsgrad des Wahlkampfs steigern könne‘, wie sich „die richtigen Wähler effektiver erreichen“ lassen – und wie man einen Bogen um diejenigen macht, die man schon verloren gab. Dieses Programm hieß ‚Force Multiplication‘ und es sollte Platz für ‚Technologie und Daten‘ schaffen. Es ging nicht um politische Botschaften aus Hinterzimmern, sondern um die letztens vieldiskutierten „Big Data“. De Laar führte weiter aus: ‚Die Datenschützer unter Ihnen, wenn Sie kurz raustreten wollen und sich einen Kaffee holen wollen. Kommen Sie in zehn Minuten wieder.‘ Er kam darauf zu sprechen, wie das ‚Micro-Targeting‘, die planvolle und gezielte Wähleransprache der Obama-Kampagne funktionierte. Ausgangspunkt seien die Wählerlisten, in denen Namen und Telefonnummern aufgeführt sind sowie die Information, ob die Wähler an den demokratischen oder den republikanischen Vorwahlen teilgenommen hatten. Im zweiten Schritt ‚haben wir uns einfach einen Haufen Daten gekauft‘, sagte van de Laar. ‚Sie kennen Pay-Back?‘ fragte er ins Publikum. „Wir gehen da hin und sagen: ‚Pay-Back, bitte einmal die Daten ausspucken‘“. Diese Daten zeigen nämlich das Einkaufsverhalten der Wähler, die die Pay-Back-Bonuskarte verwenden – was van de Laar als ein Beispiel unter vielen nannte –, und seien mit den Daten aus dem Wählerregister fusioniert worden. Für jeden potentiellen Obama-Wähler wurde ein Datenbankeintrag angelegt und ständig erweitert. Auch das Verhalten im Internet war von Interesse. Mit ‚Cookie-Targeting‘ wurde das online-Verhalten der Wähler über deren Computer ausgespäht und ausgewertet. Dieses Vorhaben, das ‚predictive analytics‘ genannt wird, erscheint unter den Stichworten ‚Social Media, Data Mining, Data Matching‘. Van de Laar: ‚Wir wollten herausfinden, wer die Personen waren, die sehr wahrscheinlich nicht wählen gehen, aber uns wählen würden, wenn sie doch hingingen.‘


Man habe herausgefunden, dass 78% der Menschen, denen von Freunden oder Bekannten empfohlen wurde, Obama zu wählen, tatsächlich für ihn stimmten. Das Team konzentrierte sich also auf die zweite Zielgruppe: Menschen, die Obama sicher wählen würden und zusätzlich bereit seien, ihren Freunden und Nachbarn davon zu erzählen. 21000 Freiwillige habe man in den drei Wochen vor der Wahl allein in Ohio mobilisiert. Sie klopften an mehr als 800 000 Haustüren.


Eine iPhone-App gab im Wortlaut vor, wie ein Gespräch zu eröffnen sei und zu führen ist – und erinnerte mit Nachdruck daran, fehlende Daten unbedingt zu erfassen. ‚Wir wollten nicht nur, dass Leute rumlaufen und mit irgendwelchen Menschen sprechen, wir wollen nachvollziehen, was dort genau passiert. Wir wollen wissen, wie die Konversationen laufen und welche Informationen wir da herausziehen können‘, sagte van de Laar. Dieser Haustürwahlkampf sei wahlentscheidend gewesen. Das Wahlkampfteam in Ohio beschäftigte 750 fest angestellte Mitarbeiter, aber entscheidend sei die Arbeit der Freiwilligen gewesen. Es wurde letztlich eine Parallelkampagne unter dem Titel ‚It’s about YOU‘ entwickelt. Das YOU bezog sich auf die Tausenden von Freiwilligen, die zumeist persönliche Beziehungen zu den Menschen an den Haustüren besaßen, an die sie klopften, und die noch zu überzeugen waren. Man habe sich aber nicht nur an der Haustüre eingemischt, sondern bald wurde jeder Sympathisant zum Freiwilligen. Die moderne Technik half dabei: ‚Wir wollten, dass sich die Leute mit Facebook auf Obamas Internetseite anmelden, um einen Komplettzugriff auf deren Profildaten zu erhalten. Die Daten, die wir hatten, waren der Wahnsinn, und natürlich schauten wir sie uns an, wann es uns paßte‘, sagte van de Laar. Dabei ging ein Raunen durch den Saal.


Den entscheidenden Trick hatte van de Laar aber noch gar nicht genannt: Wähler, die sich per Facebook auf Obamas Internetseite anmeldeten, willigten auch ein, dass die Kampagne im Namen der Nutzer Botschaften auf Facebook verbreiten durften. ‚Sie können sich vorstellen, was für ein riesiges Asset das in diesem Wahlkampf war.‘ Die Wähler konnten schlicht nicht mehr unterscheiden, wann sie es mit ihren Nachbarn oder mit der Kampagne zu tun bekamen. Für die Wahlkämpfer der politischen Parteien im Raum verwies van de Laar auf eine Studie von Infratest Dimap. Auch in Deutschland informierten sich Wähler vorrangig im direkten Gespräch über anstehende Wahlen. ‚Das, was jetzt gemacht wird, ist der Grundstein für die Zukunft, da wird der Trend hingehen‘.


In USA sei man allerdings schon an Grenzen gestoßen, führte van de Laar aus. Ein Zeichen des Erfolgs im Haustürwahlkampf seien die vielen Zettel gewesen, auf denen Bewohner notierten, dass sie schon längst überzeugt seien, Obama zu wählen und keine weitere Störung duldeten. Dass das Wahlrecht den Wählern Geheimhaltung zubillige, setzten van de Laars Strategen in einem Fall sogar außer Kraft. Sie wollten Nichtwähler in den Nachbarschaften in Dankesbriefen nach der Wahl enttarnen. Diesem Vorhaben, ‚das 25% Zuwachs‘ versprach, setzte eine Morddrohung gegen Mitarbeiter der Kampagne ein frühes Ende.


‚Stalking‘ nannte das die Pressesprecherin der Piratenpartei, Anita Möllering, aus dem Publikum. Der von Google mit einem Pauschalgehalt ausgestattete Journalist Tilo Jung, der Googles Videoplattformen für politische Interviews unter dem programmatischen Titel ‚Jung & Naiv‘ nutzt, wollte von de Laar wissen, wie mit den Daten nach der Wahl verfahren wurde und was in Deutschland möglich sei. Die Daten lägen für die nächsten Kampagnen bereit, antwortete van de Laar. In Deutschland werde der Rahmen des legal Möglichen noch nicht ausgeschöpft. Es gebe ‚maximal legale Wege, noch deutlich stärker vorzugehen und ein besseres Targeting zu machen.‘ ‚Alles andere wäre jung und naiv‘, sagte van de Laar.“