Text | Kulturation 2013 | Peter Kaiser | Von Wittgenstein zur NSA. Vom Positivismus über den Anti-Terrorismus bis zur Abhöraffäre Eine kurze Geschichte vom Positivismus über den Anti-Terrorismus nach 9/11 bis zur neuesten Abhöraffäre | Inhalt
Vorbemerkung
Wittgenstein und der Wiener Kreis
Logik gegen Metaphysik
Das Ende des Wiener Kreises
Von positivistischer Logik zur Kriegsforschung
9/11 oder Orwell läßt grüßen
Matrix ist keine Science Fiction
Nachbemerkung
Vorbemerkung, aus gegebenem Anlaß
Als dieser Artikel vor einigen Jahren geschrieben wurde, hatten
die meisten hierzulande keinen Begriff davon, was die National Security
Agency ist und was die Abkürzung NSA bedeutet. Wer allerdings jemals
mit Security und Secrecy im Internet zu tun hatte, der hatte auch mit
Kryptofizierung zu tun und wußte, dass die Verschlüsselungstechniken
vom zweitgrößten Geheimdienst der USA für private und geschäftliche
Zwecke in der Weise beschränkt sind, dass sie immer nur unterhalb der
höchstmöglichen Kryptofizierung angewendet werden „durften“. Der
militärische Geheimdienst NSA mit Sitz in Fort Meade (offizieller
Spitzname: „Cryptocity“), hat sich immer vorbehalten, jedwede
Verschlüsselung dekryptofizieren zu können, wenn es angebracht schien.
Einen beträchtlichen Aufwand hätte es allerdings gebraucht. Trotzdem:
die Schlußfolgerung ist offenbar, dass ein US-amerikanischer,
militärischer Geheimdienst bestimmt, mit welchem Kryptofizierungsgrad
in der ganzen Welt gearbeitet werden darf. Erreicht wird dies durch
ganz einfache technische Mittel: entsprechende Software, die Dokumente,
Nachrichten etc. für Dritte unlesbar machen würde, gibt es nicht zu
kaufen; die NSA hält die Hand darüber. Man kann sogar davon ausgehen,
dass nicht einmal Quantenverschlüsselung, obwohl es noch keine echten
Quantencomputer gibt, vor der NSA bestehen könnte.i Zurzeit gibt es
Quasi-Quantencomputer, z.B. solche, die mit Licht arbeiten, das in
verschiedenen Richtungen polarisiert ist, so dass damit verschlüsselte
Nachrichten gesendet werden können; diese können jedoch trickreich
abgefangen werden. Ein echter Quantencomputer würde mit verschränkten
Teilchen arbeiten, bei denen eine Abhöraktion unmittelbar diesen
Verschränkungszustand aufheben würde, so dass der Eingriff erkannt
wird. Allerdings können verschränkte Teilchen nur im Hochvakuum und bei
Temperaturen nahe dem absoluten Nullpunkt „hergestellt“ werden; da die
Verschränkung im Nano- bis Millisekunden-Bereich wieder zerfällt,
müssen die Rechen- oder Nachrichtenoperationen in dieser extrem kurzen
Zeit durchgeführt werden. So ist der Quantencomputer im Moment eher ein
langjähriges Forschungsprojekt als eine anwendbare Methode, geschweige
denn ein kommerzielles Objekt. Aber er wäre „abhörsicher“.
Bei den Arbeiten zum philosophischen Problem der richtigen Definition
von Begriffen und Kategorien wie „Kausalität“ und „Zufall“ fiel mir
auf, dass es anscheinend einen großen Bogen vom Positivismus, von dem
noch heute viele Naturwissenschaftler durchaus angetan sind, über den
Neopositivismus, etwa des Wiener Kreises, zur Entstehung von
Computersprachen gibt. Anscheinend hatte alles mit künstlichen Sprachen
zu tun sowie mit formaler und inhaltlicher bzw. dialektischer Logik.
Alle Programmiersprachen beruhen auf formaler Logik, eine inhaltliche
Logik ist ausgeschlossen; dies kann Software nicht. Deren Sprachbefehle
beruhen auf der Boolschen Algebra (Funktionen wie: und/oder/wenn -
dann/nicht etc.) und sind abstrakt formalisierbar. Als Beispiel mag
eine beliebige Suchma-schine für das Internet dienen: man möchte einen
bestimmten Begriff suchen, der einen ganz bestimmten Inhalt hat, dem
also eine Semantik zugrunde liegt; Suchmaschinen können aber nicht nach
Inhalten unterscheiden, sie kennen nur identische oder nicht-identische
Zeichenketten, im Programmier-Slang „strings“. Daher kommt es, dass
noch der kleinste Schreibfehler in einem Suchbegriff dazu führt, dass
er scheinbar nicht vorhanden ist.
Für eine Suchmaschine ist der Begriff "Mercedes" stets einfach nur
"Mercedes". Dabei kann es sich um diverse Autotypen handeln, einen
alten Firmennamen mit all den dabei noch möglichen Verwendungen (z.B.
Wertpapiere) oder um Personennamen. Und wahrscheinlich gibt es noch
weitere Bedeutungen. Indem der Suchbegriff um weitere Begriffe,
verknüpft mit Boolschen Operatoren, ergänzt wird, kann der Suchende
eine inhaltliche Eingrenzung vornehmen - doch das kann nur er, die
Suchmaschine selbst bleibt weiter "dumm".ii Es entsteht die sogenannte
„semantische Lücke“.iii Diese beschreibt den semantischen, also
bedeutungsbezogenen Unterschied zwischen zwei Beschreibungen eines
Objekts, der dadurch entsteht, dass verschiedene Repräsentationsformen
(Sprachen) dafür gewählt werden. Dieser in der Informatik verwendete
Begriff wird im Allgemeinen dort deutlich, wo ein Abbild des realen
Lebens in eine formale, maschinell verarbeitbare Repräsentation
übertragen werden muss. Um nun das Suchen im Internet verbessern zu
können, haben sich einige Wissenschaftler daran gemacht, das sogenannte
„Semantic Web“ zu entwickeln, den nächsten logischen Schritt nach dem
World Wide Web.iv Allerdings ist man von einer Abbildung der
natürlichen Sprachen im binären System noch weit entfernt. Immer ist an
einer kritischen Schnittstelle ein Mensch vonnöten, der den
semantischen Inhalt eines Begriffes zu deuten weiß, also weiß, in
welcher Richtung ein Computerprogramm weiterlaufen soll und das auch
„eingeben“ muss.
So waren es die Wissenschaftler des Wiener Kreises – abgesehen von
Leibniz, auf den die binäre Codierung (0-1) zurückgeht – die die
Voraussetzungen dafür schufen, dass Menschen überhaupt mit Maschinen
kommunizieren konnten. Dies waren wiederum die Voraussetzungen dafür,
dass „man“ in den 1960er Jahren Software entwickeln konnte, die im
Laufe der darauffolgenden Jahre und Jahrzehnte zu Programmen der
2-dimensionalen Rastererkennung (Auswertung von Röntgenbildern,
Magnetresonanz-Imaging und Steuerung von Cruise Missiles), Übersetzung
in und aus fremde(n) Sprachen (nicht nur Bedienungsanleitungen, sondern
auch Abhöraktionen der Geheimdienste und der Polizei),
Gesichtsfelderkennung (Einreise in die USA) und schließlich
„Gait-Recognition“ (Erkennung der Gangart eines Menschen) weiter
entwickelt wurden. Mit letzterem Programm, bilden sich die
Geheimdienste ein, könnte man Terroristen aus sicherer Entfernung an
ihrer Gangart erkennen. Diese ist – wie ein Fingerabdruck –
einzigartig, allerdings muß sie vorher ermittelt und als Vergleich in
einer Datenbank gespeichert worden sein – ebenfalls wie beim
Fingerabdruck oder einer DNA-Probe.
Die wissenschaftliche Entwicklung der entsprechenden, eben genannten
Programme vollzog und vollzieht sich innerhalb des enormen
Forschungsetats des nach 9/11 gegründeten Ministeriums „Homeland
Security“ (genauer: United States Department of Homeland Security,
DHSv), wie wir im folgenden Artikel sehen werden. Daher ist von einer
engen Zusammenarbeit dieser Behörden auszugehen.
Wenn man daher wirklich verstehen will, wie es zu dem NSA-Debakel kam,
muß man den philosophischen Hintergrund berücksichtigen, der zur
Entstehung von Computer-programmen geführt hat. So stringent man
Positivismus wie Neopositivismus auch kritisieren kann, so stringent
sind diese Denkweisen, die hochgradig ideologieanfällig sind, wie
gesagt, die Voraussetzung für jedwede Art von Software gewesen.
Allerdings zeigt die Kritik, in welcher Begrenztheit jedwede Art von
Software eingeschlossen ist; da inhaltliche Logik nicht programmierbar
ist, allen Verfechtern der „Künstlichen Intelligenz“ zum Trotz, kann
Software auch keine „intelligenten“ Ergebnisse bzw. Lösungen von
Problemen produzieren. Das stört jedoch Geheimdienste wie die NSA
wenig; in schönstem und reinsten Reduktionismus glauben sie an die
Allmacht der technischen Mittel eher, als an die kreative Intelligenz
von Menschen.vi
Dabei ist die NSA nur einer der insgesamt 16 Geheimdienste der USA, wie
anläßlich der Umstrukturierung aller Geheimdienste mit einer
„Oberaufsicht“, dem Director of National Intelligence (DNI), James R.
Clapper (*1941), im Jahre 2010 auch in Deutschland bekannt wurde.vii
Obama selbst hatte den Militärstrategen und Vietnamkämpfer Clapper im
Juni 2010 vorgeschlagen und er wurde Anfang August 2010 vom
amerikanischen Senat bestätigt. Während der NSA-Affäre sagte er im Mai
vor dem Kongressausschuss für Nachrichten-dienste auf die Frage, ob die
NSA rechtswidrig Telefondaten US-amerikanischer Bürger sammle, das
stimme nicht.viii Jedoch veröffentlichte er dann weniger als einen
Monat später ein Dokument, welches das Gegenteil zugab – Metadaten von
Telefonanrufen und -geräten würden gespeichert und ausgewertet.ix
Obwohl in den Medien international der Rücktritt Clappers gefordert
wurdex und zu erwartende strafrechtliche Sanktionen diskutiert
wurdenxi, ist er nach wie vor im Amt.xii
„Halten sich die Geheimdienste für Gott?“, schrieb dann die FAZ am 09.
September 2013, und wähnte eine „Elite von digitalen Allsehern“, die im
Vorborgenen walte. Zu Recht macht der Autor, Frank Rieger, darauf
aufmerksam, dass der Kanzleramtschef Roland Pofalla in einem kleinen
Halbsatz zur Erklärung, der NSA-Skandal sei nun zu Ende, erkennen ließ,
dass es keinerlei politische Kontrolle über die Geheimdienste gebe. Er
zitierte aus einem NSA-Papier, das der deutschen Regierung helfen
sollte: „Die NSA hält sich an alle Abkommen, die mit der deutschen
Bundesregierung, vertreten durch ·die deutschen Nachrichten-dienste,
geschlossen wurden, und hat sich auch in der Vergangenheit stets daran
gehalten." Es wird deutlich, dass nicht etwa die Regierung hier
verhandelt, nein, die Dienste machen alles unter sich aus. Was genau
vereinbart wurde, welchen technischen Zugriff die NSA auf die Systeme
unserer Dienste sowie deutsche und europäische Datenströme erhalten hat
– das geht offenbar niemanden außerhalb des kleinen Zirkels der
Eingeweihten etwas an. Schon gar nicht die Politiker, die von den
Geheimdiensten immer als unzuverlässige Kantonisten angesehen werden.
Die Politik ist stets nur Zaungast der internationalen
Geheimdienstgeschäfte, dem Austausch von Abhörresultaten, Daten,
Zugangsmöglichkeiten oder Schnüffeltechnologien.xiii
Aber Abkommen hin, Abkommen her: ist nicht das Datenschutzgesetz gerade
deshalb entstanden, weil die Privatsphäre der Bürger geschützt werden
sollte? Erinnern wir uns an den Anlaß: die Volkszählung von 1983/87 und
das Grundsatzurteil des Bundesverfassungs-gerichts (BVerfG) vom
Dezember 1983! An dieser Stelle ist ein Blick ins Gesetz hilfreich: im
§ 1 Zweck und Anwendungsbereich des Gesetzes (Bundesdatenschutzgesetz,
BDSG) steht Folgendes:
(1) Zweck dieses Gesetzes ist es, den Einzelnen davor zu schützen, dass
er durch den Umgang mit seinen personenbezogenen Daten in seinem
Persönlichkeitsrecht beeinträchtigt wird.
(2) Dieses Gesetz gilt für die Erhebung, Verarbeitung und Nutzung
personenbezogener Daten durch 1. öffentliche Stellen des Bundes,
2. öffentliche Stellen der Länder, soweit der Datenschutz nicht durch
Landesgesetz geregelt ist und soweit sie
a) Bundesrecht ausführen oder
b) als Organe der Rechtspflege tätig werden und es sich nicht um
Verwaltungsangelegenheiten handelt, 3. nicht-öffentliche Stellen,
soweit sie die Daten unter Einsatz von Datenverarbeitungs-anlagen
verarbeiten, nutzen oder dafür erheben oder die Daten in oder aus nicht
automa-tisierten Dateien verarbeiten, nutzen oder dafür erheben, es sei
denn, die Erhebung, Verarbeitung oder Nutzung der Daten erfolgt
ausschließlich für persönliche oder familiäre Tätigkeiten.
Allein danach sind sämtliche Abhöraktionen auf deutschem Boden nicht
nur illegal nach dem BDSG, sondern sogar verfassungswidrig. Nur wenn
jeder Bürger, der abgehört werden will, sein Einverständnis erklären
würde, könnte er von deutschen Behörden abgehört werden.
Aber auch die amerikanischen Spionageaktionen sind illegal; in einem
bis heute gültigen Abkommen mit der UNO hat die USA sich verpflichtet,
keine verdeckten Aktionen zu unternehmen. In einem Fall habe die NSA
zudem den chinesischen Geheimdienst dabei ertappt, ebenfalls zu
spionieren. Daraufhin haben die NSA abgefangen, was zuvor die Chinesen
abgehört hatten.xiv Illegal sind auch Abhöraktionen mithilfe von
technischem Equipment, das auf den Dächern der Botschaftsgebäude, z.B.
in Berlin, installiert ist. Formal legal sind dagegen Abhöraktionen von
den USA oder England aus, wenn von dort der internationale Funkverkehr
abgehört wird.
Der Chefredakteur des „Guardian“, Alan Rusbridger, berichtete am 19.
August 2013 von einem „eher bizarren“ Vorfall, der sich einen Monat
zuvor im Keller des Redaktionsgebäudes zugetragen haben soll: der
britische Geheimdienst GCHQxv hatte zwei Mitarbeiter der Zeitung
gezwungen, Datensätze zu vernichten, die Edward Snowden ihnen kurz
zuvor zugespielt hatte. Die angebliche Begründung war, die
Informationen sollten nicht bei chinesischen Agenten landen. Als
Rusbridger im Vorfeld angerufen wurde, mußte er sich Folgendes anhören:
„Ihr habt Euren Spaß gehabt, jetzt wollen wir das Zeug zurück.“ Im
Verlauf dieser Aktion wurden dann ganze Notebooks geschreddert.
Ein weiterer Vorfall ereignete sich, als der Brasilianer David Miranda,
aus Berlin kommend, auf dem Flughafen Heathrow neun Stunden
festgehalten und dabei von sieben Sicherheits-beamten eingeschüchtert
und bedroht wurde; er konnte seinen Flug nach Rio de Janeiro erst einen
Tag später fortsetzen. Die Metropolitan Police berief sich auf den
„Terror Act 2000“; sein Partner Glenn Greenwald war nämlich der erste,
der über den Fall Snowden berichtet hatte und so stand Miranda offenbar
sogleich unter „Terrorismus-Verdacht“. Sein Handy und sein Laptop
wurden beschlagnahmt. Greenwald sagte in Rio, er wolle „jetzt erst
recht auspacken.“ Die britische Journalisten-Union bezeichnete die
Festnahme als „Mißbrauch des Gesetzes“.xvi
Ein ganz anderer Vorfall soll hier nicht unerwähnt bleiben, der zeigt,
wie anfällig derartige Überwachungssysteme schlicht und allein aufgrund
ihrer monströsen Größe für die Hardware-Ausstattung in Zukunft werden
könnenxvii: weil sie den weltweiten Internetverkehr noch effektiver
überwachen will, baut die NSA in Utah jetzt eine gigantische Anlage.
Der Start verzögert sich jedoch und die Eröffnung könnte sich um ein
Jahr verschieben. Dem Wall Street Journal liegen Dokumente vor, aus
denen hervorgeht, dass die Anlage in Utah von Stromschwankungen geplagt
sei. Die Ausfälle hätten Maschinen in Wert von mehreren Hunderttausend
US-Dollar vernichtet. Die Schwankungen bringen Metall zum
Schmelzen und sorgen für Explosionen, so das Wall Street Journal
weiter. Ein Mitarbeiter habe die Stromstöße als Blitze bemerkt.
Innerhalb von 13 Monaten habe es zehn Fälle gegeben. Eine
NSA-Sprecherin sagte der Zeitung, dass es in der Testphase technische
Probleme gab, die aber inzwischen eingedämmt seien. An den Ursachen
werde weiterhin geforscht, da Uneinigkeit darüber herrsche, ob die
Lösungsvorschläge funktionieren. Der Speicherplatz reicht dem
Bericht nach bis in den Bereich von Zettabytes. Wer sich das
vorstellen will: 36.000 Jahre lang HD-TV zu schauen, entspricht einem
Exabyte. Das Ganze multipliziert mit 1000, ergibt ein Zettabyte (1021
Byte).
Nur die Stromkosten eines so gigantischen Datenzentrums liegen
angeblich bei einer Million US-Dollar - pro Monat!
Doch nun zunächst zum ursprünglichen Teil dieser Arbeit.xviii
Ein kleiner, aber notwendiger Umweg – der Beginn mit reiner Philosophie
Wittgenstein und der Wiener Kreis
Zu Beginn des 20. Jahrhunderts war Wien, nach Karl Kraus eine
„Versuchsstation für Weltuntergänge“, mit seinem anregenden geistigen
Klima in Philosophie, Mathematik, Physik, Psychoanalyse und den Künsten
eines der kulturellen Zentren der europäischen Moderne.
Das Mathematische Institut der Universität Wien war neben denen in
Göttingen und Warschau in den Disziplinen Mathematik und Logik führend;
hier lehrten u.a. als ordentliche Professoren Philipp Furtwängler
(1869-1940), der von Göttingen (Fritz Klein) kam, und der Österreicher
Hans Hahn (1879-1934). Hahn leistete wichtige Beiträge zur
Variationsrechnung, Mengentheorie, Topologie und der Theorie der
reellen Funktionen; sein Arbeitsgebiet war die Funktionenanalyse.
1922 wird Moritz Schlick (1882-1936) auf den Lehrstuhl für Philosophie
der induktiven Wissenschaften berufen, den zuvor Hahns Lehrer Ernst
Mach innehatte. Der Physiker, Professor für Mechanik, und
Hobby-Philosoph Ernst Mach (1838-1916) vertrat einen dezidierten
Positivismus, der sich insbesondere durch seine Auffassung ausdrückte,
dass Ursache und Wirkung nur im menschlichen Bewußtsein existierten:
„In der Natur gibt es keine Ursache und keine Wirkung.“xix Damit wird
auf eine Erklärung der Naturerscheinungen vollkommen verzichtet und das
von einem Physiker! Die Aufgabe der Wissenschaft sei es lediglich,
diese zu beschreiben. Hierfür brauche man nicht den Begriff der
Ursache. Außerdem existiere die Welt nur in Form von „Empfindungen“ und
nur von diesen wüsste man.xx Da nimmt es nicht wunder, dass Mach auch
die bedeutendsten Theorien der Neuzeit ablehnte: „Ich kann die
Relativitätstheorie ebensowenig akzeptieren, wie ich die Existenz von
Atomen und anderen solchen Dogmen akzeptieren kann.“xxi
Hans Hahn gehörte zu einer kleinen Gruppe von Gelehrten, die von Machs
Positivismus beeinflußt waren und sich einmal wöchentlich in einem
Wiener Kaffeehaus trafen. Obwohl Schlick als Führer der Gruppe galt,
war es Hahn, der das Interesse der Mitglieder auf die Logik richtete.
1924 installierte Schlick ein formelles Kolloquium, das sich jeden
Donnerstagabend im Hinterhaus des Instituts für Mathematik in der
Boltzmanngasse traf. Das waren die Anfänge des Wiener Kreises, benannt
nach einem Manifest, das 1929 von Rudolf Carnap, Otto Neurath, einem
utopischen Sozialreformer, und Hans Hahn veröffentlicht wurde.
Zugang zu den Sitzungen erhielt man nur durch Einladung. Zur engeren
Gruppe gehörten auch der Physiker Philipp Frankxxii oder der
Mathematiker Karl Mengerxxiii; zum erweiterten Kreis u.a. Egon und Else
Frenkel-Brunswick, die später in den USA mit drei anderen Autoren,
darunter Adorno, die Studie „The Authoritarian Personality“
verfasste.xxiv 1926 besuchte der Physik- und spätere Mathematikstudent
Kurt Gödel (1906-1978) die Sitzung zum ersten Mal, als sich der Wiener
Kreis mit einer zweiten Lesung des Tractatus von Wittgenstein
beschäftigte. Hans Hahns Schüler Kurt Gödel nahm bis 1928 regelmäßig
teil, einige Male auch der Student Heinz von Foerster (1911-2002), der
später in den USA als Sekretär der Macy Konferenzen bekannt wurde.
Schon wenig später, nämlich 1930, wird Gödel seine
Unvollständigkeitssätze vorlegen, die 1931 publiziert werden. Damit
werden nicht nur heftige Diskussionen im Wiener Kreis hervorgerufen,
sondern es wird auch das mathematische Weltbild der Mechanisten, als
deren Vertreter Hilbert gelten kann, in Frage gestellt.xxv Rudolf
Carnap (1891-1970) kam auf das Betreiben Hahns 1926 als Privatdozent
für Philosophie nach Wien, und wurde sofort zu den Sitzungen des Wiener
Kreises eingeladen. Carnap hielt Vorlesungen über die philosophischen
Grundlagen der Arithmetik, die auch Gödel besuchte.xxvi
Carnap erarbeitete bis zu Beginn der 1930er Jahre die Ideen des
logischen Empirismus und wendete den Apparat der mathematischen Logik
auf die Analyse der Begriffe und die Axiomatisierung einzelner Theorien
an. In einer zweiten Etappe bis 1936 – der syntaktischen – konstruierte
Carnap die logische Sprache eines erweiterten Prädikatenkalküls.xxvii
Er stellte die These auf, dass die Logik der Wissenschaft die Syntax
der Sprache der Wissenschaft sei. In seiner dritten Periode, die zwei
bis drei Jahre später begann, befaßte sich Carnap mit Problemen, die
mit der Konstruktion einer Universalsprache der Wissenschaft
zusammenhängen. Er untersuchte die Semantik, d.h. die Beziehung
zwischen einer Sprache und dem von ihr beschriebenen Bereich von
Gegenständen, und beschäftigte sich mit der Konstruktion künstlich
interpretierter Sprachen.xxviii
Für Martin Heidegger (1889-1976) waren Carnap und die Mitglieder des
positivistischen Wiener Kreises, in dem die Fundamente für die an
formaler Logik und Wissenschaftstheorie interessierte analytische
Tradition gelegt wurden, dagegen Leute, die angeblich die Strenge der
Forschung mit Exaktheit, Wahrheit mit Wissenschaft und Denken mit
Rechnen verwechselten. „Hier“, nämlich in Carnaps Aufsatz von 1929 in
der Zeitschrift Erkenntnisxxix, „vollzieht sich die äußerste
Verflachung und Entwurzelung der überlieferten Urteilslehre unter dem
Schein mathematischer Wissenschaftlichkeit“, so Heidegger.xxx Carnap
dagegen hielt – wie der Wiener Kreis – am besonderen Status der
Wissenschaft für die Wahrheitssuche fest.xxxi
Vor allem Otto Neurath war es, der die programmatische Schrift
„Wissenschaftliche Weltauffassung: Der Wiener Kreis“ verfasste, die den
Charakter eines politischen Manifestes hatte und damit Kontroversen
über den Inhalt bei den übrigen Mitgliedern des Wiener Kreises
provozierte, denen die Schrift zu sehr politisches Manifest war. Einig
aber war man sich bei den Mitgliedern des Wiener Kreises im Unbehagen
darüber, dass „die Philosophie“ im Gegensatz zu den Naturwissenschaften
wenig Erfolg in der Lösung von Problemen im Bereich der Metaphysik
hatte.xxxii
Man war der Überzeugung, dass im Rahmen eines klar formulierten
Empirismus solche Probleme mittels an neuer mathematischer Logik
orientierten, analytischen Methoden gelöst werden könnten. Zu dieser
Überzeugung gehörte die Auffassung, dass alle Aussagen über die Welt
durch Beobachtungssätze überprüfbar sind – alle empirischen Begriffe
seien auf elementare Beobachtungsbegriffe rückführbar. Eine
„Meta-Mathematik“ für die Aufklärung des Wesens des Unendlichen schien
notwendig. Behauptet wurde ein „zusammenhängender Mechanismus“, der
sowohl in der Natur als auch im Denken zu finden sei.
Durch das Aufstellen logischer Systeme hoffte man auf Sicherheit und
geordnete Verhältnisse in Mathematik, Physik und Philosophie, aber auch
auf die Möglichkeit, „Weltgesetze“ aufzustellen. Das bedeutete die
Anwendung von Logik für alle Wissenschaften, aber auch für die Künste,
z.B. die Musik. Man wollte in einer sogenannten „Einheitswissenschaft“
„Systeme“ entwickeln, auf deren Grundlage man kommunizieren und die
Welt beschreiben konnte.
Alle Anhänger einer solchen „wissenschaftlichen Weltauffassung“ waren
sich einig in der Ablehnung der offenen Metaphysik und der versteckten
des Apriorismus. Der Wiener Kreis aber vertrat darüber hinaus die
Auffassung, dass auch die Aussagen des (kritischen) Realismus und
Idealismus über Realität oder Nichtrealität der Außenwelt und des
Fremdpsychischen metaphysischen Charakters sind, da sie denselben
Einwänden unterlägen wie die Aussagen der alten Metaphysik; sie seien
sinnlos, weil nicht verifizierbar. Etwas ist „wirklich“ dadurch, dass
es dem Gesamtgebäude der Erfahrung eingeordnet wird. Es gibt kein Reich
der Ideen, das über oder jenseits der Erfahrung stünde.xxxiii
Im Wiener Kreis ging es um die Vision einer “universalen Weltsprache“,
die Leibniz´ Traum von einer Kunstsprache sowie eines rationalen
Kalküls (lingua characteria und calculus ratiocina) weiterführte:
logisch, mathematisch, präzise, mit der man sich sowohl transnational
verständigen konnte, als auch mit Maschinen, und in der auch Maschinen
mit Maschinen ‚sprechen‘ konnten. Das sollte eine Zeichen- und
Bildsprache sein, deren Vorbild „Basic English“ war und deren abstrakte
Zeichen- und Symbolketten mit mechanisierten Ableitungen Jahrzehnte
später mit den Computersprachen Wirklichkeit wurde. Nicht von ungefähr
heißt eine modernere, noch gebräuchliche Programmier-sprache „Basic“.
Logik gegen Metaphysik und „Deutsche Physik“
Die neuen Arbeitsmethoden sollten auf neuer Logik, Mathematik,
Physik und Interdisziplinarität basieren. Der Einzelne arbeitet an
seiner bestimmten Stelle innerhalb der einen Gesamtwissenschaft. Einig
war man sich in der Ablehnung von Religion und Metaphysik (etwa der des
deutschnationalen Dichters Othmar Spann oder des bereits erwähnten
Martin Heidegger). Im NS-Deutschland hinwiederum wollte man von diesen
Auffassungen, der „analytischen, hermeneutischen und positivistischen
Philosophie“, offiziell nichts wissen. Diese wurden als „Vorstellungen
von einer Meß- und Zählbarkeit der Welt“ und als „rein
formalistisch-rechnerisches Denken, das Kalkül nicht als Hilfsmittel,
sondern als die Sache selbst, als ein Absolutum nimmt“, abgelehnt - im
Gegensatz etwa zum „deutschen schöpferischen Denken“.
Der Wiener Kreis bedeutete für die Vertreter der „deutschen
Wissenschaft“ jüdische Philosophie, Physik und Mathematik: „Der Jude
ist ein A-metaphysiker, und liebt in der Philosophie den Logizismus,
den Mathematismus, den Formalismus und Positivismus“. Ein Vertreter der
„deutschen Wissenschaft“ ist der Physiker Phillip Lenard (1862-1947),
Professor in Heidelberg. Schon 1922 fordert er in einem Manifest „mehr
arische Wissenschaft“ und polemisiert speziell gegen Albert Einstein.
1936 erschien sein vierbändiges Werk „Deutsche Physik“, in dem er zum
Kampf für eine deutsche Physik aufforderte – gegen jüdische Tendenzen
in der deutschen Wissenschaft, gegen das „Dogmatische, die
mathematische Abstraktion, den Mangel an Nutzen und
Geistesakrobatik“.xxxiv
Nach der Machtübernahme der Nationalsozialisten in Österreich
emigrierten viele Wissenschaftler, darunter auch Mitglieder des Wiener
Kreises wie Carnap, Neurath, Frank und Morris. Gödel emigrierte 1940
nach Princeton, an das neugegründete Institute for Advanced Study, das
1930 von Caroline Bamberger Fuld, Louis Bamberger und Abraham Flexner
gegründet wurde. Hier traf Gödel u.a. auf den ungarischen Mathematiker
John von Neumann (1903-1957)xxxv und Albert Einstein. Carnap emigrierte
1935 ebenfalls in die USA, zunächst nach Chicago und später nach
Kalifornien an die UCLA (University of California Los Angeles).
Die Idee der „Einheitswissenschaft“ und einer „Einheitssprache“ wird
nach der Emigration aber durch Einbeziehung in die Kriegsforschung
während des Zweiten Weltkriegs verändert. Sie erhält einen neuen
„Kick“, vor allem durch den amerikanischen Pragmatismus und dessen
praktische Anwendung im Krieg, aber auch durch das System der
Kommerzialisierung im amerikanischen Wissenschaftsbusiness.
Das Ende des Wiener Kreises, Kritik des Neopositivismus und
die Entwicklung der Computersprachen
Das, was man sich damals in den 1930er Jahren in Wien zurechtgelegt
hatte, wie man Wissenschaft organisieren soll, ist in den 1950er und
1960er Jahren zu Ende. In den USA beginnt man, mit ganz starker
europäischer Beteiligung in den späten 1940er und dann 1950er Jahren,
Interdisziplinarität anders zu sehen und zu organisieren. Die Idee
einer interdisziplinären „Systemtheorie“ kommt auch sehr intensiv über
eine ältere Wien-Verbindung, nämlich durch Ludwig von Bertalanffy, der
später in den 1950er Jahren zusammen mit anderen in den USA die
Gesellschaft für „General Systems Theory“ gründete. Er war der erste,
der die Idee von Fließgleichgewichten in natürlichen, also biologischen
Systemen entwickelte und so zur thermodynamischen „steady-state-theory“
wesentlich beitrug, lange vor Ilya Prigogine.
Eine weitere Plattform für diese Entwicklung sind die Macy-Konferenzen
zu verschiedenen wissenschaftlichen Themen, z.B. zu Kybernetik.xxxvi
Es werden aber nicht nur diese Systemsprachen entwickelt, sondern
beispielsweise auch zirkuläre „Feedback-Modelle“, die nicht nur in der
Technik und in der neuen Kommunikationstechnologie relevant sind,
sondern die auch in die Naturwissenschaften, die Sozialwissenschaften,
ja, eigentlich in alle Einzelwissenschaften Eingang finden sollten, wie
ihre Vertreter meinten. Neben Norbert Wiener ist der Neurophysiologe
und Kybernetiker Warren McCulloch (1898-1969) die große Figur der
1940er-60er Jahre für diese Themen. Beide sind die Organisatoren und
Koordinatoren der Macy-Konferenzen über Kybernetik.
Über eine allgemeine und einheitliche Sprache von Systemdarstellungen
sollte nun auch der Soziologe, der Mediziner oder der Techniker seinen
Gegenstandsbereich als „systemisch“ beschreiben können.
Die Macy-Konferenzen über Systemtheorie versuchten zu klären, was ein
System ist, dass ein System aus einer bestimmten Anzahl von Komponenten
besteht und dass diese Begrifflichkeit und der formale Ansatz sich fast
zwanglos in allen Disziplinen anwenden lassen würden: in einem
„sozialen System“, „ökonomischen System“ oder „psychischen System“ usw.
Dazu kam ein dritter Punkt: zur Bewegung mit „Systemsprachen“,
kybernetischen „Modelleinheiten“ und der Kybernetik als der neuen
Leitwissenschaft von Kontroll- und Kommunikationsprozessen kamen eine
neue Architektur von Rechnern sowie vielfältige neue Möglichkeiten des
„Berechnens“ und der mathematischen Darstellung dieser Modellwelten.
Dieser dritte Bereich wurde für verschiedenste Richtungen wichtig, z.B.
für die künstliche Intelligenz (KI oder Artificial Intelligence = AI),
die Mitte der 1950er Jahre aus der Taufe gehoben wurde und sich mit
entsprechenden Tagungen, Gesellschaften, Programmen und Förderungen,
z.B. am M.I.T. (Massachusetts Institute of Technology, Marvin Lee
Minsky, *1924, übrigens ein Schüler Alan Turings) organisiert.xxxvii
Damit befand man sich schon mitten im Neopositivismus. Dessen Grenzen
sollen im Folgenden zunächst aufgezeigt werden; obwohl philosophisch
grundlegend kritisierbar, muss man dennoch festhalten, dass diese
Ideologie auf der hier geschilderten Entwicklungsstufe für die
Konstruktion von Computersystemen unerläßlich gewesen ist. Ohne die
schon genannten Mathematiker und jemanden wie John von Neumann, der
später maßgeblich an der Konstruktion der Wasserstoffbombe beteiligt
war, wäre es nicht möglich gewesen, Programmiersprachen überhaupt zu
entwickeln. Gleichzeitig zeigen die folgenden Ausführungen, wie
begrenzt die positivistische Auffassung geistiger Prozesse ist. Aber
wir wollen der Kritik der neueren, vergeblichen Bestrebungen, an den
hartnäckig widerkehrenden Behauptungen, man könne ein Gehirn mit Hilfe
oder in Form eines Computersystems „nachkonstruieren“, nicht
vorgreifen. Dabei werden wir auch sehen, dass die „Macher“ von
computergestützten Systemen zur Überwachung von menschlichen
Bestrebungen unter dem Deckmantel „Terrorismusbekämpfung“ sich keinen
Deut darum scheren, ob dem Positivismus, falls sie von diesem überhaupt
etwas gehört
haben sollten, irgendein Wahrheitsgehalt zukommt oder nicht, solange er
sich instrumentalisieren läßt. Auf diesem Hintergrund bekommt der
Positivismusstreit à la Habermas, Hans Albert u.a. eine ganz andere
Bedeutung.
Die verschiedenen Ausgestaltungen bzw. Varianten des Neopositivismus
sind im Grunde genommen in Wittgensteins Tractatus logico-philosophicus
von 1918/21 vorweggenom-men und in ihrem Kern in wenigen seiner Sätze
zusammengefaßt: „Die Gesamtheit der wahren Sätze ist … die Gesamtheit
der Naturwissenschaften. Die Philosophie ist keine der
Naturwissenschaften. Der Zweck der Philosophie ist die logische Klärung
der Gedanken. Die Philosophie ist keine Lehre, sondern eine Tätigkeit.
Das Resultat der Philosophie sind nicht ‚philosophische Sätze’, sondern
das Klarwerden von Sätzen“.xxxviii
Später wird Schlick formulieren: „Es ist das eigentliche Geschäft der
Philosophie, den Sinn von Behauptungen und Fragen zu suchen, und
klarzumachen. … Der Sinn jedes Satzes wird in letzter Linie ganz allein
durch Gegebenes bestimmt und schlechterdings durch nichts
anderes.“xxxix
Genauer betrachtet, werden im Neopositivismus in eklektischer Weise
verschiedene Philosophierichtungen aufgenommen. Mal ging es darum, wie
immer in der professoralen Auseinandersetzung an den Hochschulen,
möglichst originell zu sein, oder es ging darum, die dialektische
Denkweise zu vermeiden – seltener aus völliger Unkenntnis der
Hegelschen Philosophie, die ja auch nicht zu den leichtesten gehört –,
häufiger aber aus Angst, unmittelbar, meist sogar, ohne es zu wissen,
in die Auseinandersetzungen des Kalten Krieges an den Universitäten zu
geraten und möglicherweise dabei seine Stellung zu verlieren oder sie
gar nicht erst antreten zu können.
Für den Wiener Kreis kann man sagen, dass er einen radikalen
Physikalismus vertritt, der – obwohl grundlegend kritisiert – bis in
die heutige Zeit hinein wirkt. Zudem kann man zwei weitere
Feststellungen machen, die diese Einschätzung zusätzlich unterstützen:
1. die Ansichten bei einigen Vertretern ändern sich mit der Zeit, und
2. gehen häufig die Institute der jeweiligen prominenteren Vertretern,
wie bei von Foerster, mit der Pensionierung oder dem Ableben ihrer
Direktoren zugrunde oder werden nicht mehr weitergeführt. Im Falle von
Heinz von Foerster wurde sogar das Institutsgebäude an der University
of Illinois abgerissen.xl Und schließlich: der ganze Wiener Kreis ist
im Grunde am Ende, als Friedrich Albert Moritz Schlick von einem
ehemaligen Studenten, Dr. Hans Nelböck, am 22. Juni 1936 kurz vor
Beginn seiner Vorlesung erschossen wird. Nelböck war ein rechtsextremer
Psychopath, der wegen Morddrohungen gegen Prof. Schlick schon zweimal
in eine Psychiatrische Anstalt eingewiesen worden war. Er wurde wegen
des Mordes zwar verurteilt und zu 10 Jahren „Kerkerhaft“ inhaftiert,
aber nach dem „Anschluß“ Österreichs 1938 schnell wieder auf freien Fuß
gesetzt.
Die Vertreter des Neopositivismus behaupten, dass ihnen allen nur eins
gemeinsam ist: eine „streng wissenschaftliche“ Haltung in der
Philosophie, die durch systematische Anwendung der modernen
mathematischen Logik erreicht werden soll. So wird der gesamte
Erkenntnisprozess auf die Logik reduziert. Das positive Element aber
ist die dezidiert intendierte Überwindung der Metaphysik.
Paradoxerweise hält der Neopositivismus gerade und angeblich die
Überwindung des Empirismus für seine eigene, bedeutendste Leistung.
Neopositivisten erklären nämlich selbst, dass Mathematik und Logik
überhaupt nichts über die Wirklichkeit aussagen, dass sie wesentlich
inhaltsleer seien, lediglich Methoden zur Umformung von Sätzen
darstellen und daher a priori gelten. Die Proklamation dieser absoluten
Beziehungslosigkeit von Logik und Mathematik auf eine Serie
apriorischer Symbolreihen und deren Umformung in sich selbst führt
nicht über den primitiven Erfahrungsbegriff des traditionellen
subjektiv-idealistischen Empirismus hinaus; auch wird das eigentliche
Wesen von Mathematik und Logik gerade nicht erfaßt. Denn Mathematik und
Logik spiegeln in abstrakter, äußerst kompliziert und vielseitig bedingter
Form allgemeinste Beziehungen zwischen wirklichen Dingen und Klassen
wirklicher Dinge wider. Der Neopositivismus leugnet jedoch die Existenz
des Allgemeinen und damit auch die Klassen der Dinge und kann so den
Abstraktionsprozess, in dem die mathematischen und logischen Begriffe
generiert werden, nicht erklären. Damit kann auch der Erkenntnisprozess
nicht erklärt werden. Die gewaltigen Erfolge der Anwendung von
Mathematik und Logik in der menschlichen Praxis, in der zweckbestimmten
Veränderung und Nutzbarmachung der Wirklichkeit, werden unverständlich,
unerklärbar und letzten Endes mystifiziert. Die Anerkennung dieser
Erfolge, die auch der Neopositivismus nicht leugnen kann, bedeutet die
Verlegung der Wirklichkeit in die Logik, in das Denken, in das
Bewußtsein. (Und dort soll es auch bleiben!) Der Ansatz des
Neopositivismus, der angeblich der Überwindung des Empirismus dient und
eine wissenschaftliche Erklärung der Welt anbietet, wird nicht
konsequent zu Ende geführt, denn das würde den Zweck des Unternehmens,
den Schein der Wissenschaftlichkeit seiner Position zerstören sowie die
anti-dialektische Stoßrichtung offen hervortreten lassen.
Diese ideologische Funktion des Neopositivismus tritt unmittelbar in
der Erklärung zutage, dass alle Probleme in sämtlichen Wissenschaften,
die nicht lediglich mit den analytischen Mitteln der modernen
mathematischen Logik geklärt werden können, nur „Scheinprobleme“ seien;
wirklich ist laut dieser Auffassung nur das, was sich im Bereich
mathematischer Logik abspiele. Natürlich wird dann auch eine von
unserem subjektiven Bewußtsein unabhängige Realität geleugnet. Das ist
bei Foerster eindrucksvoll zu beobachten, wenn er in Interviews bei der
Erwähnung des Wortes „Realität“ süffisant fragt: „Wo ist die Realität?!
Wo ham Sie die?“xli Also werden Fragen, die diese Realität betreffen
und nicht in das neopositivistisch-formallogische Schema passen, als
„sinnlos“ bezeichnet.xlii Eigentlich ist damit gemeint, Neopositivisten
wollen solche Fragen nicht beantworten, weil sie nicht in ihr Schema
passen; die Antworten, die sie geben würden oder müßten, sind zu
offensichtlich falsch.
Nach Auffassung des Neopositivismus besteht die Aufgabe der Philosophie
nicht mehr in der Aufdeckung der allgemein objektiven Gesetzmäßigkeiten
der Wirklichkeit und des wirklichen Verhältnisses von Materie und
Bewußtsein, sondern lediglich in der logischen Analyse der
Begriffsbildung der einzelnen Wissenschaften. Die weltanschauliche
Funktion der Philosophie wird so auf Sprachphilosophie reduziert; damit
werden dann auch die Einzelwissenschaften von ihrer weltanschaulichen
Grundlage getrennt.
Nachdem der Neopositivismus alle wesentlichen Probleme, die in der
Geschichte der Philosophie jemals ein Rolle gespielt haben, als
„Scheinprobleme“ auf diese Weise hinweg eskamotiert hat, bleibt als
Gegenstand der Philosophie nur noch die logische Analyse der Sprache
übrig. Aber nicht etwa der konkreten, wirklichen Sprachen, sondern
„Strukturen möglicher Reihenordnungen beliebiger Zeichenelemente“.
Damit wird – ganz „logisch“ – schließlich auch noch die Sprache aus
ihren objektiven Bedingungen herausgelöst und im letzten Grund
irrationalistisch verabsolutiert. Die Herausarbeitung der Syntax
solcher „Reihenordnungen“ wird als die philosophische Hauptaufgabe
angesehen. Die Syntax einer solchen „Sprache“ sei die Struktur des
jeweiligen Darstellungssystems. Es wird behauptet, dass der Sinn eines
Satzes nicht durch die wirklichen Zusammenhänge, die er widerspiegelt,
festgelegt sei, sondern durch die Klasse der aus ihr ableitbaren,
nichtanalytischen Sätze. Da alle Sätze der Mathematik und der Logik
analytisch sind und sich aus ihnen daher auch nur weitere analytische
Sätze ableiten lassen, ergibt sich von neuem im Konkreten der Schluß,
dass Mathematik und Logik objektiv leer seien, d.h. nichts über die
Wirklichkeit aussagten. Q.e.d.
Die Sprache der Wissenschaften zerfalle – so die Neopositivisten – in
zwei Klassen von Sätzen, syntaktische und empirische. Syntaktische
Sätze sind Sätze über Zeichen, Zeichenreihen und deren Verknüpfung.
Es wird behauptet, man habe eine besondere Entdeckung mit der
Feststellung der Existenz von „quasi-syntaktischen“ Sätzen gemacht.
Diese Begriffsbildung geht vom Unterschied zwischen der Objektsprache
und der syntaktischen Sprache eines Gebietes aus. Die Objektsprache
handelt von Dingen, Eigenschaften und Beziehungen der Begriffe, Sätze
und Theorien über dieses Gebiet; die syntaktische Sprache handelt von
den logischen Beziehungen der Begriffe, Sätze und Theorien über dieses
Gebiet. Als „quasi-syntaktische“ Sätze bezeichnet der Neopositivismus
solche Sätze, die scheinbar der Objektsprache angehören, sich aber
tatsächlich in die syntaktische Sprache übersetzen ließen. So ließe
sich z.B. der Satz „Fünf ist eine Zahl“ in den syntaktischen Satz „Fünf
ist ein Zahlwort“ übersetzen. Damit sei der erste Satz als
„quasi-syntaktisch“ bewiesen. Seine Besonderheit bestehe darin, dass er
in „inhaltlicher“ Redeweise das ausdrücke, was der zweite in „formaler“
Redeweise sage. Die „quasi-syntaktischen“ Sätze handelten also nur
scheinbar von außerhalb der Sprache gelegenen Gegenständen.
Später mußten die Neopositivisten jedoch zugeben, dass die oben
genannte Art und Weise der Satztransformation den Sinn, den Inhalt und
den Charakter des Satzes ändert. Es traten daher neben die
syntaktischen Probleme auch semantische Probleme, bei denen das
Hauptgewicht auf der Bedeutung der Wörter und Sätze lag. Daraus wurde
aber nicht der Schluß gezogen, die Wörter, Begriffe und Sätze auf die
Wirklichkeit zurückzuführen, obwohl man nur so die oben erwähnten
Antinomien, semantische und logische, hätte lösen können; der
Neopositivismus gründete die logische „Wahrheit“ keineswegs auf die
Beziehungen zwischen Aussage und Wirklichkeit, sondern wieder nur auf
Regeln, nämlich semantische Regeln. Mit dieser Wendung und um die
Wissenschaftlichkeit aufrecht zu erhalten, wurde die semiotische
Analyse der Sprache der Wissenschaften zum Inhalt der Philosophie
erklärt. Einer solchen Analyse wurden nur drei Aspekte zugeschrieben:
der syntaktische Aspekt – die Syntax der Sprache –, der semantische
Aspekt (die „Bedeutung“ der Sprache) und der pragmatische Aspekt der
Sprache, also ihr Gebrauch.
Vor allem wurde diese Wendung von der Seite der Mathematik erzwungen,
also gerade auf dem Gebiet, von dem die Neopositivisten glaubten, es
für sich monopolisieren zu können. Eine Ironie der
Wissenschaftsgeschichte ist es, dass Gödel durch seine Forschungsarbeit
unwiderlegbar nachwies, dass ein rein syntaktischer mathematischer
Wahrheitsbegriff unbrauchbar ist, womit eine der ursprünglichen
Grundthesen der Neopositivisten widerlegt wurde.
Der wirkliche Gehalt des Übergangs von der Syntax zur Bedeutung der
Begriffe und Wörter wird dadurch bestimmt, wie diese „Bedeutung“
gewonnen wird. Solange die Bedeutung eines Wortes nur definitorisch auf
andere Wörter zurückgeführt wird, deren Bedeutung als feststehend
angesehen wird, wird das Problem nur von einem Wort oder Satz auf einen
anderen verschoben, und jede Erklärung wird tautologisch. In letzter
Instanz müssen aber die den Wörtern entsprechende Begriffe mit etwas
konfrontiert werden, das selbst nicht Begriff ist und sein kann. Dies
ist beim Neopositivismus eben nicht die objektive Realität, sondern das
unmittelbare Erlebnis, getreu dem Machschen Ansatz. Der erwähnte Rudolf
Carnap hat in diesem Sinne versucht, ein Konstitutionssystem der
Begriffe auf der Grundlage des „Erlebnisgegebenem“ zu entwickeln.xliii
Dabei behauptet er, dass sich alle Beziehungen auf Ähnlichkeiten
zwischen „Elementarerlebnissen“ zurückführen ließen; die
„Ähnlichkeitserinnerung“ sei die Grundrelation. In diesem System ließe
sich keine bewußtseinsunabhängige Realität konstituieren und es sei
daher „sinnlos“, von einer solchen zu reden.
Den Elementarerlebnissen entsprächen nun Elementarsätze von der
Gestalt: „Jetzt ist es hier so und so.“ Die Wörter seien wesentlich nur
hinweisend. Die „Wahrheit“ eines solchen Elementarsatzes sei zugleich
mit seinem Verstehen gegeben; die „Wahrheit“ allgemeiner Sätze sei eine
Funktion der „Wahrheit“ der Elementarsätze, die unter
diesen Satz fielen.
Da dies wegen des „Erlebnis“charakters aber nur für den Augenblick
gilt, in dem etwas wahrgenommen wird, haben die Aussagen solcher Sätze
keinen bleibenden Wert, und sie sind – logisch – dann auch nicht
beweisbar, wenn die Situation sich geändert hat bzw. einfach nur die
Zeit fortgeschritten und das Erleben nicht reproduzierbar ist. Also ist
der „Elementarsatz“ nicht in der Lage, die Bedeutung von Sätzen und
Wörtern wirklich zu begründen. Die Neopositivisten versuchten daher, an
Stelle des „Elementarsatzes“ den „Protokollsatz“ zu setzen, der eben
die zuletzt angegebene Form haben sollte. Jede allgemeine Aussage einer
Wissenschaft sollte dann dadurch verifiziert werden, dass aus ihr
„Protokollsätze“ abgeleitet würden, die dann ihrerseits mit
unmittelbaren Erlebnissen verglichen würden.
Die „Protokollsätze“ sollen unmittelbare Erlebnisse bezeichnen, aber in
ihnen sollen keine erst durch theoretische Verarbeitung der
Wahrnehmungen gewonnene Sätze enthalten sein. Wie solche Sätze jedoch
aussehen sollten, darüber gingen die Auffassungen weit auseinander.
Alle Versuche, solche „Protokollsätze“ für ein Fundament der
Wissenschaft aufzustellen, scheiterten denn auch. Die Neopositivisten
mußten den „Protokollsätzen“ die ihnen zugewiesene Qualität der absolut
gültigen, letzten Grundlage der Wissenschaft wieder entziehen.
Weitere Versuche, sich aus den Widersprüchen des subjektiven Idealismus
gegenüber der Wirklichkeit herauszuwinden, führten daher noch tiefer in
den Subjektivismus hinein, womit dann weitere Widersprüche auftraten.
Es entstand nämlich sogleich die Frage: wie muß man sich verhalten,
wenn ein solcher, subjektiv festgesetzter „Protokollsatz“ einer bereits
erarbeiteten und durch die Praxis als richtig bestätigten
wissenschaftlichen Theorie widerspricht? Gibt man die Theorie auf, so
gesteht man ein, dass die „Protokollsätze“ nicht die Grundlage der
Wissenschaft sind, sondern die auf die Wirklichkeit bezogene
Wissenschaft die Grundlage der „Protokollsätze“ ist. Dann würde man den
Weg zum Materialismus einschlagen. Das durfte jedoch nicht sein; also
beließ man es bei den Widersprüchen.
Durch den zweiten Weltkrieg wurde die Tätigkeit des Wiener Kreises
unterbrochen; danach gelangte der Neopositivismus als Analytische
Philosophie in den USA, England, den skandinavischen Ländern und in
Lateinamerika zu einigem Einfluß.
Deren sprachanalytische Richtung stützte und stützt sich vorwiegend auf
Ludwig Wittgenstein. Eine dritte, von der Analytischen Philosophie
nicht scharf zu trennende Strömung des Neopositivismus, die sich als
Neo-Empirismus bezeichnet, ist vor allem um die Neubelebung des
erkenntnistheoretischen Phänomenalismus sowie um die Verfeinerung des
positivistischen Verifikationsprinzips und dessen Anwendung in den
Sozialwissenschaften bemüht. Offen apologetischen und ausgeprägt
antikommunistischen Charakter nimmt der Neo-Emipirismus in Form des
sogenannten kritischen Rationalismus an (K.R. Popper, Hans Albert
u.a.).xliv
Der extrem antidialektische und wissenschaftsfeindliche Charakter des
Positivismus, wie er sich im Wiener Kreis herausgebildet hat, äußert
sich u.a. im Verharren auf der Ebene der Empirie und in der Scheu vor
theoretischen Verallgemeinerungen oder konsistenten weltanschaulichen
Interpretationen der einzelwissenschaftlichen Resultate. In der
Tendenz, bestimmte einzelne Objekteigenschaften, Denkabstraktionen oder
auch einzelwissenschaftliche Methoden zu verabsolutieren und
schematisch, gleichsam willkürlich, auf andere Gegenstands- bzw.
Erkenntnisbereiche zu übertragen, sind sich Positivisten wie
Neopositivisten und letztlich auch kritische Rationalisten einig.
Zum Problem der Sprache in der Quantenmechanik z.B. kann folgende,
anekdotenhafte Bemerkung Heisenbergs angeführt werden: in einem
Gespräch mit Niels Bohr ist die Rede von Begriffen, die bei der
Beschreibung von Experimenten vorkommen und „deren Anwendungsbereich
wir nicht genau angeben können.“xlv In diesem Zusammenhang kam
Heisenberg auf die Positivisten zu sprechen, über die er sich dezidiert
äußerte: „… ich habe einmal in einem Briefwechsel mit einem allzu
eifrigen Positivisten der Wiener Schule etwas anderes behauptet. Ich
hatte mich darüber geärgert, dass die Positivisten so tun, als habe
jedes Wort eine ganz bestimmte Bedeutung und als sei es unerlaubt, das
Wort in einem anderen Sinne zu verwenden. Ich habe ihm dann als
Beispiel geschrieben, dass es doch ohne weiteres verständlich sei, wenn
jemand über einen verehrten Menschen sagt, dass das Zimmer heller
werde, wenn dieser Mensch das Zimmer betrete. Natürlich sei mir klar,
dass das Photometer dabei keinen Helligkeitsunterschied registrieren
würde. Aber ich wehrte mich dagegen, die physikalische Bedeutung des
Wortes >hell< als die eigentliche zu nehmen und die andere nur
als die übertragene gelten zu lassen.“xlvi
Von positivistischer Logik zur Kriegsforschung – ARPANet als
Vorläufer des Internet und DARPA als militärische Operationalisierung
von Grundlagen-forschung
Historisch war es also die Kombination von Logik – Denken –
Kognitionsprozessen, allerdings undialektisch, d.h. ohne Widersprüche,
aus der schließlich eine neue Generation von Computern hervorging.
Dafür waren Systemtheorie und abstrakte Sprachen nötig, mit denen an
der Schnittstelle Mensch – Maschine kommuniziert werden konnte und
Prozesse oder Dinge dargestellt werden konnten, die sich sprachlich
oder über Tabellen nur schwer vermitteln lassen. Der Mensch mußte sich
den Erfordernissen der abstrakten, formalen Logik der Rechenmaschinen
unterordnen.
Am 9.1.1958 fordert US-Präsident Dwight D. Eisenhower (1890-1969) in
seiner Rede „Zur Lage der Nation“xlvii eine Konzentration der
Anti-Missile und Satellitentechnologie innerhalb des Department of
Defense unter dem Aspekt beschleunigter Verteidigungsanstrengungen. Die
Bedrohung der Welt ging für Eisenhower ganz simpel von der Sowjetunion
aus: „The threat to our safety, and to the hope of a peaceful world,
can be simply stated. It is communist imperialism.”xlviii Schließlich
gründete Eisenhower am 7. Februar 1958 die „Advanced Research Projects
Agency“ (ARPA), eine Forschungsabteilung des Pentagon, die eindeutig
als Reaktion auf den sowjetischen Sputnik 1 zu verstehen ist.
Die ARPA besaß jedoch keine eigenen Forschungseinrichtungen. Die von
ihr initiierten Projekte wurden an Universitäten oder zivilen
Forschungsinstituten durch ausgewählte Vertragspartner durchgeführt.
Unter dem Direktor der ARPA (1961) Jack P. Ruina wird das „Command and
Control Project“ zur Sammlung, Auswertung und Beurteilung strategischer
Daten mit Hilfe von Computern gestartet. 1962-1964 wird Joseph C.R.
Licklider auf Wunsch der ARPA dessen Direktor. Licklider kam vom
Lincoln Lab des MIT, wo er im „Psychoacoustic Laboratory“ tätig war,
einer speziellen Forschungsrichtung der Informationswissenschaften.
Licklider verfasst 1963 das „Memorandum to Members and Affiliates of
the Intergalactic Network“, wo er den Mitgliedern des Intergalaktischen
Netzwerkes, dem Vertragspartner der ARPA, seine Visionen für ein
künftiges Computernetzwerk mitteilt.
1964-1965 wird Ivan Sutherland, der ebenfalls vom MIT kam, Direktor der
ARPA. 1966-1969 wird sein Assistent bei der ARPA, Robert Taylor, neuer
Direktor des Information Processing Techniques Office (IPTO), das zur
ARPA gehört.xlix
Das IPTO steckte Forschungsgelder in fortgeschrittene Computer- und
Netzwerktechnologien und beauftragte dreizehn Forschergruppen mit
technologischen Projekten, die mit Mensch-Computer-Interaction und
verteilten Systemen zu tun hatten. Jeder Gruppe wurde ein Budget zur
Verfügung gestellt, das dreißig- bis vierzigmal größer war als eine
normale Forschungsförderung für ein Projekt. Es wurde komplette
Geheimhaltung über ihre Verwendung verlangt und der Zugang zur
state-of-the-art Technologie wurde über folgende Institutionen
organisiert:
Carnegie-Mellon University
MIT RAND Corporation
Stanford Research Institute System Development Corporation
University of California in Berkeley, Santa Barbara, und Los Angeles
University of South Carolina
University of Utah.
1966 wird Charlie Hertzfeld neuer ARPA-Direktor. Robert Taylor benötigt
für sein 1966 begonnenes Netzwerk einen Leiter und holt Lawrence
(Larry) G. Roberts vom Lincoln Laboratory des MIT. Dafür hatte ihm
Hertzfeld eine Million Dollar Budget versprochen, wenn er den Aufbau
eines verteilten Kommunikationsnetzwerks organisieren könne. Roberts
wollte erst nicht, aber schließlich kam er als ARPA IPTO
Chef-Wissenschaftler im Dezember 1966, nachdem ein wenig Druck ausgeübt
worden war. Roberts begann sofort mit der Arbeit an einem Systemdesign
für ein “wide area digital communications network”, sozusagen das erste
WAN, das schließlich zum ARPANet führte. 1967 stellt Roberts den ersten
Netzwerkplan eines „circuit-switching“ Netzwerks. 1968 erfolgt die
erste Ausschreibung für das ARPANet. 1969 werden Rechner an der UCLA,
am Stanford Research Institute u.a. implementiert und miteinander
vernetzt; im selben Jahr noch zieht ARPA nach Arlington, Virginia um.
Die erste öffentliche Vorführung in Washington DC war dann 1972 – es
gelang den Entwicklern, aus der Rechenmaschine Computer das
Kommunikationsmedium Computer zu entwickeln: ein Netzwerk vorwiegend an
mit Militär verbundenen Universitäten sowie Firmen wie MITRE und Rand
Corporation, „der einflußreichsten ‚Denkfabrik‘ des Kalten Krieges“.l
Von dieser erhielt z.B. der Hegel-Philosoph Gotthard Günther
(1900-1984) jahrelang Forschungsgelder.li
Ebenfalls 1972 wird ARPA umbenannt in DARPA, wobei das D für „Defense“
steht. 1974 entwickeln Bob Kahn und Vint Cerf das
Internet-Netzwerk-Verfahren TCP, eine Art standardisierte Vorschrift,
die für die Kommunikation zwischen den Netzwerken unerläßlich ist und
noch heute so genannt wird.lii 1975 geht die Netzwerkverwaltung des
ARPANet von der DARPA an die DCA („Defense Communication Agency“ des
Verteidigungsministeriums) über, die Bedarf angemeldet hat; man will
ein von den üblichen Kanälen unabhängiges Netz, um im Falle eines
Atomkrieges weiter kommunizieren zu können. Die weiteren Stationen
sind: 1983 Splitting von ARPANet und MILNET, das in das DEFENSE DATA
NETWORK integriert wird. 1989 werden die Reste des ARPANet abgebaut und
demontiert, 1993 wird DARPA unter der Clinton-Administration wieder
umbenannt in ARPA, 1996 erneut umbenannt in DARPA.liii
9/11 oder: Orwell läßt grüßen
Um die Geschichte des DARPA vollends würdigen zu können und um zu
sehen, wie schmal der Grat zwischen „reiner“ Wissenschaft und ihrer (in
diesem Fall mißbräuchlichen) Anwendung ist, muß man sich ansehen, was
heute daraus geworden ist. Es steht nämlich in unmittelbarem
Zusammenhang mit 9/11 und ist bereits vor einigen Jahren in einem
isländischen Kriminalroman verarbeitet worden.liv Auch in den
amerikanischen Romanen von David Baldaccilv bilden die jetzt zu
erwähnenden Szenarien den politischen Hintergrund, auf dessen Boden
dubiose Gestalten mehrerer der insgesamt 16 staatlichen Geheimdienste
der USA auftreten.
Nach den terroristischen Anschlägen auf das World Trade Center in New
York setzte in den USA eine rasante, antidemokratische Entwicklung ein,
die mit der hastigen Verabschiedung des Patriot Act begann. Dies
geschah in so großer Eile, dass einige Abgeordnete später zugaben, den
Gesetzestext erst hinterher gelesen zu haben, als es zu spät war, noch
etwas zu ändern.lvi Dieses als Anti-Terror-Maßnahme gemeinte Gesetz
bedeutet verschiedene Einschränkungen der bürgerlichen Rechte; u.a.
ermöglicht es, eine Person allein aufgrund des Verdachtes einer
möglichen Bedrohung öffentlicher Interessen festzunehmen und für
unbegrenzte Zeit einzusperren, ohne Anklage zu erheben, ohne den
Angehörigen mitzuteilen, wo und aus welchen Gründen der Betreffende
gefangen gehalten wird, und ohne dass der Verdächtigte einen Anwalt
bekommt.lvii Viele amerikanische Rechtsphilosophen sehen dies als einen
eindeutigen Verstoß gegen die verfassungsmäßigen Rechte der Bürger an.
Der oberste Gerichtshof der USA bestätigte jedoch dieses Gesetz und die
Verfahrensweise. Besonders schlimm wird es, wenn Militärbehörden
erklären, dass eine Person ein feindlicher Soldat oder eine Person
außerhalb von Recht und Ordnung (unlawful combatant) ist, wie z.B. die
Gefangenen in Guantánamo auf Kuba, denn dann werden dieser Person
augenblicklich sämtliche Rechte genommen, egal welcher Nation er
angehört.lviii
Ein Projekt, das von der DARPA gegründet wurde, war das Information
Awareness Office (IAO). Aufgabe des IAO war es, innerhalb einer
Datenbank alle verfügbaren Merkmale der Bürger der USA zu erfassen, zu
durchsuchen und diese später auf verdächtige Muster hin auszuwerten.
Dass eine solche Datenbank immens groß sein würde, konnte man
voraussehen. Das Unternehmen sollte vor allem dem Schutz vor
Terrorismus dienen. Die Behörde selbst gab ihre Aufgabe wie folgt an:
„The DARPA Information Awareness Office (IAO) will imagine, develop,
apply, integrate, demonstrate and transition information technologies,
components and prototype, closed-loop, information systems that will
counter asymmetric threats by achieving total information awareness
useful for preemption; national security warning; and national security
decision making.“
Anfangs wurde das IAO von Präsident Bush unter dem Namen Total
Information Awareness zu Beginn 2002 ins Leben gerufen. Zum Leiter der
Behörde wurde John Poindexter bestellt, der unter anderem durch die
Iran-Contra-Affäre bekannt ist.lix
Die erste öffentliche Information war am 13. Februar 2002 in der New
York Times zu lesen.lx Zu diesem Zeitpunkt war noch sehr wenig über die
Ziele der neu geschaffenen Behörde bekannt. Allein die Tatsache aber,
dass man Festplatten in Petabyte-Größe benötigen würde, sorgte für
starke Verwunderung und Überwachungsängste.lxi
Bürgerrechtsorganisationen, wie die Electronic Frontier Foundation in
San Francisco (EFF), protestierten wegen der ‚Orwellschen‘ Absichten
und wegen der Vergangenheit von Poindexter gegen diese Behörde.
Die Mission des IAO war es, soviel Informationen wie möglich an einer
zentralen Stelle über jede Person zusammenzutragen. Dadurch sollte es
der US-Regierung ermöglicht werden, auf folgende Aktivitäten jederzeit
Zugriff zu haben: Internetaktivitäten, die Historie von
Kreditkarteneinkäufen, Käufe von Flugtickets, Mietwagen, Medizinische
Aufzeichnungen (Krankenberichte), Studienbücher, Führerscheinlizenzen,
Gas-, Wasser- und Stromrechnungen, Steuererstattungen und andere Daten.
Im Wesentlichen war es das Ziel des IAO, in der Lage zu sein, die
gesamte Lebensgeschichte von Gedanken und Bewegungen irgendeines
Individuums auf diesem Planeten auf Verlangen rekonstruieren zu können,
ein Unterfangen, das damals der Bush-Administration notwendig erschien,
um der Bedrohung des Terrorismus adäquat begegnen zu können.lxii
Des weiteren war das Logo des IAO (siehe Abbildung), welches von der
Rückseite des Siegels der USA inspiriert wurde, Zündstoff für
Illuminaten-Gläubige und Verschwörungstheoretiker, vor allem angesichts
des allsehenden Auges, das auf die Weltkugel blickt und außerdem schon
auf den Ein-Dollarnoten abgebildet ist. Die Pyramide mit dem
allsehenden Auge ist ein altes Freimaurerzeichen und seine Verwendung
auf dem Siegel der USA geht vermutlich auf George Washington zurück,
der Freimaurer war.
Nach den Kritiken am Logo wurde dieses am 19. Dezember 2002 von der
Seite entfernt. Inzwischen sind alle links auf die ursprüngliche Seite,
wo es noch zu sehen war, auch blockiert.
Am 16. Januar 2003 wurde von Senator Russ Feingold ein Gesetz
eingebracht, das den Kongress zu einer Prüfung der Aktivitäten der IAO
veranlassen sollte. Nach einer ähnlichen Eingabe eines anderen Senators
sollte die IAO nicht mehr in den USA operieren dürfen. Ende Februar
desselben Jahres wurde dann eine Anordnung erlassen, nach der die IAO
alle Aktivitäten beenden solle.
Die DARPA änderte am 20. Mai 2003 den Namen von Total in Terrorist
Information Awareness (TIA), um damit deutlich zu machen, dass man
nicht Dossiers von US-Bürgern anfertigen wolle. Stattdessen solle die
Behörde nur zur Terrorismusbekämpfung dienen. Trotz alledem wurde zwei
Monate später beschlossen, keine Gelder mehr für die Behörde
bereitzustellen. Die DARPA selbst hatte 2004 ein Budget von vier
Milliarden $ zur Verfügung.
Abb. Logo des IAO Dept. der DARPA. Es wurde schon im Dezember 2002,
nach Etablierung des IAO anfangs desselben Jahres, wieder entfernt.
Das "Limitation on Deployment of Terrorism Information Awareness
Program" wurde in den Defense Appropriations Act 2004 aufgenommen,
welcher vom Repräsentantenhaus am 8. Juli 2003 verabschiedet
wurde.lxiii Man konnte denken, dass dies das Ende für das IAO
bedeutete, vor allem aus finanziellen Gründen.
Am 14. Juli 2003 berichtete Wired News, dass "The Senate's $368 billion
version of the 2004 defense appropriations bill, released from
committee to the full Senate on Wednesday, contains a provision that
would deny all funds to, and thus would effectively kill, the Terrorism
Information Awareness program, formerly known as Total Information
Awareness. TIA's projected budget for 2004 is $169 million."lxiv
Im Conference Report H.R. 2658, Department of Defense Appropriations
Act, 2004 (24. September 2003, House Report 108-283) konnte man dann
lesen:
Sec. 8131. (a) Notwithstanding any other provision of law, none of the
funds appropriated or otherwise made available in this or any other Act
may be obligated for the Terrorism Information Awareness Program ...
the term "Terrorism Information Awareness Program" means the program
known either as Terrorism Information Awareness or Total Information
Awareness, or any successor program, funded by the DARPA, or any other
Department or element of the Federal Government, including the
individual components of such Program developed by the DARPA.
In einem folgenden Review des Repräsentantenhauseslxv wurden allerdings
die Restriktionen lediglich für den „Einsatz“ und die „Implementation"
angesehen, nicht für Forschung.lxvi
Reuters erhielt einen Kongressbericht, der neun Monate, nachdem der
Kongress das kontroverse Computerüberwachungs-Programm des Pentagon
abgeschossen hatte, zeigte, dass die US-Verwaltung fortfährt, private
Aufzeichnungen und Datenbanken durchzukämmen, um verdächtige
Aktivitäten auszuschnüffeln. Peter Swire, oberster Beamter der
Clinton-Administration, sagte: "I believe that Total Information
Awareness is continuing under other names."lxvii
Forschung für die Totale Überwachung
Als Teil des "Total Information Awareness" Programms werden
verschiedene neue Technologien erforscht:lxviii
Effective Affordable Reusable Speech-to-text, oder EARS, hat das
ausgesprochene Ziel, "developing speech-to-text (automatic
transcription) technology whose output is substantially richer and much
more accurate than currently possible." Dieses Programm ist auf
menschliche Radio- und Telephon-Konversation in einer Vielzahl von
Sprachen fokussiert; es ist notwendig für die computerunterstützte
Analyse der massiven Anzahl an Telefonüberwachungen, zu der das IAO
ohne richterliche Anordnung das Recht hat.
Futures Markets Applied to Prediction, oder FutureMAP, ist dazu
gedacht, sich "auf Markt-basierte Techniken zu konzentrieren, um
Überraschungen zu vermeiden und zukünftige Ereignisse vorherzusagen."
Es analysiert Daten der Weltökonomie, um politische Instabilität,
Bedrohungen der nationalen Sicherheit und ganz allgemein jedes größere
Ereignis in der nächsten Zukunft bereits im Ansatz vorauszusagen. Die
dezidierte Strategie des IAO für diese Abteilung umfaßt auch: "the
markets must also be sufficiently robust to withstand manipulation",
was auf die Absicht schließen läßt, zukünftige Ereignisse zu
beeinflussen, um die Ziele der USA zu unterstützen.
Genisys ist der Name eines Datenbanksystems, das als die zentrale
Informationseinheit für das IAO implementiert werden sollte. Die bis
dahin verwendeten Datenbanksysteme, die in der 1980er Jahren entworfen
worden waren, erwiesen sich für die enormen Mengen an Daten, die es zu
sammeln galt, als vollkommen unzureichend.
Genoa stellt "structured argumentation, decision-making and corporate
memory to rapidly deal with and adjust to dynamic crisis management"
zur Verfügung. Im wesentlichen ist dieses Programm dazu entworfen,
Schlußfolgerungen zu ziehen und Entscheidungen auf der Basis von
Informationen zu treffen, die menschliche Analyse („human analysis“),
Firmengeschichte („corporate history“) und strukturiertes Denken
miteinander vereinigen. Dieses Forschungsprojekt wurde im Fiskaljahr
2002 beendet; ihm folgte das Genoa II Projekt, das in effektiver Weise
die Zusammenarbeit zwischen den Regierungsabteilungen automatisch
regeln soll.
Human Identification at a Distance, oder HumanID, "ist ein Programm, um
automatisierte, biometrische Identifikationstechnologien zu entwickeln,
um Menschen über große Distanzen aufspüren, erkennen und identifizieren
zu können." Dieses Programm war dazu gedacht, ein Gesichts- und
Gangart-Identifikationssystem über eine Distanz von 150 m für das
Fiskaljahr 2004 zu implementieren.lxix Damit im Zusammenhang steht die
entsprechende Hardware, ein „All-seeing-Eye“, um aus der Höhe Menschen
an ihrer Gangart erkennen zu können („Gait
Recognition“; siehe nächsten Punkt).
Autonomous Real-time Ground Ubiquitous Surveillance-Imaging System
(ARGUS-IS): Im Programm für dieses autonome System wird ein Echtzeit,
hochauflösendes, wide-area Videoüberwachungssystem entwickelt, das dem
Krieger im Minimum 65 VGA Videofenster über sein Gesichtsfeld zur
Verfügung stellt. Jedes Videofenster kann elektronisch gesteuert
werden, unabhängig von den anderen, und kann entweder kontinuierlich
ein Bild eines bestimmten Areals am Boden erfassen oder es ist so
gestaltet, dass ein spezifisches Zielobjekt (dismount oder Fahrzeug) im
Fenster automatisch erfaßt wird.
Translingual Information Detection, Extraction and Summarization, oder
TIDES, wird entwickelt, um Informationen in der Sprache oder im Text
verschiedener Sprachen zu entdecken, zu übersetzen und zu extrahieren.
Eine Demonstration der maschinellen Fähigkeiten und Integration in die
TIA Systeme der DARPA wurde 2003 erwartet, die Realisierung war für
2005 angestrebt.lxx Aufschlußreich sind die Sprachen, die im Moment
vorrangig getestet werden: Arabisch in English (A2E) und Chinesisch in
English (C2E).lxxi Es dient zum Beispiel dem FBI für dessen beide
Systeme: Federal Bureau of Investigation (FBI) Integrated Data
Warehouse (IDW) und Security Concept of Operations (S-CONOPS),
Investigative Data Warehouse (IDW) Program.
Wargaming the Asymmetric Environment, oder WAE, ist dazu gedacht,
automatische Technologien zu entwickeln, die in der Lage sind,
terroristische Attacken vorherzusagen und prädiktive Indikatoren durch
die Überprüfung individuellen und Gruppenverhaltens in einem breiten
Umfeld zu identifizieren. Das WAE wird auch Interventionsstrategien auf
der Basis der Motivation spezifischer Terroristen entwickeln.
Wie schon gesagt, ist das TIA keineswegs „gestorben“, sondern es werden
ganze Teile des TIA offenbar weiterhin von der National Security Agency
(NSA) genutzt, die u.a. die Oberhoheit in Fragen der Kryptologie
innehat. Keine Verschlüsselung darf so hoch sein, dass die NSA sie
nicht mehr dekryptofizieren kann. Wie das US-Magazin "The National
Journal" kürzlich berichtete, ist die Arbeit an zwei
Data-Mining-Systemen im TIA-Projekt nicht eingestellt, sondern an eine
Abteilung der NSA weitergegeben worden. Es handelt sich dabei um das
"Information Awareness Prototype System" und "Genoa II", deren
Entwicklung unter den Bezeichnungen "Basketball" und "Topsail" von der
US-Regierung weiterfinanziert wird. Grundlage ist offenbar ein als
geheim eingestufter Zusatz zu dem Gesetz, mit dem die Finanzierung von
TIA 2003 vom US-Kongress eingestellt worden war. Danach werden Teile
des Projekts weiter gefördert, wenn sie von anderen amerikanischen
Regierungsbehörden übernommen werden.
Die NSA hat Zugriff auf die Kommunikationsdatenaufzeichnungen der
meisten US-Telekommunikationsunternehmen und wertet diese unter
Umgehung des so genannten FISA-Gesetzes aus, um Hinweise auf
terroristische Aktivitäten herauszufiltern. Das FISA-Gesetz von 1978
(Foreign Intelligence Surveillance Act)lxxii schreibt eigentlich vor,
dass Lauschangriffe in den USA nur mit richterlicher Genehmigung
erfolgen dürfen. US-Justizminister Alberto Gonzalez hatte in einer
Anhörung im Februar 2006 eingeräumt, dass das FISA-Gesetz nicht in
allen Fällen eingehalten worden war. Die New York Times hatte nämlich
Ende 2005 enthüllt, dass die Regierung von George W. Bush trotz der
Aufweichung und der erweiterten Befugnisse das Gesetz systematisch
gebrochen hatte und die Kommunikation von Amerikanern im Ausland mit
den USA tausendfach abhören ließ. Als die Senatoren Gonzalez fragten,
warum FISA überhaupt umgangen worden sei, antwortete dieser, er könne
dazu aus Gründen der nationalen Sicherheit keine Aussage machen.
Inzwischen wurde das FISA-Gesetz 2008 erneuert und soll bis 2012
gelten. Danach kann legal jeder Amerikaner, der sich nachweislich im
Ausland aufhält und mit den USA kommuniziert, abgehört werden. Und
gerade erst unterschrieb Präsident Obama in letzter Minute mit Hilfe
eines Unterschriftsautomaten, da er sich auf Reisen befand, die
Verlängerung des Patriot
Act bis Juni 2015.lxxiii
Zwei Hauptkomponenten des TIA-Projekts sind auf diese Weise
weitergewandert – zur Advanced Research and Development Activity
(ARDA), die im NSA-Hauptquartier in Fort Meade – Spitzname: „Crypto
City“ – angesiedelt ist. Dabei handelt es sich zum einen um das
Information Awareness Prototype System. Das war als Kernstück der
TIA-Architektur gedacht und sollte sämtliche Werkzeuge zur Gewinnung,
Analyse und Weiterleitung von Informationen integrieren. Laut National
Journal wurde es in „Basketball“ umbenannt. Die zweite Komponente war
Genoa II (siehe oben). Dieses läuft nun unter dem Name „Topsail“
weiter.
Gonzalez’ Zeugenaussage, dass die US-Regierung verstärkten Gebrauch von
FISA macht, und seine Argumentation, warum das Gesetz nur teilweise
gelte, zeigt: Das Problem ist nicht nur, dass Regierungsagenten schnell
handeln wollen. Die FISA-Regeln verlangen für die Genehmigung eines
Lauschangriffs die altmodische Begründung eines „Verdachtsfalls“ vor
dem zuständigen Gericht. Diese Regelung kann jedoch nicht greifen, wenn
die NSA eine automatisierte Analyse und Auswertung von Telefon- und
Email-Daten vornimmt.lxxiv
Wie die Klage der Bürgerrechtsorganisation EFF (Electronic Frontier
Foundation) in San Francisco gegen die Telekommunikationsfirma AT&T
zeigt, hat die NSA Zugang zu den Schaltungen und Aufzeichnungen der
meisten, vielleicht sogar aller führenden amerikanischen
Telekommunikationsunternehmen. Deren Datenressourcen sind umfangreich:
Im AT&T-Rechenzentrum in Kansas etwa sind 1.92 Billionen
Gesprächsaufzeichnungen aus mehreren Jahrzehnten gespeichert. Mehr
noch, die meisten internationalen Telekommunikationsverbindungen laufen
inzwischen nicht mehr über Satelliten, sondern über unterseeische
Glasfaserkabel, so dass viele Carrier internationale Telefonate über
ihre Schaltrechner in den USA leiten.
Dank der Willfährigkeit der Telekom-Unternehmen kann die NSA heute
deutlich mehr Kommunikationsvorgänge abfangen, und dies fast in
Echtzeit. Mit Zugang zum Großteil des weltweiten Telefondatenverkehrs
können die Superrechner der NSA jeden Anruf in einem Netzwerk digital
absaugen und ein Arsenal an Data-Mining-Werkzeugen darauf loslassen.
Eine Datenverkehrsanalyse zusammen mit der Theorie sozialer Netzwerke
(sic!) erlaubt, Muster möglicher terroristischer Aktivitäten
aufzudecken, die menschlichen Analysten unzugänglich wären. Das Filtern
von Inhalten mit Hilfe von ausgeklügelten Suchalgorithmen und
statistischen Verfahren wie der Bayes’schen Analyse sowie Methoden des
Maschinenlernens ermöglichen die Suche nach bestimmten Wörtern oder
Sprachkombinationen, die auf die Kommunikation von Terroristen
hindeuten könnten.lxxv
Ob die speziellen TIA-Technologien von der NSA in der
Inlandsüberwachung der USA tatsächlich schon genutzt werden, ist noch
nicht bewiesen. Die beiden Teilsysteme Topsail und Basketball ähneln
aber Beschreibungen von Technologien, die ARDA und NSA einsetzen, um
die Datenströme aus Telefon- und Emailkommunikation zu belauschen. Ein
ehemaliger TIA-Projektmanager hat ausgesagt, dass die TIA-Forscher sich
regelmäßig mit der ARDA ausgetauscht und eine „gute Koordinierung“
unterhalten hätten.
Diese letzte Tatsache ist besonders bedeutsam. Ganz gleich, ob nun
TIA-Technologien in der Inlandsaufklärung eingesetzt wurden oder nicht
– vergleichbare Technologien kamen auf jeden Fall zum Einsatz. 2002
vergab die ARDA beispielsweise Fördergelder in Höhe von 64 Millionen
Dollar für ein neues Programm namens „Novel Intelligence from Massive
Data“. Eine Untersuchung des US-Rechnungshofes von 2004 zeigte darüber
hinaus, dass amerikanische Regierungsbehörden 199 Data-Mining-Projekte
betrieben oder entwickelten. Davon waren 120 darauf ausgelegt, große
Mengen persönlicher Daten zu sammeln und auszuwerten, um das Verhalten
von Individuen vorhersagen zu können. Da die als geheim eingestufte
Projekte in der Untersuchung nicht berücksichtigt wurden, dürfte die
tatsächliche Zahl noch weitaus höher ausfallen.
Zusätzlich zu diesen Programmen existieren bereits
Data-Mining-Anwendungen in der Industrie, die etwa Kreditkartenbetrug
oder Gesundheitsrisiken für Versicherungen aufspüren sollen. All diese
Informationen gehen in Datenbanken ein, die früher oder später für
Behörden zugänglich werden könnten.
Wie also sollte man Data-Mining-Technologien wie TIA regulieren?
Kim A. Taipale, leitender Direktor am Center for Advanced Studies in
Science and Technology Policy in New York, wies 2006 in einem Artikel
("Whispering Wires and Warrantless Wiretaps: Data Mining and Foreign
Intelligence Surveillance")lxxvi darauf hin, dass es 1978, als FISA
verfasst wurde, noch sinnvoll war, das Gesetz auf das Abfangen von klar
definierten Kommunikationsvorgängen zu beschränken. Denn diese fanden
damals in Telefonaten immer zwischen zwei bekannten Endpunkten statt,
so dass der Kommunikationskanal abgehört werden konnte.
In heutigen Netzwerken wird die Kommunikation hingegen während des
Sendens in einzelne Datenpakete, normalerweise etwa acht, zerlegt und
beim Empfänger wieder zusammengefügt. Will man diese abfangen, muss man
Filter an diversen Kommunikationsknoten installieren, in der Hoffnung,
die richtigen Pakete herauszu-fischen und wieder richtig
zusammenzusetzen. Selbst wenn man eine konkrete
Kommunikationsverbindung belauschen will, muss man deshalb den gesamten
Datenfluss überwachen, in den diese eingebettet ist. Angesichts dessen
sei das FISA-Gesetz nicht mehr zeitgemäß, argumentiert Taipale. Denn
wenn man „es in einer strengen Auslegung anwendet – also ohne
‚elektronische Überwachung’ des ausländischen Kommunikationsflusses
durch die USA oder dort, wo sich mit einer gewissen Wahrscheinlichkeit
US-Bürger abhören lassen –, dann könnte es keine automatisierte
Überwachung irgendeiner Art geben.“lxxvii
Taipale schlägt vor, das FISA-Gesetz nicht aufzugeben, sondern
anzupassen. Elektronische Überwachung würde dann den Status einer
gewöhnlichen kurzen Personenüberprüfung nach US-Recht bekommen, falls
ein Verdachtsmoment vorliegt. Im Kontext automatisierten Data-Minings
würde das bedeuten, dass die Überwachung abgebrochen wird, wenn der
Verdacht sich als unbegründet erwiesen hat. Sollte sich der Verdacht
hingegen erhärten, würde der Lauschangriff fortgesetzt, und dann müsste
vom Überwachungspersonal entschieden werden, ob eine richterliche
Genehmigung im Sinne des FISA-Gesetzes nötig ist, um die Identität des
Belauschten zu ermitteln.
FISA und andere Gesetze zum Schutz der Privatsphäre ungeachtet der
heutigen technischen Veränderungen aufrechterhalten zu wollen, betont
Taipale, würde zu einem Absolutismus im Kampf um die Privatsphäre
führen, der sich am Ende selbst besiegt. Ein Beispiel dafür könnte das
Schicksal des Genisys Privacy Protection Projekts sein. Dieser Teil des
TIA-Projekts war dazu gedacht, Sicherheitsbehörden gleichzeitig
größeren Zugang zu Daten zu verschaffen und die individuelle
Privatsphäre zu schützen, indem die Daten den Analytikern nur
anonymisiert zur Verfügung gestellt wurden. Die Identität einer Person
sollte erst enthüllt werden, wenn Beweise und eine entsprechende
Genehmigung vorlagen. Genisys war die einzige TIA-Technologie, die
gestoppt wurde, nachdem der öffentliche Aufschrei das TIA-Projekt zu
Fall gebracht hatte.
Ein neues Ministerium der USA: Heimatschutz
Als eine weitere, beachtenswerte Maßnahme als Antwort auf 9/11 wurde im
Jahre 2002 ein neues Ministerium der USA geschaffen, das
Heimatschutzministerium der Vereinigten Staaten (engl. United States
Department of Homeland Security, DHS).lxxviii Es ist mit über 200 000
Beschäftigten nach dem Pentagon und der Rentenorganisation die
drittgrößte Bundesbehörde. In ihm wurden einige zuvor unabhängige
Institutionen zusammengelegt, so zum Beispiel die Sicherheitskontrollen
an den Flughäfen, der Zoll, die Küstenwache und die
Katastrophenschutzbehörde Federal Emergency Management Agency (FEMA).
Entgegen ursprünglichen Plänen wurden ihm jedoch nicht das FBI und die
CIA unterstellt. Erster Minister des DHS war Tom Ridge. Seit dem
20. Januar 2009 ist Janet Napolitano die Ministerin.
Hauptaufgabe des DHS ist der Schutz der amerikanischen Bevölkerung und
Staatsgebiete vor terroristischen und
anderen Bedrohungen. Diese Aufgabe obliegt in den USA anders als in
anderen Ländern somit nicht dem Innenministerium, denn das
Innenministerium der Vereinigten Staaten ist nur für die Verwaltung der
bundeseigenen Ländereien wie Nationalparks verantwortlich.
Das Ministerium nahm 22 bestehende Bundesbehörden in sich auf, z.B. den
Katastrophenschutz (siehe unten). Diesen hatte Präsident Jimmy Carter
bereits 1979 für nationale Notfälle gegründet. FEMA wurde damals aus
mehreren kleinen Agenturen zu einer Bundesbehörde zusammengefügt und
zählt heute innerhalb des Ministeriums 2600 Angestellte.
Eine weitere Vorläufer-Institution war das United States Army Corps of
Engineers (USACE). Es ist ein Hauptkommando der US Army für das
Pionier- und Bauingenieurwesen mit landes- und weltweiten Strukturen.
Die Koordinierungsstelle der Homeland Security ist das National
Operations Center (NOC). Sitz der Behörde ist der Nebraska Avenue
Complex, Washington D.C. Ein weiteres Büro unterhält man im Ronald
Reagan Building im Federal Triangle. Im Weißen Haus gibt es zur
politischen Koordinierung den Heimatschutz-Rat (Homeland Security
Council) mit John O. Brennan als Präsidentenberater für den
Heimatschutz an der Spitze. Andere bedeutende Vertretungen, die unter
den Verantwortungsbereich des Heimatschutzministeriums fallen, umfassen
unter anderem die US-Ministerien für Gesundheit, Justiz und Energie.
Obwohl nach Mitarbeitern drittgrößtes Ministerium, ist das Budget
jedoch deutlich kleiner als das der beiden größten Ministerien und
beträgt etwa die Hälfte des Budgets des Landwirtschaftsministeriums.
Im Namen des Heimatschutzministeriums unterzeichnete George W. Bush im
Mai 2007 die National Security Presidential Directive 51 (NSPD 51),
auch als Homeland Security Presidential Directive 20 (HSPD 20) bekannt,
eine präsidentielle Direktive zur nationalen Sicherheit, die im Falle
einer nationalen Katastrophe, eines Notfalls oder Angriffes die
Fortdauer der konstitutionellen Regierungsarbeit („Enduring
Constitutional Government“) sicherstellen soll, indem der US-Präsident
sich mit der Führung der gesamten Bundesregierung betraut, und die
Kooperation zwischen der Exekutive, der Legislative, und der Judikative
koordiniert.
Interessant ist der Aufbau des DHS:
unterstellte Behörden
United States Citizenship and Immigration Services
United States Customs and Border Protection
United States Immigration and Customs Enforcement
Transportation Security Administration
United States Coast Guard (Küstenwache; durch Präsidialbeschluss oder
im Falle einer Kriegserklärung durch den Kongress untersteht sie
automatisch der Navy, bis der Präsident etwas anderes dekretiert)
Federal Emergency Management Agency (FEMA)
United States Secret Service
beratende Organe
Homeland Security Advisory Council
National Infrastructure Advisory Council
Homeland Security Science and Technology Advisory Committee
Critical Infrastructure Partnership Advisory Council
Interagency Coordinating Council on Emergency Preparedness and
Individuals with Disabilities
Task Force on New Americans
Einrichtungen des Ministeriums
Domestic Nuclear Detection Office
Federal Law Enforcement Training Center
National Protection and Programs Directorate Federal Protective Service
National Communications System
Directorate for Science and Technology
Directorate for Management
Office of Policy Office of Immigration Statistics
Office of Health Affairs
Office of Intelligence and Analysis
Office of Operations Coordination
Office of the Secretary, umfaßt Privacy Office,
Office for Civil Rights and Civil Liberties,
Office of Inspector General,
Citizenship and Immigration Services Ombudsman,
Office of Legislative Affairs,
Office of the General Counsel,
Office of Public Affairs,
Office of Counternarcotics Enforcement (CNE),
Office of the Executive Secretariat (ESEC),
Military Advisor's Office;
National Cyber Security Center.
Um seine Aufgabe zu erfüllen, Bedrohungen „vorauszusehen, zuvorzukommen
und abzuwenden“, benutzt das Ministerium ein fünf Stufen umfassendes,
auf Farben basierendes Homeland Security Advisory System, um die
angenommene Gefahrenlage anzuzeigen: Grün, Blau, Gelb, Orange, Rot.
Eine ähnliche Skala wird schon seit den Zeiten des Kalten Krieges vom
US-Militär verwendet, um den Verteidigungszustand der Streitkräfte
anzuzeigen. Er wurde als DefCon bekannt. Das Homeland Security Advisory
System wurde unter anderem von Michael Moore in seinem Film „Fahrenheit
9/11“ kritisiert, weil es der Regierung durch Anhebung der
Gefahrenstufe ermögliche, die Medienaufmerksamkeit auf sich und von
gewissen anderen Ereignissen abzulenken. Zum Beispiel wurde beim
Parteikongress der Demokraten in Boston 2004 vor den
Präsidentschaftswahlen die Alarmstufe angehoben, weil „Hinweise auf
Anschläge“ eingetroffen seien. Beim Wahlparteitag der Republikaner im
selben Jahr in New York geschah dies aber nicht.
Ein weiterer Kritikpunkt besteht darin, dass noch nie objektive
Kriterien für die Warnstufen veröffentlicht wurden. Dazu wird von
Sicherheitsexperten das Warnsystem hinterfragt, weil die Warnhinweise
viel zu wenig konkret sind. Die Polizeikräfte werden zwar bei einer
erhöhten Alarmstufe aufgestockt, doch sie erhalten nur vage Hinweise
wie: „möglich sind Anschläge auf das Eisenbahnnetz“. Dies ist wenig
hilfreich, denn logischerweise ist es jederzeit möglich, dass auf
Eisenbahnen Anschläge verübt werden.
„MATRIX“ ist keine Science Fiction
Als ob das alles noch nicht unheimlich genug ist, fällt jetzt noch eine
ominöse Datenbank einer dubiosen Firma in Florida auf, die den Namen
MATRIX trägt. Auch in dieser sollen persönliche Informationen von
Amerikanern gesammelt werden.lxxix Allein der Name ist nicht glücklich
gewählt, ähnlich ungeschickt wie beim FBI, das ein System zur
Überwachung von Internetdaten Carnivore (Fleischfresser) nannte.
MATRIX steht für Multistate Anti-Terrorism Information Exchange. Mit
dem System, entwickelt von der Firma Seisint Inc. in Boca Raton,
Florida, sollen, wie die Washington Post berichtetlxxx, Muster und
Verbindungen zwischen Personen und Ereignissen schneller gefunden
werden. In die Datenbank werden Informationen der
Strafverfolgungsbehörden sowie persönliche Informationen über
US-amerikanische Staatsbürger eingespeist, die in käuflichen
Datensammlungen verfügbar sind. Alles sei ganz harmlos, wird gesagt,
weil das System nur Daten benutze, die sowieso vorhanden und verfügbar
seien. Wie der Name schon sagt, soll das System später nicht nur für
Florida, sondern erst einmal in insgesamt 13 Bundesstaaten (Alabama,
Connecticut, Florida, Georgia, Kentucky, Louisiana, Michigan, New York,
Oregon, Pennsylvania, South Carolina, Ohio und Utah) eingesetzt werden
und den Datenaustausch zwischen diesen Ländern verbessern. Für das
Pilotprojekt sind Virginia, Maryland, Pennsylvania und New York
vorgesehen. Dabei geht das MATRIX-Projekt gar nicht auf die Initiative
von Behörden, sondern auf die eines Unternehmers zurück, der entweder
meinte, sich um den Staat verdient machen zu wollen, oder aber glaubte,
dass mit Sicherheitstechnik auch künftig gute Geschäfte zu machen sind.
Hank Asher, der Gründer der IT-Firma Seisint, rief anscheinend kurz
nach den Anschlägen vom 11.9.2001 bei der Polizei in Florida an und
versprach, er könne die Terroristen und andere finden, die verdächtig
sind. Seisint stellte dann seine Software MATRIX dem Staate Florida
erst einmal kostenlos zur Verfügung. Dann wurde das System in anderen
Staaten vorgeführt und wohlwollend aufgenommen. Dabei kam die Idee auf,
die Datenbank mit einer Suchmaschine namens "Who" auszustatten, die im
Zentrum des Projekts stehen sollte.
Das Justizministerium von Florida steckte daraufhin weitere vier
Millionen Dollar in das von Seisint entwickelte Programm MATRIX, um es
landesweit zu erweitern. Auch für das angeblich kostenlos für Florida
entwickelte System hatte Seisint 1.6 Millionen $ bewilligt bekommen.
Das uns schon bekannte Heimatschutzministerium wollte dann weitere 8
Millionen investieren. Offenbar wurde das System bereits kurz darauf in
Florida benutzt. Bis 2003 sollen sich 135 Polizeibehörden angeschlossen
haben. MATRIX soll nach einem Dokument des Justizministeriums "den
Austausch von Informationen über Terrorismus und andere kriminelle
Aktivitäten erweitern und verbessern". Abgesprochen wurde das System
offenbar auch mit dem demokratischen Senator Bob Graham, der zu der
Zeit Leiter des Geheimdienstausschusses war. Graham und die Demokraten
hatten übrigens hohe Spenden von Seisint erhalten.
Neben Virginia, Maryland, Pennsylvania und New York nimmt auch
Washington D.C. an der geplanten MATRIX-Datenbank oder dem weniger
monströs klingenden internetbasierten Justice Information System teil.
Der demokratische Bürgermeister von Washington D.C., Anthony Williams,
wies noch einmal darauf hin, dass es sich dabei nicht nur um
Informationen zur Vorbereitung auf Notfälle handelt, sondern dass die
Datenbank auch zur Bekämpfung der allgemeinen Kriminalität gedacht ist.
Man würde die Informationen auf die Daten der Strafverfolgungsbehörden
beschränken und nicht alle verfügbaren Daten aller Amerikaner in einer
zentralen Datenbank speichern. Das kann man glauben oder auch nicht.
Das System soll, wie Margret Nedelkoff Kellems, in Washington für
öffentliche Sicherheit zuständig, anmerkte, es beispielsweise
ermöglichen, in Kraftfahrzeug-Daten nach Fotografien und Informationen
über rothaarige Besitzer von roten Hondas im Umkreis von 30 Kilometern
um einen bestimmten Ort herum suchen zu können. Das
hieße dann aber doch, dass Informationen über alle Bürger zumindest der
beteiligten Bundesstaaten verfügbar sein würden. Kellems war offenbar
bemüht, das mit staatlichen Geldern weiter entwickelte System von der
MATRIX-Datenbank in Florida abzugrenzen, die mehr Daten enthalten soll.
Und wie schon im Fall von Poindexter bei der TIA ist auch der Experte
für Computertechnologie Hank Asher eine dubiose Gestalt.lxxxi 1999
beendete die DEA und das FBI einen Vertrag mit einer Asher-Firma, weil
bekannt wurde, dass er von einem Zeugen als Pilot und Drogenschmuggler
identifiziert worden ist und als Informant fungiert hat. Von der
Drogengeschichte wisse man im Justizministerium, aber schließlich sei
er weder angeklagt noch verhaftet worden. Seit 1993 arbeitet Asher mit
den Strafverfolgern in Florida zusammen, dem Florida Department of Law
Enforcement (FDLE) – unbeschadet dessen, dass das FBI und die DEA 1999
die Verträge mit seiner alten Firma DBT Online wegen seiner
Verbindungen mit dem Drogenschmuggel beendeten, woraufhin Asher die
Firma verkauft hatte. Trotzdem erhielt seine neue Firma Seisint in
Florida zwei Verträge, ohne dass dabei eine Ausschreibung stattfand.
Mit dem ehemaligen Direktor des FDLE, der gerade pensioniert wurde, ist
Asher eng befreundet. Der neue Direktor hat inzwischen eine
Hintergrundüberprüfung von Asher angeordnet.
Asher hat auch für andere Behörden wie FBI oder Secret Service
kostenlos gearbeitet. Angeblich habe die Firma tatsächlich dabei
geholfen, Verbindungen zwischen den Flugzeugentführern von 9/11
herzustellen. Bekanntlich haben einige der Flugzeugentführer unter
immer noch mysteriösen Umständen in Florida Flugunterricht genommen.
Auch hier gibt es Verbindungen zum Drogenschmuggel.lxxxii
Interessant ist auch, dass Florida 1998 mit der DBTlxxxiii, der damals
noch Asher gehörenden Firma, einen Vertrag über 4 Millionen Dollar
abschloss, um eine Wählerliste zu erstellen, auf der sich diejenigen
befanden, die von der Wahl ausgeschlossen werden können. DBT wurde
später zu ChoicePoint.lxxxiv Für die Präsidentschaftswahlen im Jahr
2000 wurden aufgrund der Informationen von ChoicePoint von der
Innenministerin Katherine Harris einige Zehntausend Menschen –
vornehmlich Schwarze, Latinos und arme Weiße, also eher Gore-Wähler –
von der Wahl ausgeschlossen, die angeblich in anderen Staaten
Vorstrafen hatten. In den meisten US-Bundesstaaten dürfen Straftäter
aber nach Verbüßung ihrer Strafe wieder wählen. Manche der Straftäter
wurden auch erst in der Zukunft verurteilt, wie damals in der
amerikanischen Presse berichtet wurde. Die Liste der angeblich
Vorbestraften ist angeblich aus Texas gekommen. Zwar wurde die Liste
von Harris korrigiert, aber Tausende blieben weiterhin von der Wahl
ausgeschlossen. Die Wahl in Florida ging mit gerade einmal 500 Stimmen
Mehrheit für Bush aus. In Florida wurden zudem über 170.000 abgegebene
Stimmen für ungültig erklärt. Eine Nachzählung wurde vom Obersten
Gericht als nicht für notwendig befunden, das Bush daher als Sieger der
Wahl anerkannte. Eine trotzdem durchgeführte Nachzählung ergab
allerdings, dass bei einer rechtzeitigen Nachzählung Al Gore der
Gewinner in Florida und damit auch in den USA gewesen wäre.
Wir haben gesehen, dass es nichts hilft, Positivismus und
Neo-Positivismus allein zu kritisieren, obwohl das schon notwendig ist.
Einrichtungen und Forschungsinstitute des militärisch-industriellen
Komplexes (Eisenhower) scheren sich darum wenig bis gar nicht. Man
könnte sich angesichts der Kritik ruhig zurücklehnen und sich sagen:
wenn der ideologische Unterbau (eigentlich ist es der Überbau) derart
falsch oder wenigstens unzureichend, nämlich allein mit formaler Logik
konstruiert ist und Inhalte keine Rolle zu spielen scheinen, wenn es
reduktionistischer gar nicht mehr geht (wie z.B. in dem Vorhaben, ein
menschliches Gehirn im Computer nachzubilden), dann kann ja eigentlich
nichts Schlimmes passieren. Aber allein, wenn man über die Fehler
nachdenkt, die bei der Maschinen- und Software-gesteuerten Überwachung
der Bürger eines Staates entstehen und die zu falschen Informationen in
den Datensammlungen über die gleichen Personen führen, dann kann einem
Angst und Bange werden. Dies gilt umso mehr, als alle diese Datenbanken
unter äußerster Geheimhaltung aufgebaut werden (wahrscheinlich schon
sind), nämlich unter der Obhut unterschiedlichster Geheimdienste und
damit der öffentlichen Kontrolle weitgehend, wenn nicht vollständig
entzogen sind. Ob damit „der Terrorismus“ wirksam bekämpft werden kann
oder Terroristen an ihrer Gangart oder der Gesichtsstruktur sicher
identifiziert werden können, ist ohnehin zu bezweifeln. Orwell lebt und
läßt grüßen.
Nachbemerkung, aus noch gegebenerem Anlaß
Als ob das hier Geschilderte noch nicht genug wäre, wuchs die Empörung
über die NSA erst so richtig an, als bekannt wurde, dass das
Mobiltelefon der Bundeskanzlerin Dr. Angela Merkel abgehört wurde; sie
benutzte selten ihr abhörsicheres Zweit-Mobiltelefon, weil es ihr zu
umständlich sei, es zu bedienen.
Kurz zuvor war schon bekannt worden, dass die NSA nicht nur die
Europäische Union (EU), sondern auch die United Nations (UNO) abhört.
Nach Auswertungen von Dokumenten, die dem SPIEGEL spätestens seit dem
25. August 2013 vorliegen, ist es der NSA im Sommer 2012 gelungen, die
Verschlüsselung zu knacken und in die interne Videokonferenzanlage der
UNO einzudringen. Dies habe für "eine dramatische Verbesserung der
Daten aus Video-Telekonferenzen und der Fähigkeit, diesen Datenverkehr
zu entschlüsseln" gesorgt, heißt es in einem geheimen NSA-Dokument.
"Der Datenverkehr liefert uns die internen Video-Telekonferenzen der
UNO (yay!)". Innerhalb von knapp drei Wochen sei die Zahl der
entschlüsselten Kommunikationen von 12 auf 458 angestiegen.lxxxv
Die Spionageaktionen sind illegal, in einem bis heute gültigen Abkommen
mit der UNO hat sich die USA verpflichtet, keine verdeckten Aktionen zu
unternehmen. Aus den internen Dokumenten geht zudem hervor, dass die
NSA die EU auch nach deren Umzug in die neuen Botschaftsräume im
September 2012 noch ausspioniert hat. Unter den Dokumenten, die der
Whistleblower Edward Snowden von Rechnern der NSA kopiert hat, befinden
sich Lagepläne der EU-Botschaft an der 3rd Avenue in New York, die die
Lage der Büros, aber auch der IT-Infrastruktur und der Server
betreffen. Dem neuen EU-Gebäude gab der US-Geheimdienst den Codenamen
"Apalachee". Die EU-Botschaft in Washington wurde intern "Magothy"
genannt.
Auf drei Wegen attackierte die NSA nach eigenen Angaben die
europäischen Dependancen: jeweils per Wanze sowie durch Kopieren der
Festplatten in New York und das Infiltrieren des Computernetzwerks in
Washington. Dabei machte sich die NSA zunutze, dass die Computer der
beiden EU-Botschaften über ein sogenanntes Virtuelles Privates Netzwerk
(VPN) miteinander verbunden sind. "Wenn wir den Zugang zu einer Seite
verlieren, können wir ihn unmittelbar zurückerhalten, wenn wir über das
VPN der anderen Seite kommen", konstatieren die NSA-Techniker in einer
internen Präsentation. "Wir haben das mehrere Male genutzt, als wir bei
,Magothy' rausgeschmissen wurden."
Das Auswärtige Amt in Berlin besitzt nach eigenen Angaben keine
Informationen über eine mögliche Ausspähung der Vereinten Nationen und
von Botschaften durch den US-Geheimdienst NSA. "Wir haben keine eigenen
Erkenntnisse", sagte ein Sprecher.
Laut den internen Dokumenten unterhält die NSA zudem in mehr als 80
Botschaften und Konsulaten weltweit ein eigenes Abhörprogramm, das
intern "Special Collection Service" genannt wird und oft ohne das
Wissen des Gastlands betrieben wird. Einen entsprechenden Lauschposten
soll die NSA demnach in Frankfurt, einen weiteren in Wien unterhalten.
Die Existenz der Lauscheinheiten in Botschaften und Konsulaten sei
unter allen Umständen geheim zu halten, heißt es in dem Material. Wenn
sie bekannt würden, würde das "den Beziehungen zum jeweiligen Gastland
schweren Schaden zufügen", so ein NSA-Dokument. Inzwischen ist aber
bekannt geworden, dass auf dem Dach der US-Amerikanischen Botschaft in
Berlin, direkt neben dem Brandenburger Tor, eine Abhöranlage aufgebaut
ist.
Weiter wurde im Oktober 2013 bekannt, dass auch die brasilianische
Präsidentin Dilma Rousseff von der NSA abgehört wird/wurde; sie will
zusammen mit Deutschland diese Affäre in Form einer Resolution gegen
das Ausspähen von elektronischer Kommunikation vor die UNO
bringen.lxxxvi Darin werden alle Staaten aufgefordert, Gesetzgebung und
Praxis bei Überwachungsaktionen im Ausland auf den Prüfstand zu
stellen. Wörtlich heißt es: „Die gleichen Rechte, die Menschen offline
haben, müssen auch online geschützt werden - vor allem das Recht auf
Privatheit.“ Der Text wurde zusammen mit Brasilien ausgearbeitet,
dessen Präsidentin Dilma Rousseff ebenfalls vom US-Geheimdienst NSA
bespitzelt wurde.lxxxvii Der Entwurf geht nun zunächst an den
zuständigen Menschenrechtsausschuss, der im November darüber beraten
wird.
Der in der Vorbemerkung erwähnte US-Geheimdienstchef James Clapper hat
Spähangriffe auf ausländische Spitzenpolitiker verteidigt. „Die
Absichten politischer Führungen,
wie auch immer sie ausgedrückt werden, sind das Grundsätzliche, was wir
sammeln und analysieren müssen“, sagte der Koordinator der 16
amerikanischen Geheimdienste in einer Kongress-anhörung am 29. Oktober
2013 in Washington. Zugleich zeigten er und der NSA-Chef Keith
Alexander sich in der Befragung überzeugt, dass Europa seinerseits die
USA und deren Politiker ausspioniere. Auch würden die Europäer massiv
Daten eigener Bürger sammeln. Clapper bestätigte zwar nicht, dass die
USA etwa Telefongespräche von Merkel oder anderen Staats- und
Regierungschefs abgehört hätten. Es sei aber generell „absolut“
hilfreich, an solche Kommunikation zu kommen. „Das ist eines der ersten
Dinge, die ich 1963 in der Geheimdienstschule gelernt habe“, sagte der
Spionage-Veteran. „Es ist unersetzlich für uns zu wissen, was die
Länder bewegt, was ihre Politik ist.“ Zu den bevorzugten Abhörzielen
gehörten auch militärische Führer.lxxxviii
Der ebenfalls in der Vorbemerkung zu diesem Artikel erwähnte
Enthüllungsjournalist Glenn Greenwald erklärte, dass es bei der Affäre
nicht nur um Bespitzelung von Bürgern gehe, sondern um politische Macht
und Wirtschaftsspionage. Ersteres wird von Clapper bestätigt, letzteres
zunächst nicht. Auch die hiesige Presse hat diesen Aspekt bisher
vollkommen ausgeklammert. Sehr deutlich konnte man einem Interview der
FAZ mit dem weißrussischen Publizisten aus Amerika, Evgeny Morozov, im
Oktober 2013 entnehmen, was im Hauptteil dieses Artikels schon
herausgearbeitet wurde, dass nämlich über einfache Wirtschaftsspionage
hinausgehende weltweite Analysen wirtschaftlicher und privater Daten
mit Hilfe von spezieller Software angestellt werden, um prognostische
Faktoren über Konsumverhalten, Krisen des Marktes und der
Finanzwirtschaft herausarbeiten zu können. Dies wurde im Artikel oben
unter „Forschung für die totale Überwachung“ bereits erwähnt.
Im Interview heißt es: „Es ist eine strukturelle Logik im Spiel, die
etwas mit Kapitalismus zu tun hat, mit Konsumverhalten, mit Dingen,
über die Amerikaner nicht gern reden. Das Resultat ist eine neue Reihe
von Anreizen, um die Leute zu verleiten, ihre Daten preiszugeben und zu
teilen. Die NSA wird sie so oder so bekommen, aber für mich ist die NSA
nur Teil eines viel größeren Problems, das ich in einer Art von
präemptivem Regieren sehe, gestützt auf Voraussagen, und
Informationsanalysen, durch die Probleme entschärft werden sollen,
bevor es Probleme sind. So, wie die NSA Terroristen ausfindig macht,
bevor sie Terroranschläge begehen, so handeln andere Behörden nach der
gleichen Logik. Leute sollen gesund werden, bevor sie krank sind. Dank
der neuen technologischen Infrastruktur werden Probleme im Voraus
gelöst, und zwar mittels Anreizen, die neue Verhaltensweisen
hervorrufen. Für einen Technokraten ist das eine perfekte Sache. Nicht
so für einen Demokraten, der sich denkende Bürger wünscht, die zwischen
richtig und falsch zu unterscheiden wissen und fähig sind, sich an der
Verbesserung des Systems zu beteiligen.“lxxxix
Wie man „den Wirkungsgrad des Wahlkampfs steigern“ und sich „die
richtigen Wähler effektiver erreichen“ lassen
Schließlich soll ein letztes Beispiel zeigen, in welchem Stadium der
Analyse, aber nicht nur der Analyse, sondern der massiven
Wählerbeeinflussung und des Kaufverhaltens man offenbar schon jetzt
angekommen ist. Wegen seiner Ungeheuerlichkeit wird der Bericht aus der
Frankfurter Allgemeinen Zeitung hier in ganzer Länge wiedergegeben:xc
„Ende August hatte die deutsche Vertretung von Google Journalisten,
Wahlkämpfer und Interessierte nach Berlin eingeladen, um die
Google-Projekte zur Wahl vorzustellen. Den Hauptvortrag hielt Julius
van de Laar, der für Barack Obama im entscheidenden Bundesstaat Ohio
Wahlkampf geführt hatte. Er berichtete, was man aus dem digitalen
Wahlkampf in den USA inzwischen gelernt habe. Natürlich ging es als
erstes um’s Geld: ‚Meine Güte, 1.2 Milliarden Dollar hatten wir zur
Wählermobilisierung zur Verfügung‘, um dann darauf einzugehen, was
darunter verstanden wird. 2012 sei die Ausgangslage schlecht gewesen,
8% Arbeitslosigkeit, 41% Zustimmungsrate für den Präsidenten, dazu eine
katastrophale Performance des Kandidaten im ersten Fernsehduell‘. Nur
in der politischen Botschaft sei die Obama-Kampagne klar vorn gelegen.
‚Mitt Romney – Killerkapitalist‘ ließ sich gut verkaufen, auch ‚General
Motors am Leben, Usama Bin Ladin tot‘. Das Team von de Laar stellte
sich aber als wichtigste Frage in Ohio, wie man ‚den Wirkungsgrad des
Wahlkampfs steigern könne‘, wie sich „die richtigen Wähler effektiver
erreichen“ lassen – und wie man einen Bogen um diejenigen macht, die
man schon verloren gab. Dieses Programm hieß ‚Force Multiplication‘ und
es sollte Platz für ‚Technologie und Daten‘ schaffen. Es ging nicht um
politische Botschaften aus Hinterzimmern, sondern um die letztens
vieldiskutierten „Big Data“. De Laar führte weiter aus: ‚Die
Datenschützer unter Ihnen, wenn Sie kurz raustreten wollen und sich
einen Kaffee holen wollen. Kommen Sie in zehn Minuten wieder.‘ Er kam
darauf zu sprechen, wie das ‚Micro-Targeting‘, die planvolle und
gezielte Wähleransprache der Obama-Kampagne funktionierte.
Ausgangspunkt seien die Wählerlisten, in denen Namen und Telefonnummern
aufgeführt sind sowie die Information, ob die Wähler an den
demokratischen oder den republikanischen Vorwahlen teilgenommen hatten.
Im zweiten Schritt ‚haben wir uns einfach einen Haufen Daten gekauft‘,
sagte van de Laar. ‚Sie kennen Pay-Back?‘ fragte er ins Publikum. „Wir
gehen da hin und sagen: ‚Pay-Back, bitte einmal die Daten ausspucken‘“.
Diese Daten zeigen nämlich das Einkaufsverhalten der Wähler, die die
Pay-Back-Bonuskarte verwenden – was van de Laar als ein Beispiel unter
vielen nannte –, und seien mit den Daten aus dem Wählerregister
fusioniert worden. Für jeden potentiellen Obama-Wähler wurde ein
Datenbankeintrag angelegt und ständig erweitert. Auch das Verhalten im
Internet war von Interesse. Mit ‚Cookie-Targeting‘ wurde das
online-Verhalten der Wähler über deren Computer ausgespäht und
ausgewertet. Dieses Vorhaben, das ‚predictive analytics‘ genannt wird,
erscheint unter den Stichworten ‚Social Media, Data Mining, Data
Matching‘. Van de Laar: ‚Wir wollten herausfinden, wer die Personen
waren, die sehr wahrscheinlich nicht wählen gehen, aber uns wählen
würden, wenn sie doch hingingen.‘
Man habe herausgefunden, dass 78% der Menschen, denen von Freunden oder
Bekannten empfohlen wurde, Obama zu wählen, tatsächlich für ihn
stimmten. Das Team konzentrierte sich also auf die zweite Zielgruppe:
Menschen, die Obama sicher wählen würden und zusätzlich bereit seien,
ihren Freunden und Nachbarn davon zu erzählen. 21000 Freiwillige habe
man in den drei Wochen vor der Wahl allein in Ohio mobilisiert. Sie
klopften an mehr als 800 000 Haustüren.
Eine iPhone-App gab im Wortlaut vor, wie ein Gespräch zu eröffnen sei
und zu führen ist – und erinnerte mit Nachdruck daran, fehlende Daten
unbedingt zu erfassen. ‚Wir wollten nicht nur, dass Leute rumlaufen und
mit irgendwelchen Menschen sprechen, wir wollen nachvollziehen, was
dort genau passiert. Wir wollen wissen, wie die Konversationen laufen
und welche Informationen wir da herausziehen können‘, sagte van de
Laar. Dieser Haustürwahlkampf sei wahlentscheidend gewesen. Das
Wahlkampfteam in Ohio beschäftigte 750 fest angestellte Mitarbeiter,
aber entscheidend sei die Arbeit der Freiwilligen gewesen. Es wurde
letztlich eine Parallelkampagne unter dem Titel ‚It’s about YOU‘
entwickelt. Das YOU bezog sich auf die Tausenden von Freiwilligen, die
zumeist persönliche Beziehungen zu den Menschen an den Haustüren
besaßen, an die sie klopften, und die noch zu überzeugen waren.
Man habe sich aber nicht nur an der Haustüre eingemischt, sondern bald
wurde jeder Sympathisant zum Freiwilligen. Die moderne Technik half
dabei: ‚Wir wollten, dass sich die Leute mit Facebook auf Obamas
Internetseite anmelden, um einen Komplettzugriff auf deren Profildaten
zu erhalten. Die Daten, die wir hatten, waren der Wahnsinn, und
natürlich schauten wir sie uns an, wann es uns paßte‘, sagte van de
Laar. Dabei ging ein Raunen durch den Saal.
Den entscheidenden Trick hatte van de Laar aber noch gar nicht genannt:
Wähler, die sich per Facebook auf Obamas Internetseite anmeldeten,
willigten auch ein, dass die Kampagne im Namen der Nutzer Botschaften
auf Facebook verbreiten durften. ‚Sie können sich vorstellen, was für
ein riesiges Asset das in diesem Wahlkampf war.‘ Die Wähler konnten
schlicht nicht mehr unterscheiden, wann sie es mit ihren Nachbarn oder
mit der Kampagne zu tun bekamen. Für die Wahlkämpfer der politischen
Parteien im Raum verwies van de Laar auf eine Studie von Infratest
Dimap. Auch in Deutschland informierten sich Wähler vorrangig im
direkten Gespräch über anstehende Wahlen. ‚Das, was jetzt gemacht wird,
ist der Grundstein für die Zukunft, da wird der Trend hingehen‘.
In USA sei man allerdings schon an Grenzen gestoßen, führte van de Laar
aus. Ein Zeichen des Erfolgs im Haustürwahlkampf seien die vielen
Zettel gewesen, auf denen Bewohner notierten, dass sie schon längst
überzeugt seien, Obama zu wählen und keine weitere Störung duldeten.
Dass das Wahlrecht den Wählern Geheimhaltung zubillige, setzten van de
Laars Strategen in einem Fall sogar außer Kraft. Sie wollten
Nichtwähler in den Nachbarschaften in Dankesbriefen nach der Wahl
enttarnen. Diesem Vorhaben, ‚das 25% Zuwachs‘ versprach, setzte eine
Morddrohung gegen Mitarbeiter der Kampagne ein frühes Ende.
‚Stalking‘ nannte das die Pressesprecherin der Piratenpartei, Anita
Möllering, aus dem Publikum. Der von Google mit einem Pauschalgehalt
ausgestattete Journalist Tilo Jung, der Googles Videoplattformen für
politische Interviews unter dem programmatischen Titel ‚Jung &
Naiv‘ nutzt, wollte von de Laar wissen, wie mit den Daten nach der Wahl
verfahren wurde und was in Deutschland möglich sei. Die Daten lägen für
die nächsten Kampagnen bereit, antwortete van de Laar. In Deutschland
werde der Rahmen des legal Möglichen noch nicht ausgeschöpft. Es gebe
‚maximal legale Wege, noch deutlich stärker vorzugehen und ein besseres
Targeting zu machen.‘ ‚Alles andere wäre jung und naiv‘, sagte van de
Laar.“
|
| |