Geheimdienste: Wenn die Mathematik über „gut“ und „böse“ und Menschenleben entscheidet

Ich habe ja bereits in diversen Artikeln hier auf die Probleme einer rein auf mathematischen Modellen basierenden Vorhersage von menschlichem Verhalten im Rahmen von BigData hingewiesen.
Die Menschen werden als „triviale Maschine“ (Heinz von Förster) verstanden, d.h. man glaubt, dass sich Menschliches Verhalten vorhersagen lässt, da Menschen nach „Bauplänen“ funktionieren – es sich bei menschlichem Verhalten also um berechenbare Phänomene handelt.
Wir haben es aber sowohl bei der Natur, als auch beim Menschen mit komplexen (nicht-trivialen) Systemen zu tun, die sich zudem aufgrund der Emergenz tagtäglich – ja sogar minütlich (anders als ein Tisch) – verändern (ganz banal gesagt: Wir lernen laufend dazu). Mensch, Natur und Tiere verändern sich fortwährend in einem evolutorischen Prozess – aus Babys werden Erwachsene – ganz ohne mechanische Einwirkung und Umbau von Bauplänen. Der Hagen Fisbeck von jetzt ist im nächsten Moment (durch Autopoiesis, extere Einflüsse, Meme, etc.) ein anderer Hagen Fisbeck.
Zudem ist jeder Mensch aufgrund seiner Strukturdeterminiertheit anders als ein anderer – ein Übertragen aus dem Verhalten eines Menschen auf das eines anderen wird schon alleine hierdurch unmöglich. Heinz von Förster hat ausführlich bewiesen, dass komplexe Systeme (also nichttriviale Systeme) analytisch nicht erklärbar sind. Immer dann, wenn man es mit komplexen-Systemen – also Nicht-Trivialen-Maschinen im Sinne von Heinz von Förster – zu tun hat, ist eine Vorhersage von Verhalten nicht möglich – selbst dann nicht, wenn man in Daten erstickt.
Dennoch rennen auch die Geheimdienste mit BigData dieser Ideologie blind nach und glauben an die Daten, die ein von Menschen unter bestimmten Annahmen entwickeltes mathematisches Modell auswirft. Es herrscht der Glaube vor, dass alles messbar und Verhalten auf Basis dieser Daten vorhersagbar ist. Aufgrund der derzeitigen bereits gigantischen Möglichkeiten zur Datensammlung wird an Daten gesammelt und gespeichert, was das Zeug hält und gesammelt werden kann – und täglich kann mehr gesammelt werden, da sich die Verfahren weiterentwickeln oder ändern.

Dass dieser Glaube an mathematische Modelle, den man aus der Wirtschaft kennt, nun aber durch der Staaten und Geheimdienste sogar zu einer Lebensgefahr eines jeden einzelnen von uns führen kann wird aus dem sehr interessanten FAZ-Interview mit Ranga Yogeshwar sehr deutlich.

Die Gier der Geheimdienste nach Informationen ist alt, doch die moderne Technik verleiht ihr eine neue Qualität…
…Bislang wurden die Behörden erst dann aktiv, wenn eine Straftat vorlag, und man ging zum Arzt, wenn man krank war. Inzwischen aber lässt sich immer genauer berechnen, ob ein Mensch womöglich kurz davor steht, eine kriminelle Handlung zu begehen, oder eine noch gesunde Patientin eine erhöhte Wahrscheinlichkeit aufweist, zum Beispiel an Brustkrebs zu erkranken. Sie ist noch nicht krank, jedoch zeigen genetische Daten und bestimmte andere biologische Indikatoren, dass sie in der Zukunft erkranken könnte.
Und an genau dieser Stelle überschreiten wir den Rubikon zwischen Realität und dem digitalen Abbild: Nicht der Mensch an sich, sondern die Vorhersage des Modells wird Grundlage des Handelns. Der noch gesunden Patientin entfernt man vorsorglich die Brüste, und der unbescholtene Bürger wird vorsorglich womöglich verhaftet.“

Es heißt ja immer: Durch das Internet wird alles “Messbar”. Richtig ist sicher, dass vieles gemessen werden kann. Das war es dann aber auch schon. Denn genau jetzt fangen die ganzen Probleme an. Es herrscht oftmals (und scheinbar auch bei NSA & Co.) der Irrglaube vor, dass man jetzt, wo man so viel messen kann, auch mehr Sicherheit bekommt.
“Berechnung” hört sich immer danach an, dass es eine allgemeingültige Formel oder Modell als Schablone gibt, die überall angewendet werden kann.
Dabei wird aber übersehen, dass sobald der Faktor “Mensch” ins Spiel kommt es sich um komplexe (nicht-triviale) Systeme handelt, die analytisch nicht erklär- und berechenbar sind. Man schaue sich nur mal die teilweisen grauenhaften Amazon-Recommendations an über die einem dann manchmal zu Schmulzeln oder Kopfschütteln verleiten (und amazon hat über 15 Jahre Erfahrung in der Entwicklung von Vorhersagesystemen – zudem in einem recht überschaubar komplexen Bereich…) – wenn man nun aber daran denkt, dass die Geheimdienste solchen und ähnlichen Verfahren in einem noch komplexeren Umfeld quasi blind vertrauen und es dabei letztendlich um Menschen geht, die verdächtig werden, künftig eine kriminelle Handlung zu planen, dann wird einem schon ganz anders….
Bei der subjektiven Interpretation der Daten entsteht Kreativität. Entweder man lässt die Daten von einem Menschen interpretieren und ihn hieraus (subjektiv) Entscheidungen ableiten, oder man überlässt die Aufgabe den durch Menschen entwickelten Maschinen mit durch Menschen entwickelten (und somit subjektiven) Modellen.

Das führt uns zum nächsten Problem, denn es werden ständig neue Bechnungs”wahrheiten” erfunden. Schaut man sich die Analysesysteme der Wirtschaft an, so ist dieser Markt voll mit Systemen, die unterschiedliche Dinge messen (oder gleiche Dinge nur anders) oder mit unterschiedlichen Modellen arbeiten. Und jeder Anbieter glaubt, dass sein System besser ist als ein anderes und nur sein System die Wahrheit liefert. Aber welches ist nun das Beste System? Hier fängt wieder die (subjektive) Qual der Wahl an, welch(e) System(e) man implementiert. Aber damit nicht genug. Diese Systeme sind ja nie fertig. Laufend werden diese weiterentwickelt und bieten einem quasi jeden Tag neue “Wahrheiten”, die dann wieder für eine gewisse Zeit als “Weisheit letzter Schluss” dienen – bis zur nächsten, usw.
Soll heißen: So gut die Systeme der Geheimdienste auch sein mögen – sie sind nie final, d.h. Entscheidungen auf Basis eines heutigen technischen Systems könnten morgen schon wieder anders ausfallen.
Aus der Vielzahl von möglichen Daten werden zudem ja nur Ausschnitte in Berechnungen mit einbezogen – irgendwann muss man “abschneiden”, da nicht die ganze vernetzte Welt (digital und nicht digital) erfassbar ist.

In der Kybernetik 2. Ordnung beschreibt dies Heinz von Förster wie folgt:

Die Komplexität zwingt zur Selektion. Der Selektionszwang bedeutet Kontingenz, d.h. dass die Selektion jederzeit auch anders möglich ist. Die Selektion wird gesteuert durch die Struktur des beobachtenden Systems.
Jede Selektion ist demzufolge abhängig von der Struktur des Beobachters.

Jedes Modell schneidet somit aus der Welt des „Ganzen“ das heraus, was subjektiv als relevant erachtet wird.
Zudem kommen immer mehr bzw. andere Daten in den Datenpool hinzu, die entweder neu “entdeckt” wurden oder durch technologischen Fortschritt möglich werden zu erfassen. Und auch hier geht es immer weiter… Alle Berechnungen bleiben immer eine Frage der (subjektiven) Definitionen und Abgrenzungen (was beziehe ich ein und was nicht) zu einem bestimmten (nicht endlichen) Zeitpunkt – so wie in der Medizin die Forschung nie am Ende ist und neue Erkenntnisse die bisherigen, von denen man bisher überzeugt war, widerlegen.
Durch die immer größere Datenflut und Möglichkeiten steigt zudem die Unsicherheit – Wissen erzeugt Unwissen. Man kann somit nie genügend Daten sammeln, um zu mehr Sicherheit zu gelangen – Im Gegenteil. Dadurch, dass mit immer mehr Daten die Komplexität steigt und nicht verringert wird und auch die Anzahl der Möglichkeiten zunimmt (welche Daten beziehe ich in das Modell mit ein, welche nicht), steigt die Unsicherheit, d.h. die Entscheidungsfähigkeit verringert sich letztendlich. Die Zusammenhänge zwischen den Daten werden nicht verstanden, sondern man verliert sich immer mehr in der Tiefe. Je mehr man sich in die Tiefe der Daten verliert, desto weniger behält man den Überblick für das Ganze.
Wie sagte einmal ein weiser Mann: “Nur der Vollidiot ist sich absolut sicher”.

Die Zukunft hat noch nicht stattgefunden, insofern ist man auf Vergangenheits-Daten angewiesen und versucht aus diesen ein zukünftiges Verhalten vorherzusagen – was unmöglich ist. Es sind letztendlich jedoch keine Vorhersagen in Nicht-Labor- und Ceteris-Paribus-Bedingungen möglich. Egal, wieviele Daten man zusammenträgt.

Was die Geheimdienste mit Big-Data und all den vielen Verfahren und mathematischen Formeln und Modellen etc. zu betreiben versuchen, ist vergleichbar mit der Wettervorhersage (man könnte auch die Finanzkrise als Beispiel nehmen): Trotz des hohen finanziellen Aufwandes und der sehr weit entwickelten Wissenschaft in diesem Bereich passt die Wettervorhersage manchmal – meist liegt sie aber noch immer daneben (selbst Tsunamis konnten bislang nicht vorhergesagt werden).
Es handelt sich um Vergangenheits-Daten (die Zukunft hat ja noch nicht stattgefunden) und eine Prognose ist nicht möglich, da komplexe Systeme analytisch nicht erklärbar sind.

Ist die Überwachung jedes Bürgers an Sich nicht schon schlimm genug, so bekommt das Ganze durch die quasi willkürliche Vorverurteilung eines Menschens durch mathematische Modelle (die nicht nur bei amazon, Wettervorhersage oder Finanzkrise versagen) für mich eine zusätzliche Komponente, die mir mehr als Unbehagen bereitet…

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

*
To prove you're a person (not a spam script), type the security word shown in the picture. Click on the picture to hear an audio file of the word.
Click to hear an audio file of the anti-spam word