Exklusiv

Yvonne Hofstetter: Maschine steuert Mensch

(Symbolfoto)
© APA/dpa

Kann eine künstliche Intelligenz die Demokratie retten? Diese Frage stellt Yvonne Hofstetter in ihrem neuen Buch und erklärt, was die Digitalisierung mit Terrorismus und Demokratieverdrossenheit zu tun hat.

In Ihrem ersten Buch „Sie wissen alles“ warnten Sie davor, zu viele Daten preiszugeben. Haben Sie noch immer kein Smartphone?

Yvonne Hofstetter: Ja, obwohl es immer schwieriger wird. Aber ich weiß, was man aus Daten machen kann. Daten sind ja nicht dafür da, dass wir Data Scientists in der Vergangenheit herumwühlen, das interessiert uns überhaupt nicht. Daten sind immer dazu da, um in die Zukunft einzugreifen. Es wird ganz gezielt versucht, in die Souveränität von Menschen einzugreifen. Die Internetgiganten nennen das die globale Konsumentensteuerung. Das heißt, wenn man Information hat, kann man steuernd und regelnd in die Gesellschaft oder in jedes andere System eingreifen, das kann auch eine Industrieanlage sein.

Wie gut lässt sich der Mensch manipulieren?

Hofstetter: Der Mensch ist sehr manipulierbar. An Pokémon Go sieht man sehr deutlich, wie Menschen gesteuert werden können, sie können zu ganz irrsinnigen Verhaltensweisen angeleitet werden. Wenn die Leidenschaft zuschlägt, dann setzt der Verstand aus. Es ist beispielsweise auch so, dass sich Menschen von einem digitalen Assistenten, der mehr Bequemlichkeit, mehr Nutzen verspricht, leiten lassen.

Zur Person: Yvonne Hofstetter: Die IT-Unternehmerin und Bestsellerautorin („Sie wissen alles“) studierte Jus. Analyse und Fusion großer Datenmengen für Industrie und Staat sind ihr Arbeitsschwerpunkt.
© Heimo Aga

In Ihrem neuen Buch „Das Ende der Demokratie“ beschreiben Sie ein Szenario, in dem Wissenschafter mithilfe einer Künstlichen Intelligenz (KI) versuchen, den Kollaps der europäischen Demokratien zu verhindern. Science-Fiction?

Hofstetter: Das Szenario ist ganz realistisch – meine Firma baut seit Jahren Künstliche Intelligenz, die autonom steuert und regelt. Ich hätte für mein Buch auch ein anderes Thema herausgreifen können: zum Beispiel die KI-basierte Steuerung einer Industrieanlage, nur, das interessiert wahrscheinlich weniger Menschen, als dass man auch das komplexe System „freie demokratische Gesellschaft“ steuern und regeln kann – soweit man es systemisch und systemtheoretisch begreift. Im Augenblick arbeite ich genau an so einem System im Kleinen. Es geht um die Lenkung von Menschen, die damit einverstanden sind, weil es ihnen Spaß macht. Also etwas Ähnliches, wie Facebook oder Google das sowieso mit ihren Anwendern tun. Ich bin gespannt, was herauskommt: Es käme mir ja ein bisschen gruselig vor, wenn die Menschen auf die Vorschläge der Maschine einsteigen, aber ich arbeite schon lange mit künstlicher Intelligenz und habe die Erfahrung gemacht, dass Menschen sich wahnsinnig gerne auf Maschinen verlassen.

Selbst Entscheidungen wie die Partnerwahl werden längst einem Algorithmus verantwortet.

Hofstetter: Ich glaube, das liegt an unserem Vertrauen in Maschinen. Wir glauben, wenn der Computer etwas berechnet, wird es schon richtig sein. Man sollte sich aber nicht zu sehr auf diesen „Automation Bias“ verlassen, denn es ist immer der Wissenschafter, der Designer, der entscheidet, was eine Maschine kann, und das ist selten objektiv. Wenn sich meine Wissenschafter beispielsweise dafür entscheiden, dass Wahlen nicht zur Demokratie gehören, stattdessen aber Propaganda, dann kriegt das einen ganz anderen Dreh.

Auf welchem Entwicklungsstand sind diese intelligenten Maschinen?

Hofstetter: Wir haben seit Mitte des letzten Jahrhunderts mit künstlicher Intelligenz zu tun. Jetzt haben wir einen Zeitpunkt erreicht, wo die Forschung wirklich liefern wird. Wir machen diese künstlichen Intelligenzen mit unseren Daten schlau. Vielen Menschen ist nicht bewusst, dass sie mit ihren Daten die Technologiegiganten noch reicher, größer und mächtiger machen. Die künstlichen Intelligenzen nutzen unsere Daten, um zu lernen, wie wir uns verhalten, sie profilen uns, sie sagen uns voraus, das können sie gut.

Wie kann es sein, dass trotz Massenüberwachung Terroranschläge nicht verhindert werden können?

Hofstetter: Wir sammeln Daten aus einem so genannten komplexen System im Sinne der Komplexitätsforschung. Und wir machen durch die stärkere Vernetzung zum „Internet der Dinge“ unsere Gesellschaft noch komplexer. Alles, was still war, der Regenschirm, die Fensterscheibe, fängt plötzlich an zu reden, weil wir alles mit IP-Adressen versehen. Eine Eigenschaft von komplexen Systemen ist aber, dass sie immer mehr ins Chaos rücken. Es kommt zu Zuständen und Effekten, mit denen man überhaupt nicht gerechnet hat, zum Beispiel das Auftreten einer Terrormiliz IS, das auch – nicht nur – ein Internetphänomen ist. Ohne die Vernetzung wäre das Phänomen IS hier in Europa gar nicht präsent. Auch Finanzmärkte sind komplexe Systeme: Kein Algorithmus kann Finanz-Crashes, wie etwa die Lehmann-Pleite vorhersehen.

Welchen Konflikt gibt es Ihrer Ansicht nach zwischen den europäischen Freiheitsrechten und den Interessen des Silicon Valley?

Hofstetter: Der europäische Standpunkt kommt von der Menschenwürde her. Nach US-Verfassungsverständnis dienen hingegen „Free Trade“ und „Free Speech“ als Letztbegründung. Wer sich aber auf ein unreguliertes Marktgeschehen abstützt, so wie die originär europäischen Überlegungen der Philosophie, dann bedeutet das immer, dass der Mensch ausgebeutet wird. In der ersten industriellen Revolution haben wir die Ausbeutung in Bezug auf die menschliche Arbeit erfahren, heute geschieht das mit unseren persönlichen Daten. Persönliche Daten werden wie eine Sache behandelt, dabei sind sie existenziell für den Menschen und seine Zukunft.

Auf Portalen wie Facebook wird ohne demokratisch legitimierte Verfahren zensiert und gelöscht, ist die digitale Welt eine Parallelwelt?

Hofstetter: Es ist eine Parallelwelt. Ich wollte in meinem Buch zum Ausdruck bringen, dass wir zwar demokratische Wahlen haben, neben diesen demokratisch eingesetzten Parlamenten passiert aber etwas ganz anderes. Die Gesellschaft wird von Wirtschaftsakteuren radikal umgebaut und wir werden überhaupt nicht gefragt, ob wir das wollen. Ob wir wie von einem Kriminalisten überwacht und geprofiled werden wollen. Wir nutzen diese digitalen Angebote, als gäbe es kein Morgen und wir legitimieren das Ganze auf soziologischem Weg.

Sehen Sie einen Zusammenhang zwischen Digitalisierung und dem weltweit erstarkenden Nationalismus?

Hofstetter: Ich glaube, dass sie was miteinander zu tun haben. Eine aktuelle Studie stellte fest, dass die Generation der Digital Natives, die zwischen 1980 und 1999 Geborenen, wenig Demokratiezufriedenheit hat: In den USA wünschen sich 49 Prozent dieser jungen Generation einen starken Führer. Gleichzeitig nutzen wir digitale Geräte und die künstlichen Intelligenzen, die Entscheidungsunterstützung geben. Es liegt in der Natur des Menschen, dass er nicht so gerne Entscheidungen trifft, weil sie so oft risikobehaftet sind. Das trifft mit dem Wunsch der Digital Natives nach einem starken Führer zusammen.

Wie kann die digitale Zukunft humaner gestaltet werden?

Hofstetter: Wir müssen unseren Gesetzeskorpus auf einen Stand bringen, der der digitalen Ära entspricht. Da gibt es schöne Ansätze auf EU-Ebene, wo man sich mit dem Mensch-Maschine-Verhältnis befasst: Welche Ethik braucht eine Maschine, wenn sie mit dem Menschen umgeht, was ist erlaubt, was nicht. Die technologischen Fortschritte sind ja auch mit Chancen verbunden, wir haben Technologien, die wir einsetzen können, um den Mensch und seine Privatsphäre besser zu schützen. Es gibt allerdings zwei Hindernisse: Das eine ist die Industrie und Wirtschaftslobby, die ein gegenteiliges Interesse hat. Solche Technologien machen Produkte natürlich auch teurer. Wir als Bürger und Konsumenten müssen bereit sein, mehr Geld zu bezahlen. Das ist ein Problem, denn man hat uns daran gewöhnt, digitale Angebote kostenlos zu nutzen.

Das Gespräch führte Silvana Resch