Ruf nach Ethik und Werten bei neuen Technologien
Neue Technologien beeinflussen oder überzeugen Konsumenten, bestimmte Dinge zu tun. Experten äußern Kritik an fehlenden Kontrollmechanismen.
Von Serdar Sahin
Wien –Der technologische Wandel bietet eine Schar an neuen Möglichkeiten. Die Basis dafür bilden Smartphones, cloudbasierte Programme, aber auch Big-Data – also die Sammlung großer Menge an Daten.
Das sieht dann in der Realität so aus: Versicherungen belohnen Jugendliche mit einem kleinen Prämien-Bonus bei einem Verzicht auf „Disco“-Fahrten. Eine App zeigt dabei an, ob das Auto in der Nacht auf Samstag oder Sonntag stehen gelassen wird. Fitness-Apps tragen dazu bei, sich öfter zu bewegen und gesünder zu ernähren. Aber auch für Online-Werbung werden diese so genannten „persuasiven“ Technologien eingesetzt. Damit sind Technologien gemeint, die Nutzer von etwas überzeugen oder in eine bestimmte Richtung beeinflussen sollen. Wie solche Technologien den Konsumenten in eine bestimmte Richtung stubsen, diskutierten Experten bei einer Podiumsdiskussion, zu der die Plattform „Digital Business Trends“ eingeladen hatte.
Dabei wurde auch ein Beispiel angeführt, das aktueller nicht sein dürfte: Für bestimmte Situationen beim Autofahren braucht man Automatismen. Das heißt, man muss es ein paar Mal gemacht haben – beispielsweise das seitliche Einparken –, erklärt Manfred Tscheligi vom Österreichischen Institut für Technologie (AIT). Aber wenn künftig autonome Fahrzeuge diese Aufgaben übernehmen, laufe man Gefahr, das zu verlernen, so der Experte. Mit persuasiven Technologien könnte man dagegensteuern. Etwa, dass bei einer Parkmöglichkeit spielerisch darauf hingewiesen wird, ob man das noch könne. „Und der Fahrer sagt ‚Ja‘ und nimmt dann diese Herausforderung an.“ So könnten kritische Situationen hin und wieder geübt werden, erklärt Tscheligi.
Solche beeinflussenden Technologien könnten aber auch missbraucht werden. „Ich kann eine Technologie entwickeln, die mit den richtigen Mechanismen jemanden dazu bringt, aus dem Fenster zu springen“, will Tscheligi mit einem makabren Beispiel die Gefahren dahinter verdeutlichen. „Bei Applikationen schaut sich niemand das ethische Element an. Da kann ich machen, was ich will“, kritisiert der Technologie-Experte. Es gebe keine Ebene der Zulassung. Genau das fordert Tscheligi aber. „Wir gestalten das Verhalten von Menschen mit diesen Technologien – das ist schon was Heikles.“
Auch nach Ansicht von Franz Dornig von IBM Österreich bräuchte es hier ein Wertesystem. „Damit müssen wir uns auseinandersetzen“, erzählt er im Gespräch mit der TT. Gleichzeitig möchte Dornig klarstellen, dass IBM nur die Technologie zur Verfügung stelle. Es sei aber die Aufgabe des Verkäufers, diese verantwortungsvoll einzusetzen.
Wie Meinung beeinflusst wird, zeigt Jürgen Schmidt vom heimischen Technologie-Unernehmen strg.at anhand von Facebook. Es werden dort jene Nachrichten eingeblendet, für die man selbst bisher Interesse gezeigt hat oder die von Freunden gutgeheißen wurden. Das ist die tägliche Selbstbestätigung in der Echokammer. Die zunehmend personalisierte Form der Internetsuche auf Google und anderen Suchmaschinen trägt dazu bei, das Problem der „Filterblase“ zu verschärfen. Prinzipiell sieht Schmidt personalisierte Werbung positiv. Doch problematisch sei, wenn die dahinter stehenden Programme außerhalb der Wirtschaftlichkeit verwendet werden. „Wenn zum Beispiel persuasive Systeme in der Politik verwendet werden, um Wahlergebnisse zu beeinflussen, so ist das bedenklich“, meint Schmidt. Für ihn sei deshalb die Ethik dahinter wichtig.
Beeinflussende Systeme wiederum hingen eng mit dem Thema Datenschutz zusammen. Christoph Hammer vom Software-Unternehmen Navax sieht das Datenschutzthema so: „Wenn der Nutzen für den Anwender groß genug ist, dann sieht er über den Datenschutz hinweg.“ Ähnlich sieht das Schmidt. Seiner Meinung nach sei dem Nutzer egal, welche Daten gespeichert werden, wenn die Services den Leuten das Leben verbessern würden.