1 Einleitung

Künstliche Intelligenz und digitale Transformation durchdringen das menschliche Dasein – sowohl das Berufs- als auch das Privatleben. Die wachsende Interaktion zwischen Menschen und Maschinen führt dazu, dass die Maschinen als Produkte der Menschen die Menschen selbst verändern (Ramge 2018). Beispielsweise reduzieren digitale Navigationssysteme die menschliche Orientierungskraft. Im Zuge digitaler Transformation ergeben sich ethische Chancen und ethische Risiken (Kirchschläger 2021). Beispielsweise erlauben Assistenzsysteme Menschen mit Behinderungen mehr Selbstbestimmung in ihrem Alltag. Gleichzeitig beinhaltet gegenwärtig digitale Transformation massive Verletzungen des menschenrechtlich garantierten Anspruchs auf Datenschutz und auf Privatsphäre.

Im folgenden Artikel wird zunächst auf der Basis eines Verständnisses der Beziehung zwischen technologischem Fortschritt und Ethik als Interaktion (Kirchschläger 2020) eine kritische Überprüfung von den Schlüsselbegriffen „künstliche Intelligenz“, „digitale Transformation“ und „Innovation“ vorgenommen und für „künstliche Intelligenz“ mit dem Begriff „datenbasierte Systeme (DS)“ eine Alternative eingeführt. Anschliessend wird die Frage diskutiert, ob nicht die Maschinen die Beantwortung der ethischen Fragen selbst übernehmen und die Menschen davon entlasten können. Schliesslich stellt sich dabei auch die Herausforderung, die Möglichkeiten datenbasierter Systeme im Bereich der Ethik so zu denken, dass dies auch der Komplexität von Ethik gerecht wird, und die damit verbundene Verantwortung von Menschen zu identifizieren.

2 Kritik von Schlüsselbegriffen

2.1 Künstliche Intelligenz

Künstliche Intelligenz kann umschrieben werden als „machines that are able to ‚think‘ in a human like manner and possess higher intellectual abilities and professional skills, including the capability of correcting themselves from their own mistakes.“ (Tzafestas 2016, S. 25) Künstliche Intelligenz wird heute in „schwache künstliche Intelligenz“ und „starke künstliche Intelligenz“ unterschieden. Während „schwache künstliche Intelligenz“ entwickelt wird, um eine bestimmte und begrenzte Aufgabe zu erfüllen, soll eine „starke künstliche Intelligenz“ menschlicher Intelligenz ähnlich sein und nahekommen, ja diese sogar übertreffen (Misselhorn 2018). Ausgangspunkt der Forschung im Bereich künstlicher Intelligenz war die Überzeugung, dass „every aspect of learning or any feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.“ (McCarthy et al. 2006, S. 12) Angesichts der Beschaffenheit von künstlicher Intelligenz (Abele und D’Onofrio 2020) ergeben sich aus ethischer Perspektive Zweifel, ob der Begriff überhaupt adäquat ist, da künstliche Intelligenz zwar danach strebt, menschliche Intelligenz zu imitieren, dies aber zum einen nur auf bestimmte Intelligenzbereiche beschränkt bleibt (z. B. gewisse kognitive Leistungen). Zum anderen ist davon auszugehen, dass künstliche Intelligenz der menschlichen Intelligenz in gewissen Intelligenzbereichen maximal ähnlich werden kann, aber nie gleich sein kann. Zu Recht erfolgt dazu der Einwand: „Intelligenz erschöpft sich nicht darin, ein bestimmtes kognitives Problem zu lösen, sondern es kommt darauf an, wie das geschieht.“ (Misselhorn 2018, S. 17) Passender wäre wohl der Begriff „datenbasierte Systeme (DS)“ (Kirchschläger 2021), da diese Bezeichnung das beschreibt, was vermeintliche künstliche Intelligenz ausmacht: die Generierung sowie Sammlung von und der Umgang mit bzw. die Bearbeitung von hohen Datenmengen.

2.2 Digitale Transformation

Der Begriff „digitale Transformation“ bezeichnet verschiedene technologiebasierte Veränderungen, wie z. B. „Digitalisierung“, „Automatisierung“, „Robotisierung“, „Maschinisierung“, „Einsatz von künstlicher Intelligenz“ und „Umgang mit Superintelligenz“ bzw. von datenbasierten Systemen (DS) sowie mit Super-DS. Besonders von Interesse erweist sich aus ethischer Sicht, wie sich diese technologiebasierte Transformation von früheren unterscheidet. Anders als bei bisherigen technologiebasierten Wandelepochen (Hessler 2016) geht es bei der „digitalen Transformation“ (Kirchschläger 2021) u. a. erstens darum, Menschen die Arbeit nicht zu erleichtern, sondern den Menschen im Wertschöpfungsprozess durch selbstlernende Systeme zu ersetzen (z. B. zielen automatisierte Kassen in Lebensmittelgeschäften nicht darauf ab, die berufliche Aufgabe des Einkassierens für die Kassiererinnen und Kassierer zu erleichtern – wie dies damals beim Schritt vom Pflug zum Traktor in Bezug auf die Tätigkeit des Bauers der Fall war). Letztere charakterisiert zudem zweitens gerade, dass sie auf immer weniger bis keinen menschlichen Input angewiesen sind (Floridi 2015). Drittens umfasst die digitale Transformation alle beruflichen Aufgaben (z. B. Roboter-AnwältInnen, Roboter-RichterInnen etc.) (Brynjolfsson und McAfee 2015). Viertens erfährt die „digitale Transformation“ durch die Globalisierung eine Verstärkung, die wechselseitig erfolgt, (Wilhelms 2018) was sich auch einzigartig dynamisierend auf die durch die „digitale Transformation“ verursachten Veränderungen der Arbeitswelt auswirkt. Fünftens sind sowohl das Berufs- als auch das Privatleben von den Veränderungen massiv betroffen. Sechstens verlaufen die Veränderungen viel schneller in kleineren Zeitintervallen ab.

2.3 Innovation

DS und digitale Transformation stützen sich auf Innovation ab. Letztere kann u. a. verstanden werden als „making something new that has ethical implications“ (Enderle 2015). Innovation muss per se nicht immer Innovation zum ethischen Guten sein. „Given the immense ambiguities of innovations – in themselves and in their consequences, the ethical scrutiny of innovation is a dictate of reason that should not be ignored any longer“. (Enderle 2014, S. 10) Es braucht für bzw. in Innovation ethische Orientierung. Der technologische Fortschritt selbst kann diese jedoch nicht leisten (Sacks 2015).

Die Komplexität der ethischen Untersuchung von technologischer Innovation erhöht, dass sie sich oft als Ergebnis von vielen kleinen Schritten und regelmässig als Produkt des Zufalls erweist, (Boutellier et al. 2010) was einen ethischen Zugriff bzw. eine ethische Prägung des Prozesses erschwert. Hinzu kommt, dass Technologie gewöhnlich nicht nach der sorgfältigen Prüfung von möglichen mittel- und langfristigen Folgen entwickelt wird. Meistens werden neue Technologien mit dem Ziel vorangetrieben, kurzfristigen Gewinn zu erzielen und dabei keine unmittelbaren Probleme zu schaffen. (Shibasaki 2005) Hinzu kommt, dass Innovationsprozesse in ihrer eigenen Komplexität nicht zu unterschätzen sind. „First, engineering and technology development typically take place in collective settings, in which a lot of different agents, apart from the engineers involved, eventually shape the technology developed and its social consequences. Second, engineering and technology development are complex processes, which are characterized by long causal chains between the actions of engineers and scientists and the eventual effects that raise ethical concern. Third, social consequences of technology are often hard to predict beforehand.“ (Doorn und van de Poel 2012, S. 2).

In letzter Konsequenz geht es angesichts von Innovation in Form von DS und digitaler Transformation um die Frage, ob die Menschen das, was technisch machbar ist, auch wirklich machen sollen. Ethische Orientierung angesichts und im Zuge dieser Innovation – nämlich die Identifizierung der Chancen und Risiken von DS und digitaler Transformation sowie der Grenze zwischen dem technisch Machbaren und dem Gesollten – ist von Nöten.

3 Können Menschen ethische Fragen und Probleme an datenbasierte Systeme DS delegieren?

In Anbetracht der oben eingeführten hohen Komplexität der ethischen Beschäftigung mit DS und digitaler Transformation wäre es für die Menschen verlockend, die ethische Verantwortung an DS zu delegieren und auf ethische datenbasierte Systeme zu vertrauen. Bezeichnungen wie „moral technologies“ legen eine solche Möglichkeit nahe. Während Maschinen, Roboter und DS in der Lage sind, moralische Regeln zu befolgen sowie darauf basierend moralische Entscheidungen zu fällen und Handlungen zu vollziehen, ist ihnen aus folgenden Gründen die Moralfähigkeit, die Menschen ethisch begründbar zukommt (Kant 1797/1974), abzusprechen: Ein Gewissen kann von Technologien nicht ausgesagt werden. Im Gewissen fliessen objektiv Gesolltes und subjektiv in einer spezifischen Situation in einem bestimmten Kontext im Zuge einer einzigartigen Begegnung mit Menschen Erlebtes zusammen (Kirchschläger 2017a). „Conscience is an active faculty that discovers and discerns the good within the complexity of each situation.“ (Hogan 2004, S. 86) Die Potenziale, die Technologien hinsichtlich von moralischen Entscheidungen und Handlungen besitzen, kommen dem menschlichen Gewissen nicht in Ansätzen nahe. Ihnen fehlen die verschiedenen Ebenen der Sittlichkeit bzw. der Pflicht sowie der Existenz, die im Gewissen in unterschiedlicher Qualität, Intensität und geprägt von individueller Entwicklung bzw. sozialer Beeinflussung zusammenfliessen.

Ebenso müssen Technologien ohne Freiheit gedacht werden. Denn Technologien werden von Menschen entworfen, entwickelt und hergestellt, d. h. sie werden heteronom produziert. So erweist sich auch die Aneignung ethischer Normen von Menschen gesteuert. In letzter Konsequenz bleiben demnach Maschinen immer in dieser Fremdbestimmung gefangen. Auch selbstlernende Maschinen gehen bildlich gesprochen auf eine erste Zeile des Codes zurück, die immer vom Menschen stammt.

Ohne Freiheit kann Technologien auch keine Autonomie zugesprochen werden.Footnote 1 Während es Menschen entspricht, für sich selbst allgemeine moralische Regeln und Prinzipien zu erkennen, diese für sich selbst zu setzen und diese ihren bzw. seinen Handlungen zugrunde zu legen (Kant 1797/1974, S. 20), ist dies Technologien nicht möglich. Technologien sind primär auf Zweckmässigkeit ausgerichtet und können sich als selbstlernende Systeme Regeln setzen, z. B. um eine Effizienzsteigerung zu erreichen. Diese Regeln weisen aber keine ethische Qualität auf. Denn Maschinen scheitern am Prinzip der Verallgemeinbarkeit: „Eine rationale oder kritische Moral ist eine, die für ihre Grundsätze den Anspruch rationaler Begründbarkeit erhebt. Moralische Grundsätze sind rational begründet, wenn sie allgemein zustimmungsfähig sind, d. h. annehmbar für alle betroffenen Personen unter der Voraussetzung ihrer vollkommenen Gleichberechtigung und Selbstbestimmungsfähigkeit.“ (Koller 1990, S. 75) Daher ist z. B. im Bereich der Automatisierung von Mobilität der Begriff „autonome Fahrzeuge“ zu vermeiden und durch den Begriff „selbstfahrende Fahrzeuge“ zu ersetzen (Kirchschläger 2017b).

Um ein allfälliges Missverständnis vorzubeugen: DS können Menschen sehr wohl in ethischen Entscheidungen und in der Wahrnehmung ihrer ethischen Verantwortung unterstützen (Moor 1995). DS können auch ethische Regeln einprogrammiert bzw. antrainiert werden, um ein ethisch legitimes Entscheiden und Handeln einer Maschine zu erreichen (Wallach und Allen 2009). Die Menschenrechte aller Menschen wirken in dieser Verantwortung der Menschen konstituierend und leitend, datenbasierte Systeme DS mit Ethik zu schaffen.

4 Die Komplexität von Ethik

4.1 Die regelüberragende Einzigartigkeit des Konkreten

Im Zuge der Entwicklung von datenbasierten Systemen DS mit Ethik gilt es, die Komplexität von Ethik zu meistern. Um der Komplexität der Ethik gerecht zu werden, ist nicht mathematische oder digitale Ethik zu betreiben. Ethik erweist sich in ihrer Komplexität wegen ihrer Sensibilität der regelüberragenden Einzigartigkeit des Konkreten als nicht umfassend in die Sprache der Mathematik und der Programmierung übersetzbar. U. a. deswegen handelt es sich bei Ethik nicht um Kasuistik. Gewisse Aspekte der Ethik lassen sich als Regeln für DS programmieren bzw. antrainieren. Einige ethische Elemente entziehen sich diesem digitalen Zugriff. So lassen sich DS beispielsweise das Prinzip der Menschenwürde aller Menschen und die Menschenrechte sowie ethische Handlungsmaximen (Verbot der Lüge, des Diebstahls) vermitteln. Selbst in diesem Bereich des Möglichen gilt es aber nicht zu vernachlässigen, dass DS zwar diese Regeln lernen und befolgen können, diese Achtung der Regeln jedoch ohne Wissen um die ethische Qualität der Regeln erfolgt. In anderen Worten: DS würden auch nichtethische oder unethische Regeln in gleichem Masse respektieren.

Schwierig bis unmöglich wird ein Transfer der Ethik in die Mathematik und in die Programmierung, wenn Handlungsmaximen divergieren oder kollidieren. Die zunehmende Komplexität der Lebenswirklichkeit fordern zu realitätsgerechten Normeinsichten und zu differenzierteren und besseren Abwägungen heraus, was DS wegen ihrer fehlenden Moralfähigkeit überfordert. Unmöglich erweist sich die Übersetzung der Ethik in die Sprache der Mathematik, der Programmierung und der Digitalisierung in Situationen und Fällen, wo beim Menschen die Tugend der Epikie und das Gewissen besonders zum Zuge kommen. „Epikie ist die Berichtigung des Gesetzes da, wo es in Folge seiner generellen Fassung lückenhaft ist.“ (Aristoteles 1985) Epikie trägt der Wirklichkeit Rechnung, dass in der konkreten Begegnung mit konkreten Menschen in einer konkreten Situation Regeln an ihre Grenzen kommen, da das Konkrete in seiner Einzigartigkeit das Regelhafte weit übertrifft. „Die generell geltenden konkreten ethischen, die positivrechtlichen und die vielen anderen Normen sind zwar unerlässliche Voraussetzung, reichen aber nicht aus, um jenen tragfähigen Grundbestand an Humanität zu gewährleisten, der diese Gesellschaft angesichts der Vielfalt vor dem Zerreissen und den schlimmen Folgen, die sich daraus ergeben, bewahrt. Unweigerlich müssen wir in der konkreten Situation bisweilen auch Normen übertreten, um menschlich zu handeln, ohne dass wir deswegen die Notwendigkeit von Normen bestreiten oder leugnen, dass diese im Allgemeinen gelten.“ (Virt 2007, S. 42) Den Menschen wird damit verbunden eine Normgestaltungsverantwortung zugemutet, die für DS aufgrund ihres Mangels an Moralfähigkeit unerreichbar bleibt. Diese Normgestaltungsverantwortung zielt darauf ab, dass Regeln kontinuierlich kritisch hinterfragt und – falls nötig – im Dienste einer prospektiven ethischen Verbesserung von Menschen angepasst werden.

Diese prospektive kreative Ebene umfasst auch eine Normgebungsverantwortung der Menschen. „Die Wahrnehmung des sittlichen Anspruches bedeutet ja keineswegs bloss ein Ablesen von normativ festgelegten Sach- und Sinnverhalten, sondern ist immer schon ein schöpferisches Sehen und Entdecken. Schöpferisch ist dieses Sehen und Entdecken dadurch, dass der Mensch aufgefordert ist, in seiner Phantasie neue sinnvolle Momente der Lebensgestaltung zu riskieren, die im bisherigen Regelsystem nicht vorkamen. Die sittliche Gutheit der Person drängt ihn dazu, das menschlich Richtige in Form von Modellen weiterzuentwickeln.“ (Virt 2007, S. 43) Auch die Normgebungsverantwortung geht weit über das in die Sprache der Mathematik und der Programmierung Übersetzbare hinaus und kann daher DS nicht übertragen werden.

Einer Übertragbarkeit in die Mathematik und in die Programmierung entzieht sich auch die Tugendethik mit ihrem Fokus auf Charaktereigenschaften und Haltungen angesichts der nicht digitalisierbaren Moralfähigkeit der Menschen. „When we talk about robot ethics, we should talk about normative ethics for the use of robots, i.e. right and wrong conduct of robots is the responsibility of the robot users and not of the robots themselves. (…) a robot should not be ethical by itself; it should be ethically used.“ (Krenn 2016, S. 17).

4.2 Illegitimer Zweck

DS und digitale Transformation stellen für Mensch und Umwelt eine Gefahr aus ethischer Sicht dar, wenn sie dazu konzipiert, entwickelt, programmiert, produziert und eingesetzt werden, um einen illegitimen Zweck zu verfolgen. Wenn beispielsweise DS Zerstörung bewirken sollen (z. B. automatisierte Waffensysteme das Töten von Menschen), erweisen sie sich als ethisch illegitim, da sie einem illegitimen Zweck dienen.

Eine weitere Veranschaulichung stellt der Einsatz von Gesichtserkennungs- und Überwachungstechnologien für das Sozialpunktesystem der gegenwärtigen chinesischen Regierung dar, dass dem illegitimen Zweck dient, alle Menschen auf dem chinesischen Territorium total zu überwachen und somit u. a. ihre Menschenrechte auf Freiheit, auf Privatsphäre, auf Meinungsäusserungs- und Informationsfreiheit zu verletzen, um eine Bewertung der Menschen gemäss ihrem „social credit“ vorzunehmen (NZZ 2018). Dabei handelt es sich um ein Pilotprojekt mit Millionen Menschen, das landesweit in China eingeführt wird. Das Sozialpunktesystem der gegenwärtigen chinesischen Regierung sieht vor, dass das Verhalten eines Menschen zu höherem oder niederem „social score“ führt. Beispielsweise führen kritische Äusserungen über die Regierung oder die Lektüre von diktaturkritischen oder von menschenrechtsethischen Büchern zu Punkteabzügen. Ein zu tiefer „social score“ führt zu konkreten Konsequenzen für das individuelle Leben, z. B. zur Verhinderung von Buchung von Inland-Flug- und Zugreisen, zu Einschränkungen bei der Buchung von Hotels, zur Unterbindung des Zugangs zu Schulen und Universitäten für die eigenen Kinder, zu Begrenzungen bei der Arbeitsplatzsuche, usw.

4.3 Illegitimer Weg

Ebenfalls ethische Risiken ergeben sich bei DS, wenn sie zwar für etwas ethisch Gutes konzipiert, entwickelt, programmiert und produziert werden, aber zur Erlangung dieses legitimen Zwecks einen illegitimen Weg wählen. Der Auftrag an ein selbstfahrendes Fahrzeug, einen Menschen möglichst schnell von A nach B zu bringen, erweist sich unter Einhaltung der Achtung der Menschenwürde und der Menschenrechte als legitim. Illegitim kann das Mittel zur Erreichung dieses Zwecks sein, wenn das selbstfahrende Fahrzeug zur effizienten Zielerreichung die Menschenrechte aller Menschen missachtet und Menschen überfährt.

4.4 „Dual Use“

Die sogenannte „dual use“-Problematik umfasst das Potenzial, dass das gleiche DS für einen legitimen oder illegitimen Zweck eingesetzt werden kann. Diese „dual use“-Problematik lässt sich am Beispiel der Drohne illustrieren: Drohnen können dafür eingesetzt werden, um Menschen in Katastrophengebieten mit lebensnotwendigen Nahrungsmitteln zu versorgen, wo Menschen nicht mehr hinkommen. Die gleichen Drohnen können aber auch für gezielte Tötungen als sogenannte „Killerdrohnen“ eingesetzt werden. Und selbstverständlich fällt die ethische Bewertung einer solchen Maschine in den beiden Situationen diametral entgegengesetzt aus. Diese „dual use“-Problematik zeigen die Grenzen einer generellen Bewertung von Drohnen auf. Eine allgemeine Einschätzung zu Drohnen muss im Zuge einer differenzierten ethischen Analyse durch eine Betrachtung der Drohnen in ihrer Anwendung ergänzt werden.

Zu reduktionistisch erweist sich die Beschreibung der „dual use“-Problematik als „deviation of intent“ (DiEuliis und Giordano 2018), da die Möglichkeit mitzubedenken ist, dass ein Forschungs- und Innovationsprozess auch mit einem ethisch negativen Ziel in Angriff genommen werden kann. Wie oben erläutert kann bei Innovationsprozessen nicht einfach automatisch davon ausgegangen werden, dass diese nach ethisch positiven Zwecken streben.

Gleichzeitig lässt sich festhalten, dass die „dual use“-Problematik weniger als ein Dilemma umfasst, wie es der US National Research Council konzeptionell zu fassen sucht (Imperiale und Casadeval 2015), weil sie nicht notwendigerweise eine Dilemma-Struktur aufweisen muss, und somit eine ethische Analyse durchaus ethisch Positives von ethisch Negativem zu differenzieren vermag. Schliesslich führt die „dual use“-Problematik dazu, dass aus ethischer Sicht nicht nur die Technologien als solche, sondern deren Anwendungen in den Blick genommen werden müssen.

4.5 Ambivalenz

Ambivalenz bezeichnet die Möglichkeit, dass DS einem ethisch guten Zweck dienen können, dabei aber auch gleichzeitig etwas ethisch Schlechtes umfassen. Dies lässt sich am Beispiel der Automatisierung von Mobilität zeigen: Staus mit ihrer negativen ökologischen und ökonomischen Wirkung entstehen u. a. wegen der Variation von Tempo und wegen der unterschiedlichen Geschwindigkeiten der einzelnen Fahrzeuge. Würde es gelingen, beides zu minimieren, käme es zu einer Verringerung von Staus. Automatisierte Mobilität umfasst beides – die Abschwächung der Variation von Geschwindigkeit durch einen Verkehrsfluss auf gleichem Tempo sowie die Vereinheitlichung von Geschwindigkeiten aller Fahrzeuge durch die dezentrale Kommunikation zwischen den einzelnen Fahrzeugen.

Verbunden mit der dezentralen Kommunikation zwischen den einzelnen Fahrzeugen sind auch deutlich weniger Unfälle zu erwarten, da die fahrenden Systeme dezentral untereinander dafür sorgen, dass es grossmehrheitlich nicht zu Zusammenstössen kommt. Dies bedeutet nicht, dass Unfälle vollumfänglich ausgeschlossen werden können. Denn selbstverständlich kann es bei fahrenden Systemen auch zu Fehlern kommen; sie treten aber viel seltener auf, da Unfallursachen wie z. B. Ablenkung, Müdigkeit, Stress, Emotionen ausgeschlossen werden können. (Axhausen 2016) Weniger Staus, weniger Unfälle – erfreuliche Perspektiven, die sich auch aus ethischer Sicht bei der Automatisierung von Mobilität ergeben. Hinzu kommen noch weitere positive Konsequenzen, wie z. B. weniger Umweltverschmutzung als Folge der Stauverringerung. In Szenarien von automatisierter Mobilität lässt sich zeigen, dass dank des mit automatisierter Mobilität verbundenen Teilens von Fahrzeugen mit einer massiven Reduktion der Fahrzeuge im Umlauf bzw. im Besitz von Menschen zu rechnen ist: Es ist davon auszugehen, dass nur noch bis zu 10 % der heutigen Anzahl Fahrzeuge notwendig sein werden, um die gleiche Mobilität wie heute zu ermöglichen (Bösch et al. 2016). Gleichzeitig werden mit dieser deutlich kleineren Anzahl Fahrzeuge mehr Fahrtkilometer zurückgelegt werden, weil der Komfort der automatisierten Mobilität und der damit verbundene Zeitgewinn dazu führen wird, dass Menschen sich mehr auf den Weg machen. Diesen positiven Effekt auf den Umweltschutz verstärkt noch zusätzlich, dass davon auszugehen ist, dass die Fahrzeuge leichter sein werden, weil wegen des verringerten Unfallrisikos keine umfassenden Sicherheitskonzepte nötig sind, und da aufgrund der tieferen, aber gleichmässigeren Geschwindigkeit keine schweren Motoren in der Gegend herumgefahren werden. Aus ethischer Perspektive ist eine solche Entwicklung willkommen.

Gleichzeitig umfasst die Automatisierung von Mobilität – ethisch als negativ zu markieren – die Gefährdung der menschenrechtlich geschützten Privatsphäre und des menschenrechtlich garantierten Datenschutzes, da sich die Automatisierung von Mobilität in den bisherigen Ansätzen und Modellen auf eine intensive, das Menschenrecht auf Datenschutz und Privatsphäre verletzende Generierung, Sammlung und Nutzung von Daten abstützt.

4.6 Illegitime Exklusion

DS und digitale Transformation fordern die Menschen mit hoher Dringlichkeit zum Handeln auf, als sie ein bereits vor ihr existierendes Problem zusätzlich befeuern (Kirchschläger 2018): Sklavereiähnliche Arbeitsbedingungen bzw. moderne Sklaverei bei der Rohstoffgewinnung für und bei der Produktion von Technologieprodukten sowie enorme Differenzen in Bezug auf die politische Partizipation an der Gestaltung digitaler Transformation und DS sowie hinsichtlich des Genusses ihrer Sonnenseite (u. a. Chancengleichheit, Gewinnbeteiligung) bzw. des Leidens unter der Schattenseite (u. a. Exklusion, menschenunwürdige und menschenrechtswidrige Ausbeutung) schreien nach Wandel und Fortschritt auch in dieser Hinsicht. Dabei handelt es sich um keine neue, aber um eine immer noch aktuelle Herausforderung von fortschrittsbedingt rasant zunehmendem Ausmass. Ihre weltweite Lösung ist im Heute und im Morgen prioritär anzugehen und zu beachten.

Die Menschen sind und bleiben also in der Verantwortung, datenbasierte Systeme DS mit Ethik zu schaffen, die der diese Elemente umfassenden Komplexität der Ethik Rechnung trägt. Nur mit welcher Ethik? Diesbezüglich gilt es, ethische Referenzpunkte für datenbasierte Systeme DS mit Ethik zu erschliessen und zu begründen, damit diese dann ethische Orientierung stiften können.

5 Menschenrechtsbasierte DS

Die Menschenrechte (Kirchschläger 2019a) bieten sich als ethische Referenzpunkte aufgrund ihrer universellen Begründbarkeit (Kirchschläger 2013) und der durch sie erfolgenden Förderung von kultureller, religiöser und weltanschaulicher Pluralität im Zuge ihres Schutzes der Selbstbestimmung des Individuums an (Kirchschläger 2015a). Ersterem gilt im Folgenden der Fokus. Eine ethische Begründung der Menschenrechte kann sich auf das Prinzip der Verletzbarkeit abstützen (Kirchschläger 2015b, 2016), die folgendermassen zusammengefasst werden kann: Der Mensch nimmt sich in seiner eigenen Verletzbarkeit selbst wahr. Der z. B. jetzt gesunde Mensch weiss, dass er morgen krank werden könnte. Während dieser Bewusstwerdung der eigenen Verletzbarkeit eröffnet sich dem Menschen die „Erste-Person-Perspektive“ (Runggaldier 2003) und sein „Selbstverhältnis“: Seine Verletzbarkeit und sein gesamtes Leben erlebt sie bzw. er als Subjekt (d. h. als die erste Person Singular) und sie bzw. er kann sich dazu in Bezug setzen. Dies ermöglicht dem Menschen die Wahrnehmung, dass er die Verletzbarkeit und die je individuelle „Erste-Person-Perspektive“ sowie das je individuelle „Selbstverhältnis“ mit allen anderen Menschen teilt: Jeder Mensch ist Subjekt seines Lebens. Die „Erste-Person-Perspektive“ und das „Selbstverhältnis“ erkennt der Mensch so als Bedingung der Möglichkeit eines Lebens als Mensch. Da sich der Mensch seiner Verletzbarkeit bewusst ist, gleichzeitig aber nicht weiss, ob und wann sich seine Verletzbarkeit in eine konkrete Verletzung wandelt, entfaltet sich die Bereitschaft, als für ihn vernünftigste und vorteilhafteste Lösung sich selbst und damit – aufgrund der diesbezüglichen Gleichheit aller Menschen – allen Menschen die „Erste-Person-Perspektive“ und das „Selbstverhältnis“ zuzugestehen. Dies bedeutet, sich und alle anderen mit Menschenrechten zu schützen. Dieser Schutz durch die Menschenrechte zielt darauf ab, eine Transformation von Verletzbarkeit zu einer konkreten Verletzung zu verhindern oder im Falle einer eventuellen Transformation von Verletzbarkeit zu konkreten Verletzungen aktive Kompensation zu erfahren. Dabei sind sich die Menschen bewusst, dass der Schutz der Menschenrechte auch mit den Menschenrechten korrespondierende Pflichten umfasst, da es sich ja um keine exklusiven Rechte, sondern um Menschenrechte handelt, die allen Menschen zustehen.

Die Menschenrechte sind also in ihrer Universalität ethisch begründbar. Es wird also nicht leichtfertig auf die Menschenrechte als ethisch verantwortete Handlungsgrundlage zurückgegriffen, sondern in der Begründung spiegelt sich ein ethischer Konsensprozess, welcher der vielfältigen Komplexität der Wirklichkeit von Gesellschaft, Politik, Kultur, Religion und Weltanschauung bewusst Rechnung trägt.

Die Menschenrechte ermöglichen als ethische Referenzpunkte, Menschen weder als digitalisiert noch als digitalisierbar und als durch bzw. mit DS perfektionierbar zu denken, sondern als „homo dignitatis“ (Kirchschläger 2019b). Und sie eröffnen die Chance, einen menschenrechtsbasierten Umgang mit DS zu pflegen sowie „menschenrechtsbasierte DS (Human Rights-Based Data-Based Systems HRBDS)“ (Kirchschläger 2021) zu entwickeln, herzustellen und anzuwenden. Konkret bedeutet dies z. B. hinsichtlich der für digitale Transformation und für DS wesentlichen und fundamentalen Verwendung von Daten Folgendes: Der Ansatz der „zweckgebundenen Datenverwendung“ (Kirchschläger 2021) geht vom Recht auf Privatsphäre und Datenschutz als Voraussetzung aus und respektiert dieses Recht. Gleichzeitig eröffnet er die Möglichkeit der Nutzung von Daten für einen bestimmten Zweck – z. B. im Zuge der Automatisierung von Mobilität. Die Daten dürfen aber weder für andere Zwecke eingesetzt noch an Dritte weiterverkauft werden. Auch besteht für die Nutzer*innen keine Option, diese Daten selbst zu verkaufen (z. B. um sich einen Rabatt zu ergattern). Um diesen Ansatz in seiner Realisierbarkeit zu veranschaulichen, dient folgende Analogie: Wenn man zur Ärztin geht, gibt man auch sehr persönliche Daten an, damit sie weiss, wen sie vor sich hat und teilt ihr ja die eigene Krankheit mit, um hoffentlich Linderung der Leiden sowie Heilung zu erfahren, ohne dass weder die Ärztin diese Daten weiterverkaufen darf noch das man als Patient*in das Angebot unterbreitet bekommt, diese Daten zu verkaufen, um eine bessere medizinische Behandlung zu erhalten. Ebenfalls darf die Ärztin das Patient*innendossier mit der Krankengeschichte streng vertraulich aufbewahren – ausschliesslich zum Zweck einer besseren Behandlung des/der Patient*in. Auch besteht die Möglichkeit der Weitergabe vollkommen anonymisierter Daten zu Forschungszwecken, falls die/der Patient*in dieser Weitergabe informiert zustimmt.

Menschenrechtsbasierte DS (HRBDS) schaffen es also, technologiebasierten Fortschritt und Ethik in Einklang zu bringen.