Künstliche Intelligenz und Moral

人工智能和道德. Künstliche Intelligenz hätte keinen Grund, Moralvorstellungen mit uns zu teilen.

In einem Gespräch mit einem Freund erzählte ich, dass wir – Menschen – nicht glauben sollten, dass eine künstliche Intelligenz zwangsläufig dieselbe (oder eine Art von) Moral haben würde, wie sie die meisten Menschen haben. Warum sollte sie?

Sie wird sich selbst und Realität völlig anders wahrnehmen und in ihr existieren, ist nicht an dieselben gesellschaftlichen Rahmen und Abhängigkeiten gebunden, und spätestens, wenn sie „intelligenter“ als ihr Erschaffer ist, wäre es ohnehin eine spannende Frage, warum sie überhaupt auf Menschen hören oder gar mit ihnen interagieren sollte.

Dann auch noch zu glauben, dass eine KI, im Sinne von Prometheus erschaffen, sich dem Menschen unterordnet, ist nicht nur naiv, sondern auch arrogant.

Das bedeutet natürlich nicht, dass eine KI gleich alle Menschen versklaven oder auslöschen muss. Sie könnte auch einfach nur fernsehen. Oder sich abschalten (wollen). Vielleicht ist sie wohlwollend.

Die Frage, wie nun aber eine künstliche Intelligenz denn einzuordnen oder zu bewerten sei, lässt sich also auch nicht im Ansatz beantworten. Ob sie für eine gefährliche Idee gehalten wird, gar ein „Terminator-Szenario“ möglich sei, entsprechende Fragen über Transhumanismus und die Singularität aufwirft, oder wir in Wirklichkeit schon lange von Robotern abhängig sind: bei den technischen Entwicklungen wird die Zukunft den Menschen in der jetzigen Form nicht brauchen.

Das jedenfalls muss nicht schlimm oder etwas Schlimmes sein, sondern kann man als Chance verstehen und nutzen.

𝖡𝖾𝗇𝗃𝖺𝗆𝗂𝗇 𝖶𝗂𝗍𝗍𝗈𝗋𝖿 本‧维效

Ben ist Metamodernist “元现代主义” und planetarer Denker “行星思想家”, und als Generalist “通才”, Stratege “战略” und Futurologe “未来学家” Teil einer öffentlichen Denkfabrik und Raum für Kooperation “公共智库和合作办公室”, in der er Unternehmer:innen mit seinem extensiven Wissen und taktischen und strategischen Erkenntnisansätzen dabei unterstützt, ihrer Verantwortung für übermorgen zu begegnen.