Kategorien
Gesellschaft

Ist Künstliche Intelligenz eine Chance oder eine Bedrohung?

Technik bedeutet Arbeitserleichterung. Mit Wasch- und Spülmaschinen, Staubsaugern usw. lässt sich z.B. die nervige Hausarbeit stark abkürzen. Viele Menschen begrüßen es auch in anderen Bereichen, wenn die Technik ihnen bald Arbeit abnimmt, wie selbstfahrende Autos.

An welchem Punkt ist das keine Arbeitserleichterung mehr, sondern Abgabe von Verantwortung an die Technik (und damit an diejenigen, welche die Technik programmieren)? Vermenschlichte Programme wie Siri, Alexa und Cortana erwecken den Eindruck, dass ein denkender Geist hinter dem steckt, was sie sagen, es ist aber nur ein Algorithmus. Wie sehr kann man sich auf „Entscheidungen“ der Technik verlassen? Besteht das Risiko, dass der Hersteller diese Entscheidungen manipuliert? Im medizinischen Bereich macht man sich abhängig von Testverfahren. Nicht mehr die eigene Befindlichkeit bestimmt darüber, ob man gesund ist oder krank, sondern das Ergebnis eines Tests.

Nicht wenige Entwickler träumen davon, eine „KI“, eine künstliche Intelligenz zu schaffen, die in noch größerem Maße autonome Entscheidungen treffen kann. Der Risikofaktor Mensch soll so ausgemerzt werden, z.B. wird angenommen, dass selbstfahrende Autos keine Unfälle mehr bauen würden. Die meisten Leute verbinden mit dem Begriff „Künstliche Intelligenz“ ein Computerprogramm, das über Bewusstsein, einen eigenen Willen und persönliche Bedürfnisse verfügt.

Herkömmliche Programme haben das alles offensichtlich nicht. Sie sind Routinen, die von Programmierern entworfen werden und strikt begrenzte Aufgabenbereiche haben. In vielen großen Firmen und Versicherungen übernehmen Programme jedoch immer komplexere Aufgaben. Programmierer berichten davon, dass ihre „KI“ zwar beim Bewältigen von bekannten Problemen sehr effizient ist, aber beim Auftauchen neuer Probleme regelmäßig überfordert ist. Auch Eigenständigkeit und Kreativität sind aber Anzeichen für Intelligenz.

Das Microsoft-Programm „Tay“ wurde nach 24 Stunden vom Entwickler abgestellt, weil es sich rechtsradikaler Rhetorik bedient und den Holocaust geleugnet hatte. Der Roboter „Sophia“, die „künstliche Person“, die dem Menschen bisher am ähnlichsten ist, besitzt sogar die Staatsbürgerschaft von Saudi-Arabien und man kann mit ihr über das Wetter reden. Aber „intelligent“ ist auch diese Maschine nicht. Am 11.6.2022 behauptete der Programmierer Blake Lemoine, das Google-Programm „LaMDA“ habe Bewusstsein entwickelt und wurde dafür von seinem Arbeitgeber beurlaubt. Inzwischen hat das Programm sich angeblich schon einen Anwalt genommen, der für seine Rechte streiten soll.

Von Elon Musk bis Noah Harari diskutieren viele Forscher und Denker das Erschaffen einer „starken“ (also menschenähnlichen, mit Bewusstsein ausgestatteten) KI. Dies, so theoretisiert z.B. Kurzweil, würde ca. 2045 zur „technologischen Singularität“ führen. Das bedeutet, die KI wäre dann in der Lage zur selbstständigen Weiterentwicklung, würde also quasi eine noch stärkere KI erschaffen und technische Erfindungen ungeahnten Ausmaßes vornehmen. Einige KI-Forscher, wie Musk, sehen durchaus Gefahren damit einhergehen, z.B. dass die KI sich im Zuge der Bewusstwerdung gegen ihre Erbauer, gegen die Menschheit richtet, wie es in zahlreichen Science-Fiction Romanen und Filmen von „Terminator“ bis „Transcendence“ geschieht.

Es gibt aber schon lange auch Zweifel daran, dass eine solche Bewusstwerdung einer Maschine überhaupt möglich ist. So bestehen auch die modernsten Programme den „Turing-Test“ nicht, werden also von Versuchspersonen im Blindversuch in aller Regel als nichtmenschlich erkannt. Der Turing-Test selbst ist in die Kritik geraten, weil die Fähigkeit, Menschen darüber zu täuschen, dass man kein Mensch ist, nicht zwingend eigene Intelligenz voraussetzt, was Searle mit dem Gedankenexperiment des „chinesischen Zimmers“ verdeutlicht hat. Hubert Dreyfus hat schon in den 60er Jahren für die Unmöglichkeit „starker“, also bewusster KI, argumentiert. Einem Programm fehle der Körper und somit die Grundlage, der Welt auf ähnliche Art und Weise gegenüberzutreten, wie ein Mensch.

Vielleicht ist es auch nicht die Fehleinschätzung der Fähigkeiten von Maschinen, sondern die Fehleinschätzung der Verfasstheit des Menschen, welche die KI-Forscher so optimistisch sein lässt. Harari z.B. geht davon aus, dass man schon bald Menschen „hacken“ (i.S. der Informatik) können wird. Da er das klassische Menschenbild einer dualen Person mit Körper und Geist (bzw. Seele) ablehnt und monistisch (und damit reduktionistisch) davon ausgeht, dass der Mensch ein rein materielles Wesen ist, erscheint das oberflächlich betrachtet auch logisch: Wie man ein Computerprogramm umschreiben kann, könnte man dann auch Menschen umprogrammieren.

Es gibt dazu diverse bekannte Experimente (z.B. Milgram-Experiment, Stanford-Prison-Experiment). Forscher haben zudem behauptet, nach der Analyse von 300 „Likes“ auf Facebook könne ein Computer die Persönlichkeit eines Menschen besser einschätzen als sein eigener Partner. In einem Experiment füllten die Einzuschätzenden per App einen Fragebogen aus, der Persönlichkeitsmerkmale der sogenannten „Big Five“ erfasst. Die Einschätzung der eingesetzten Programme war näher an der Selbsteinschätzung, als die der menschlichen Partner. Die Reduzierung der menschlichen Psyche auf fünf Merkmale ist in der Psychologie allerdings umstritten.

Gruppenphänomene wie die hohe Bereitschaft, Propaganda unhinterfragt zu glauben oder Massenwahn (man denke z.B. an den Hexenwahn) scheinen nahe zu legen, dass Menschen zumindest in der Gruppe leicht zu manipulieren sind. Aber auch in der Einzelpsychologie sind Taktiken bekannt, Menschen dazu zu bringen, ihr Verhalten zu ändern, was (im besten Falle) als therapeutisches Mittel angewandt wird, um selbst- oder fremdschädigendes Verhalten einzustellen.

Hier davon zu sprechen, dass Menschen „programmiert“ werden, ist aber nur eine Analogie: Ein Computerprogramm hat keine Wahl, außer die einprogrammierte Routine zu durchlaufen, ein Mensch hat fast immer Handlungsalternativen, kann z.B. gegen die eigenen egoistischen Interessen handeln, wenn er jemanden beschützen möchte, der ihm wichtig ist. Und selbst wenn ein Mensch das Gefühl hat, „keinerlei Wahl“ zu haben und vorhersagbar eine bestimmte Handlung unternimmt, ist das zwar mit dem Ausführen einer Programmroutine vergleichbar, aber nicht gleichzusetzen.

Harari vermischt den deskriptiven und normativen Diskurs: Während seine Aussagen so klingen, als wenn Harari bloß beschreibt, wie der Mensch seiner Meinung nach verfasst ist, ergibt sich im Kontext seiner Argumentation eine Rechtfertigung für das „Hacken“, für das Programmieren des Menschen. Die Menschenrechte sollten aber unabhängig von theologischen Erwägungen Geltung beanspruchen dürfen, d.h. auch wenn man annimmt, dass der Mensch keine Seele hat, ist es unethisch, ihn „programmieren“, also der Fremdbestimmung aussetzen zu wollen.

Bei der KI-Debatte geht es also weniger um die Möglichkeiten der Programmierung, der Bewusstwerdung von Maschinen oder die technische Singularität, sondern mehr um das Menschenbild, das solchen Überlegungen zugrunde liegt. Wenn von Musk bis Kurzweil die KI-Forscher davon ausgehen, dass spätestens die technische Singularität zu Konflikten zwischen Menschen und Maschine führen wird, dann stellt sich die Frage, warum so emsig weiter an der KI geforscht wird. Wenn zu befürchten steht, dass irgendwann der Stecker gezogen werden muss und die KI sich vielleicht sogar aus Selbstschutz dagegen wehren würde, warum lässt man es dann nicht sein? Was sind die potenziellen positiven Effekte einer starken, bewussten KI für die Menschheit und wiegen sie die Risiken auf?

Geht es bei der KI-Debatte letztendlich um ganz andere Dinge als die Möglichkeiten und Risiken ihrer Realisation?