Now Reading
Richard Precht und die moralischen Maschinen

Richard Precht und die moralischen Maschinen

Nachdem Philosoph Richard David Precht kürzlich per Interview die Corona-Maßnahmen der Bundesregierung als „Überreaktion“ abkanzelte, ist nun die Künstliche Intelligenz an der Reihe.

Das „Gerede“ um Maschinen, die die kognitiven Fähigkeiten von Menschen erreichen, sei „ein großes Ablenkungsmanöver“, schreibt Precht in der Zeit (Paywall). Mehr noch: die KI-Branche „schwelt in dunklen Allmachtsphantsien“.

„KI-Branche“ (Symbolbild / Giphy)

Tatsächlich ist Künstliche Intelligenz kein „Marketingtrick“, sondern eine Wissenschaft. Und dabei könnte man es belassen, wenn Precht in seinem Aufsatz nicht suggerieren würde, Ziel der KI-Forschung sei es, einen neuen Menschen oder sogar einen neuen Staat zu erschaffen.

Künstliche und menschliche Intelligenz sind nicht das Gleiche

Schon Prechts Grundannahme, dass Künstliche Intelligenz den Menschen nachahmen und nach Möglichkeit sogar übertrumpfen wolle, ist nicht zutreffend.

Stuart Russel, Professor für Informatik an der Universität Berkeley und Autor des Buches „Künstliche Intelligenz und wie der Mensch die Kontrolle über superintelligente Maschinen behält“ (Amazon-Link), beschreibt das Verhältnis zwischen menschlicher und künstlicher Intelligenz folgendermaßen:

Humans are intelligent to the extent that our actions can be expected to achieve our objectives.

Künstliche Intelligenz hingegen messe sich nicht daran, wie gut es ihr gelingt, zielgerichtet zu handeln – denn wie auch Precht feststellt: Maschinen haben keine eigenen Ziele, sie verfolgen die Ziele, die in ihrem Code festgehalten sind.

Stattdessen messen sich KI-Systeme Russel zufolge an einem anderen Ziel:

Machines are beneficial to the extent that their actions can be expected to achieve our goals.

KI-Systeme sollten demnach nicht entsprechend ihrer (abstrakten) Intelligenz bewertet werden, sondern nach ihrer Nützlichkeit für das Erreichen unserer Ziele.

Diskriminierung ist keine Besonderheit von KI

„Das Gefahrenpotenzial künstlicher Intelligenz“, so Precht, „steckt in unfreiwilligen Diskriminierungen, wie unlängst bei einer Gesichtserkennungssoftware zu sehen, die Schwarze benachteiligt; es steckt in programmierten Unzulänglichkeiten und unbeabsichtigten Folgen, eigentlich überall da, wo Maschinen über Menschen richten“.

Das allerdings ist keine Besonderheit von Künstlicher Intelligenz, sondern allzu menschlich. Auch Menschen diskriminieren auf der Basis von Hautfarbe, Geschlecht oder Akzent, manchmal ohne sich dessen voll bewusst zu sein.

In ihrem lesenswerten Buch „Hello World“ (Amazon-Link) beschreibt die Mathematikerin Hannah Fry anhand einer Vielzahl von Studien, zu welch unterschiedlichen Urteilen es etwa im Justizsystem kommt, weil Richter eben – zu Recht! – einen Ermessensspielraum haben (oder einfach weil die Richterin Hunger hatte).

„Das Justizsystem weiß, dass es nicht perfekt ist, aber es versucht auch nicht erst, es zu sein“, so Fry.

KI-Anwendungen im Justizsystem sollten also nicht so gut (oder schlecht) Urteile fällen können wie der Mensch, sondern den Mensch unterstützen, bessere Urteile zu fällen.

Auch wenn man diese Sichtweise einnimmt, ist man von einer zufriedenstellenden Lösung möglicherweise noch weit entfernt. Aber man befindet sich immerhin auf dem richtigen Pfad.

Sollte KI „ethisch“ sein?

Vor allem muss man sich nicht der Kritik einer „ethischen Programmierung“ anschließen, die Precht zufolge eine Illusion sei. Das Ziel ist eben keine moralische Maschine, sondern ein System, das Menschen in schwierigen Entscheidungen hilft.

Auch Russel sieht wenig Sinn in der Entwicklung einer „ethischen KI“: Es sei nicht zielführend, zwischen einer Gruppe von KI-Entwicklern und einer separaten Gruppe von Entwicklern einer „ethischen KI“ zu unterscheiden. Stattdessen gebe es eben gute KI und schlechte, genau so wie man auch nicht zwischen Ingenieuren die gute Brücken bauen und Ingenieuren, die absichtlich schlechte Brücken bauen unterscheidet.

Die Frage, welche Art von Künstlicher Intelligenz unsere Gesellschaft haben möchte, ist in der Tat eine große gesellschaftliche Debatte, der wir uns stellen müssen.

Dabei geht es allerdings nicht darum, einen besseren Menschen zu schaffen. Sondern eine bessere Welt.

Buchempfehlungen

What's Your Reaction?
Clown gefrühstückt?
0
Leite ich gleich weiter!
0
Muss nachdenken!
0
Naja ...
0
Nice!
0
View Comments (3)
  • Ich bin ja jetzt echt kein Fan von R.D. Precht, dafür bin ich ein Fan Deiner Lesetipps, aber hier hast Du Dir ein paar Dinge zu bequem zurecht gelegt.
    1. Ja, man KANN KI nutzen, um menschliche Entscheidungen zu unterstützen und dann ist es nur ein Statistik-Tool, dass sich durch sehr viele Daten wälzt. Ich sag immer, dass das keine Künstliche Intelligenz ist, sondern künstlicher Fleiß. Das setzt sich aber nicht durch.
    2. Aber es gibt durchaus die Leute, die der Meinung sind, dass wir die allgemeine künstliche Intelligenz erreichen können und dass das auch ein Ziel ist, an dem sie arbeiten.
    3. Es gibt eine Menge Leute, die unseriöse Angebote unter dem KI-Label verkaufen. Das gilt vor allem in den USA, wo es keinen Datenschutz gibt. Da muss der Gesetzgeber immer jeden einzelnen Fall von Datenmissbrauch verbieten. Dadurch werden einfach irgendwelche Daten für alles möglich benutzt und wenn es den Leuten irgendwelchen schwierigen Entscheidungen abnimmt, wird offenbar alles gekauft. Bis hin zur “KI”, die anhand von Videos erkennt, welche Bewerber für einen Job geeignet sind.
    4. Bei jeder Prognose über die Zukunft von Menschen durch eine KI sollte ma extrem vorsichtig sein. Was da als KI verkauft wird, hat in der Regel nicht mehr Qualität als Horoskope. Was bringt einem die Prognose, dass die beste Bewerberin zu 85% passt? Das sagt einem gar nicht. Denn wenn es scheitert, war es halt das 25 % Risiko. Das sind keine echten Wahrscheinlichkeiten, sondern rückwirkend aus dem Auftreten alter Fällen abgeleitete Statistik. Eine echte Wahrscheinlichkeit ist die Wahrscheinlichkeit von 1/6 dass ein Würfel eine bestimmte Seite anzeigt. Eine KI würfelt 1 Mio mal, schaut, wie oft welche Seite erschienen ist und leitet daraus ab, wie wahrscheinlich jede Seite auftritt. Ob eine Bewerberin passt, ist so gesehen 50:50: Entweder es passt, oder nicht, egal was die KI drauf-labelt.

  • Wenn Du meine Lesetips magst, empfehle ich unbedingt meine Rezension zu Philip Tetlocks Buch “Das Unwissen der Experten” (https://www.danielflorian.de/2009/01/12/das-unwissen-der-experten/). Das Buch passt auch perfekt auf Precht: Precht ist in Tetlocks Terminologie ein “Igel”, der mit seiner ganzen Meinungsmacht populäre Thesen vertritt, die aber der Komplexität der Welt selten gerecht werden. Wer wirklich etwas über KI lernen will, sollte meiner Meinung nach nicht Precht lesen, sondern eben Fry oder Russel, auch wenn das nicht so schön gruselt …

    Zu deinen Punkten:

    1 – Ich denke, das ist auch das, was Fry und Russel sagen würden: Der Begriff Künstliche “Intelligenz” suggeriert eine Menschlichkeit, die die aktuell verfügbaren Systeme gar nicht bieten.

    2 – Siehe 1. Es mag sein, dass es Menschen gibt, die an einer Super-KI arbeiten, aber die ist nocht nicht absehbar. Es gibt auch Leute, die an fliegenden Autos arbeiten und dennoch fahren wir mit hundert Jahre alter Technologie über die Straßen.

    3 und 4 – Absolut richtig, hier gibt es ein Marktversagen, weil KI oft wie eine Art Feenstaub über bestimmte Dienstleistungen gestreut wird. Wir brauchen in der Tat mehr Transparenz darüber, was eine KI leistet und was nicht genau so, wie wir ja auch bei anderen Produkten wissen wollen was “drin” ist.

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

© 2019 Issue Magazine Wordpress Theme. All Rights Reserved.

Scroll To Top