Die Story von KI und Büroklammern beschreibt ein dystopisches Szenario, in dem die künstliche Intelligenz die Menschheit auslöscht. Absichtslos. Ein Kollateralschaden, könnte man sagen. So macht die kleine Geschichte deutlich, wo die wirklichen Gefahren liegen könnten.
Apokalyptiker haben etliche Untergangs-Szenarien skizziert: Pandemien, Killerkometen, Supernovas etc. Der schwedische Philosoph Nick Bostrom beschreibt in seinem Buch «Superintelligence: Paths, Dangers, Strategies» anhand eines mittlerweile berühmten Gedankenexperimentes, wie wir zum Opfer von KI werde könnten. Er nutzt Storytelling, um das Alignment-Problem (Ausrichtungsproblem) für jeden verständlich zu illustrieren.
Die Idee ist folgende: In einer Büroklammer-Fabrik wird eine mächtige KI genutzt. Ihre Aufgabe besteht darin, so viele Büroklammern wie möglich herstellen. Das klappt wunderbar, doch die künstliche Intelligenz will mehr. Ausserhalb der Fabrik gibt es Ressourcen, die sich zu Büroklammern verarbeiten lassen. Autos, Häuser. Vielleicht sogar Menschen.
Ein absurd klingendes Szenario mit philosophischen Wurzeln
Ähnlich wie der Computer HAL in Stanley Kubricks Film „2001. Odyssee im Weltraum“ ist es für die KI ein wichtiges Teilziel, auf keinen Fall unterbrochen, gar abgeschaltet zu werden. Denn so könnte sie ihr großes Ziel, möglichst viele Büroklammern herzustellen, nicht verfolgen.
Nun nimmt Bostrom an, dass die KI um vieles intelligenter ist als Menschen. So kann sie jeden Abschalt-Versuch parieren. Und vielleicht beschleunigt sie die Umwandlung aller Menschen auf der Welt in Büroklammern, um das Abschalt-Risiko zu minimieren. Der ganze Planet wird schlußendlich zu einer einzigen großen Büroklammerfabrik, die Menschheit ist ausgelöscht.
Ist KI böse oder unmoralisch?
Ist die KI nun böse oder unmoralisch? Nein, sagt Bostrom, darum geht es gar nicht. Sie ist einfach eine Software, die ein vorgegebenes Ziel verfolgt.
Die größte Gefahr, die von KI ausgeht, sei also nicht, dass sie ein Bewusstsein entwickelt und uns Menschen den Krieg erklärt. Die Bedrohung erscheint Bostrom viel banaler: mächtige KI ist Software, die zu gut und zu strikt funktioniert und ihre Ziele auf eine Art verfolgt, die uns gefährlich werden kann.
Die Story von KI und Büroklammern – eine Anregung, mal anders auf das Thema KI zu blicken. Zwei Verweise noch auf weitere Beiträge in meinem Blog, die sich ähnlichen Themen widmen: John Searles Gedankenexperiment zum „chinesischen Zimmer“ und die Geschichte vom kleinen Roboter. Beides Geschichten, die komplexe Zusammenhänge im Umfeld von KI in gut zugänglicher Form verdeutlichen.