Gastbeitrag von Andre di Luca
“Das Ergebnis ist einfach eine Frage der Zeit, aber dass die Zeit kommen wird, in der die Maschinen die wirkliche Vorherrschaft über die Welt und ihre Bewohner haben werden, kann kein Mensch mit einem wahrhaft philosophischen Verstand auch nur einen Augenblick in Frage stellen.” ~Samuel Butler (13. Juni 1863)
Bis vor einigen Jahren war das Konzept des Bewussten und zerstörerischen Ultron oder Skynet nur eine Science Fiction Dystopie, heute sprechen selbst leitende Wissenschaftler von potentiell verheerenden Konsequenzen für Millionen von Menschen oder gar die gesamte Menschheit.
Schon in den 1950ern schafften es Wissenschaftler wie Arthur Lee Samuel (1901-1990) Künstliche Intelligenzen zu programmieren, die Amateure in ihrem eigenen Spiel (in diesem Fall Dame) herausforderten. Einer der wichtigsten Forschern im Bereich der KI ist Geoffrey Hinton, der seit längerer Zeit als der “Pate der KI” (“Godfather of AI”) bezeichnet wird. Seine Beiträge im bereich der neuronalen Netzwerke und maschinellem Lernen waren ausschlaggebend für die Entwicklung der heutigen LLMs (large language models), zu denen Chatbots wie ChatGPT, Google Gemini, DeepSeek und Microsoft Copilot gehören. KIs folgen nicht nur einem strikten Algorithmus, sondern sie sind explizit dafür programmiert, eigenständig aus Daten zu lernen. 2023 kündigte Hinton seinen Job bei Google, um über die potentiell existenziellen Gefahren der Künstlichen Intelligenz zu sprechen.
Die Hauptsorge ist hierbei um AGI (Artificial General Intelligence) und ASI (Artificial Super Intelligence). AGI bezeichnet eine KI, welche auf derselben intellektuellen Ebene wie der Mensch denken, verstehen und umsetzen kann, während ASI dem Menschen in all diesen Bereichen überlegen wäre. Zurzeit sind die LLMs auf einem geringeren Level als der Mensch, da sie keine Aufgaben erledigen können, für die sie nicht explizit trainiert wurden.
Wie genau so eine AGI oder ASI aussehen würde, ist selbst für die Forscher schwer zu sagen, jedoch lässt sich eine exponentielle Entwicklung der KI aufgrund von rekursiver Selbstoptimierung nicht ausschließen, so das Mooresche Gesetz (hier links abgebildet). Zudem ist es unwahrscheinlich, dass die Forschungsteams ihre Recherche pausieren, da sie im direkten Wettkampf mit Forschern in China sind. Die Entwicklung von AGI und evtl. auch ASI ist nämlich nicht nur gut für technische, wissenschaftliche und medizinische Fortschritte, sondern auch für militärische Überlegenheit. Die Forscher Amerikas haben einen relativ weiten Vorsprung gegenüber ihren Kollegen in China, den sie auf keinen Fall aufgeben wollen.
Nun hat laut der New York Times auch der US-Präsident angeordnet, eine nationale Datenbank aller US-Bürger durch den Milliardenkonzern Palantir und seine KI-Systeme zu schaffen. Kritiker betonen, dass diese Technologie gegen Kritiker und “Staatsfeinde” eingesetzt werden könnte. Der Vorsitzende Palantirs ist Peter Thiel, der vor allem für die Gründung von PayPal bekannt ist. Jedoch ist Thiel auch politisch unterwegs und hält eine ‘Konservative’, jedoch zugleich wirtschaftlich libertäre Weltanschauung. Erstmal keine beunruhigende Position, jedoch hat Thiel bereits 2009 bekannt gemacht, dass er nicht mehr glaubt, dass “Freiheit und Demokratie vereinbar seien”, eine Position, die die antidemokratische “Neoreaktionäre Bewegung” von Curtis Yarvin beeinflusst hat. Inwiefern Trump solch eine KI-überwachte Datenbank für seine eigenen Zwecke ausnutzt, lässt sich schwer abschätzen.
Wenn Technologie in einem Land die eines anderen übertrifft, so ist es ein Trend in der Geschichte, dass das Land mit der Technologie sie dazu anwendet, um ihre eigene Macht im Inneren und Äußeren auszuweiten. Die bekanntesten Beispiele hiervon sind die Konquistadoren Spaniens und das Britische Weltreich, welche beide ihren Vorteil der Schießpulver-revolution gegen andere Völker nutzten, um ihre eigene Macht zu erweitern. Ob man der USA, vor allem Trumps Regierung, mit einer Technologie, die den militärischen Fortschritt exponentiell beschleunigen kann, vertrauen kann? Seine Anspielungen darauf, Grönland und den Panamakanal zu erobern, sind zumindest nicht vielversprechend. Hinzu kommt noch die Frage, ob das Alignment (deut. Ausrichtung) der KI sich wirklich den Wünschen einer Weltmacht unterwirft, vor allem wenn Forscher innerhalb eines kontrollierten Bereiches hiermit bereits Schwierigkeiten haben.
Dass die KI einen “eigenen Willen” haben, ist bei Fehlausrichtung keine wichtige Frage, denn ihr Schadenspotential ist je nach Entwicklungsstand so enorm, dass es keinen Unterschied machen würde, vor allem nachdem AGI erreicht ist und militärische Systeme KI gesteuert sind. Gerade aus diesem Grund muss es eine internationale Richtlinie für die Forschung und Nutzung Künstlicher Intelligenz geben. Guterres betonte bereits: “Die menschliche Kontrolle über den Einsatz von Gewalt ist unerlässlich. Wir können Entscheidungen über Leben und Tod nicht an Maschinen delegieren.”. Der UN-Chef forderte bereits die Mitgliedstaaten auf, bis 2026 klare Vorschriften und Verbote für solche Systeme festzulegen.
Das größte Risiko für die Existenz der Menschheit scheint erstmal nicht eine unkontrollierbare KI, sondern eine von machthungrigen Menschen kontrollierte KI zu sein. Sollte jedoch weiter ohne Rücksicht gegenüber dem Alignment an der KI weitergearbeitet werden, so schätzen Experten wie Hinton die Wahrscheinlichkeit eines Katastrophenszenarios auf ca. 10% ein. Das mag erstmal nicht nach viel klingen, doch jeder Prozent, ist einer zu viel. Sollte die Entwicklung KI sich tatsächlich an das Mooresche Gesetz halten, so sollte es der Menschheit dienen und nicht anders herum.
Datum: 19.08.2025