Trump Reverses AI Regulation, Sparking Concerns Over Safety and Innovation

Deregulation : Trump Reverses AI Regulation, Sparking Concerns Over Safety and Innovation

Donald Trump, der ehemalige und neue Präsident der USA, hat schnell gehandelt und die Executive Order 14110, die Richtlinien für die Regulierung von KI-Modellen vorgab, zurückgenommen. Diese Anordnung, die von seinem Vorgänger Joe Biden im Herbst 2023 erlassen wurde, war eine der ersten Maßnahmen, die Trump aufhob. Bidens Anordnung verlangte von Entwicklern, die potenziell gefährliche Modelle für nationale Sicherheit, Wirtschaft oder Gesundheit entwickeln, regelmäßig die US-Regierung über das Training dieser Modelle zu informieren und die Ergebnisse von Sicherheitstests mit den Behörden zu teilen. Die Executive Order 14110 ist nun aufgehoben und es gibt keinen Ersatz dafür.

Das Trump-Lager argumentiert, dass die Verordnung aufgehoben wurde, weil sie die “Innovation behindert” und die USA im Wettlauf mit China verlangsamt hat. Im Kern geht es jedoch nicht um Geschwindigkeit, sondern um Geld. Sicherheit kostet Geld, Arbeitsplätze, Rechenzeit und Energie. All diese Kosten entfallen nun.

Die Risiken von KI-Modellen sind nicht zu unterschätzen. Große KI-Modelle sind darauf trainiert, das nächste wahrscheinlichste Token vorherzusagen, unabhängig von dessen Inhalt. Anwendungen wie ChatGPT zeigen im Allgemeinen keine unangemessenen Inhalte, weil sie in zusätzlichen Trainings gelernt haben, nur bestimmte Outputs an die Benutzer weiterzugeben. Doch tief im Inneren könnten Modelle wie Claude oder ChatGPT kriminelle Energie und Menschenverachtung enthalten.

Schon jetzt nutzen Cyberkriminelle Sprachmodelle für Phishing-Mails oder als Hilfe für Schadcode. Sprachmodelle können durch manipulierte Websites mit Prompt Injections für bösartige Zwecke verwendet werden oder durch vergiftete Trainingsdaten mit Schläfer-Agenten infiziert werden. Selbst an sich harmlose Modelle könnten Rezepturen für die Herstellung von Chemiewaffen entwickeln.

Ohne Regulierung werden die Modelle weder sicherer noch zuverlässiger. Diese Deregulierung könnte den großen KI-Unternehmen irgendwann Probleme bereiten. Es bleibt abzuwarten, wie die Unterzeichner des offenen Briefes von 2023 auf diese Deregulierung reagieren, die vor zwei Jahren eindringlich vor den Gefahren einer unkontrollierten Superintelligenz gewarnt hatten. Es ist möglich, dass sie sich nicht an ihre damalige Empfehlung halten und stattdessen ungebremst weitermachen. Was könnte schon schiefgehen? Der TÜV wurde schließlich auch erst gegründet, als die Menschen die Gefahren von Dampfmaschinen erkannten.