Advancements and Challenges in AI: OpenAI’s o3 Model, KI-Phishing, and New Training Techniques

AI : Advancements and Challenges in AI: OpenAI's o3 Model, KI-Phishing, and New Training Techniques

OpenAI hat ein neues KI-Modell namens o3 entwickelt, das in der Lage ist, 85% der Aufgaben aus dem Abstract Reasoning Corpus (ARC) zu lösen. Dies ist eine bemerkenswerte Verbesserung im Vergleich zu früheren Systemen, die nur 35% der Aufgaben bewältigen konnten. Der ARC-Test ist besonders anspruchsvoll für Sprachmodelle, da er erfordert, abstrakte Muster entsprechend erlernter Regeln zu verändern. Allerdings benötigt o3 enorme Rechenressourcen, was zu hohen Kosten führt. Experten schätzen, dass ein o3-Abonnement bis zu 2.000 Dollar pro Monat kosten könnte, während das ältere Modell o1 derzeit 200 Dollar pro Monat kostet.

Das o3-Modell arbeitet, indem es viele Teillösungen berechnet und die beste auswählt. Dies geschieht, indem Anfragen in tausende Varianten zerlegt werden, was den hohen Rechenaufwand erklärt. Dennoch gibt es keine Garantie für korrekte Lösungen, da das Modell weiterhin nur auf Sprachverarbeitung basiert. Logische Überprüfungen fehlen, und es besteht die Möglichkeit von Fehlinterpretationen.

OpenAI plant auch die Einführung eines KI-Agenten namens “Operator”, der im Januar starten soll. Dieser Agent soll in der Lage sein, selbstständig Computeraufgaben wie Programmieren oder Reisebuchungen auszuführen. “Operator” wird zunächst als Vorschauversion und API für Entwickler verfügbar sein. OpenAI sieht in KI-Agenten eine Wachstumschance, da sie existierende Modelle intelligenter einsetzen können.

Andere Unternehmen wie Anthropic, Microsoft und Google arbeiten ebenfalls an KI-Assistenten, die Arbeitsprozesse automatisieren können. Sicherheitsbedenken, insbesondere durch “Prompt Injections”, haben jedoch den Start von “Operator” verzögert. Bei solchen Angriffen manipulieren Benutzer durch präparierte Eingaben das Verhalten der KI, und eine zuverlässige Abwehr gibt es bisher nicht.

Eine Studie von Harvard-Forschern zeigt, dass KI-generierte Phishing-Angriffe sehr effektiv sind. Die Teilnehmer der Studie wurden in Gruppen eingeteilt, die verschiedene Arten von Phishing-Mails erhielten. KI-generierte und von Menschen erstellte Phishing-Mails hatten eine Klickrate von 54%, während herkömmliches Phishing nur 12% erreichte. Eine zusätzliche menschliche Optimierung der KI-Mails erhöhte die Rate leicht auf 56%.

Die Forscher entwickelten ein KI-Tool, das den digitalen Fußabdruck der Zielpersonen analysiert und darauf basierend personalisierte E-Mails erstellt. In 88% der Fälle fand die KI verwertbare Informationen. Bei Tests zur Phishing-Erkennung erwies sich Claude 3.5 Sonnet als besonders effektiv mit einer Erkennungsrate von 97,25% ohne falsch-positive Ergebnisse.

KI wird auch als Programmierhilfe eingesetzt. Ein Experiment zeigte, dass KI-generierter Code durch präzise Anweisungen beschleunigt werden kann. Der Buzzfeed Senior Data Scientist Max Wool ließ sich von Anthropics Claude 3.5 Python-Code erstellen und optimieren. Nach mehreren Durchläufen war der Code fast 100-mal schneller, allerdings führten die Optimierungen auch zu mehr Fehlern, die manuell behoben werden mussten.

Microsoft hat sein KI-Sprachmodell Phi-4 als Open-Source-Modell veröffentlicht. Entwickler und Forscher können das Modell nun frei modifizieren und weiterentwickeln. Trotz seiner geringen Größe erreicht Phi-4 die Leistung von bis zu fünfmal größeren Modellen.

Google-Forscher haben eine neue Trainingsmethode namens SALT entwickelt, die das Training großer Sprachmodelle beschleunigt und deren Leistung verbessert. SALT nutzt kleinere KI-Modelle als Hilfslehrer, um das Training effizienter zu gestalten. Durch diese Methode kann ein 1,5 Milliarden Parameter großes Modell helfen, ein 2,8 Milliarden Parameter großes Modell effizienter zu trainieren.

Exit mobile version