AI-Breakdown | KW 49 – Anthropic kontert, das Ende der Skalierung & US-Regierung macht ernst

von Daniel Szkutnik Daniel Szkutnik

01.12.2025

4 Min. Lesedauer

AI-Breakdown | KW 49 – Anthropic kontert, das Ende der Skalierung & US-Regierung macht ernst

Die Ereignisse überschlagen sich: Anthropic fordert mit einem neuen Modell die Marktführer heraus, die US-Regierung startet eine massive KI-Initiative für die Wissenschaft und Ilya Sutskever prognostiziert eine Zeitenwende in der KI-Entwicklung. Hier ist eure kompakte Zusammenfassung der Woche.

🏆 Anthropic Claude Opus 4.5: Neuer Spitzenreiter?

Anthropic hat mit Claude Opus 4.5 sein neues Flaggschiff veröffentlicht und greift damit direkt Gemini 3 und GPT-5.1 an.

Leistung: Das Modell durchbricht als erstes die 80%-Marke im „SWE-Bench Verified“ (einem Test für Programmieraufgaben) und setzt neue Standards bei Werkzeugnutzung und Problemlösung.

Effizienz: Opus 4.5 ist dafür konzipiert, Teams von kleineren Modellen zu koordinieren. Zudem wurde der Preis im Vergleich zum Vorgänger um 66 % gesenkt.

Warum das wichtig ist: Das Modell erscheint nur Tage nach den Releases der Konkurrenz und heizt das Rennen um die Spitzenposition weiter an. https://www.anthropic.com/news/claude-opus-4-5

🇺🇸 US-Regierung startet „Genesis Mission“

Präsident Trump hat eine Anordnung unterzeichnet, die eine einheitliche KI-Plattform des Energieministeriums (DOE) schaffen soll.

Ziel: Wissenschaftliche Entdeckungen in Bereichen wie Biotech und Energie sollen von Jahren auf Tage verkürzt werden.

Umfang: 17 Bundeseinrichtungen und deren Supercomputer werden mobilisiert. Das Weiße Haus vergleicht die Bedeutung dieses Projekts mit den Apollo-Mondmissionen der 60er Jahre. https://www.whitehouse.gov/presidential-actions/2025/11/launching-the-genesis-mission/

🧠 Ilya Sutskever: Das „Zeitalter der Skalierung“ ist vorbei

Der Gründer von Safe Superintelligence (SSI), Ilya Sutskever, äußerte sich in einem seltenen Interview zur Zukunft der KI.

Fokuswechsel: Laut Sutskever war 2020–2025 die Ära der Skalierung (immer größere Modelle). Jetzt werden echte Forschungsdurchbrüche der entscheidende Faktor sein, nicht mehr nur reine Rechenleistung.

SSI: Sein Start-up wird inzwischen mit 32 Milliarden Dollar bewertet und verfolgt einen gänzlich anderen technischen Ansatz als OpenAI oder Google. https://www.dwarkesh.com/p/ilya-sutskever-2

🎨 Black Forest Labs & Bildgenerierung

Mit Flux.2 wurde eine neue Familie von Bildmodellen vorgestellt.

Konsistenz: Die Modelle können Charaktere und Stile über mehrere Bilder hinweg beibehalten – ideal für Storytelling.

Qualität: Verbesserte Textdarstellung für Infografiken und Layouts, bei gleichzeitig geringeren Kosten als bei der Konkurrenz. https://bfl.ai/blog/flux-2

📚 Schule & Bildung: Andrej Karpathy rät von Detektoren ab

Der ehemalige OpenAI-Forscher Andrej Karpathy plädiert für ein Umdenken im Bildungswesen.

Sinnlose Jagd: Er warnt, dass Lehrer den Einsatz von KI bei Hausaufgaben niemals zuverlässig erkennen können. Detektoren seien „zum Scheitern verurteilt“.

Lösung: Benotete Leistungen sollten zurück ins Klassenzimmer verlagert werden. KI solle stattdessen als Lernbegleiter fungieren. https://x.com/karpathy/status/1993010584175141038

🧬 Medizin & Forschung

Harvard popEVE: Ein neues KI-Tool erkennt schädliche DNA-Mutationen präziser als bisherige Modelle und hilft, seltene Krankheiten bei Kindern zu diagnostizieren. https://hms.harvard.edu/news/new-artificial-intelligence-model-could-speed-rare-disease-diagnosis

MIT Iceberg Index: Eine Studie zeigt, dass KI Aufgaben übernehmen könnte, die 11,7 % der US-Löhne entsprechen – betroffen sind nicht nur Tech-Jobs, sondern vor allem Büro- und Verwaltungsstellen. https://arxiv.org/pdf/2510.25137

🔢 DeepSeek knackt Mathe-Olympiade

DeepSeek hat mit „DeepSeek-Math-V2“ ein Open-Source-Modell veröffentlicht, das Forschungsgrenzen sprengt.

Gold-Standard: Das Modell löste 5 von 6 Aufgaben der Internationalen Mathematik-Olympiade (IMO) 2025 und schlägt damit proprietäre Modelle wie GPT-5 in mathematischer Argumentation.

Methode: Es nutzt ein System, bei dem ein Modell Lösungen vorschlägt und ein anderes diese kritisch prüft ("Self-Debugging"). https://github.com/deepseek-ai/DeepSeek-Math-V2/tree/main

⚠️ Sicherheitslücke bei OpenAI-Partner

OpenAI gab bekannt, dass der Analyse-Dienstleister Mixpanel gehackt wurde.

Was ist passiert? Angreifer exportierten Profilinformationen (Namen, E-Mails) von API-Nutzern.

Entwarnung: Es wurden keine Chat-Verläufe, API-Schlüssel oder Zahlungsdaten gestohlen. Dennoch ist Wachsamkeit vor Phishing geboten. https://openai.com/index/mixpanel-incident/

📉 Nvidia-Studie: Klugheit vor Größe

Passend zu Sutskevers Aussagen zeigt eine neue Studie von Nvidia und der Universität Hongkong, dass schiere Größe nicht alles ist.

ToolOrchestra: Ein System, bei dem kleine Modelle lernen, spezialisierte Werkzeuge klug einzusetzen. Ein kleines 8-Milliarden-Parameter-Modell schlug damit Giganten wie GPT-5 in Effizienz und Genauigkeit. https://arxiv.org/abs/2511.21689

Ein Gedanke zum Schluss: Der Trend dieser Woche ist eindeutig: „Bigger is better“ gerät ins Wanken. Ob Ilya Sutskever oder die Nvidia-Forschung – der Fokus verschiebt sich von immer größeren Rechenzentren hin zu schlauerer Software und spezialisierten Agenten.

Was haltet ihr davon? Ist die Zeit der gigantischen Modelle vorbei? 

Wir lesen uns bei der nächsten Ausgabe – bleibt neugierig!

Herzliche Grüße

Tobit

Fragen Sie unseren Experten
Daniel Szkutnik

Daniel Szkutnik

Chief Executive Officer

oder

0621 33840-153