AI-Breakdown | KW 10, 2025 – Claude 3.7, GPT-4.5 & Agenten

von Daniel Szkutnik Daniel Szkutnik

03.03.2025

4 Min. Lesedauer

auch diese Woche ist wieder extrem viel passiert in der rasanten Welt der Künstlichen Intelligenz. Neue Modelle, schnellere Tools, Agenten-Funktionen, Sprachassistenten mit größerem „Brain“ und sogar humanoide Roboter für Zuhause. Damit ihr den Überblick behaltet, kommt hier eine kompakte Zusammenfassung – ganz ohne unnötigen Schnickschnack.

Claude 3.7 „Sonic“ – Fokus auf Code & Agenten

Update von Anthropic: Claude (bzw. „Claud“) hat die Version 3.7 Sonic erhalten. Hauptziel: bessere Coding-Fähigkeiten und „agentisches“ Tool-Handling. https://www.anthropic.com/news/claude-3-7-sonnet

Swe-Benchmark: Insbesondere bei Software-Engineering-Aufgaben legt Claude 3.7 spürbar zu. https://docs.anthropic.com/en/docs/agents-and-tools/claude-code/overview

Extended Thinking: Claude beherrscht jetzt auch Chain-of-Thought-Abfragen. Ergebnis: ausführlichere, nachvollziehbarere Antworten. https://www.anthropic.com/research/visible-extended-thinking

GPT-4.5 – „Mehr Vibe“ statt Highscores

Offizielles Upgrade: OpenAI hat GPT-4.5 (Codename „Orion“) veröffentlicht. Zunächst nur für die teureren „Pro“-Abos, bald aber auch für Plus-User. https://openai.com/index/introducing-gpt-4-5/

Haupt-Neuerung: Bessere Schreibstile („Vibe“), weniger Halluzinationen, solide Ergebnisse bei einfachem Q&A. Bei komplexem Reasoning landen andere Modelle (z. B. Grok 3) laut aktuellen Benchmarks aber teils weiter vorn.

Sam Altman äußert sich: GPT-4.5 ist kein „Reasoning-King“, sondern eher ein Modell, das überzeugende, menschlichere Texte schreibt. Und: OpenAI kämpft mit GPU-Kapazitäten, weshalb der Rollout gestaffelt erfolgt. https://x.com/sama/status/1895203654103351462

Alexa Plus – Amazon holt Claude ins Haus

Alexa 2.0: Amazon kündigt „Alexa Plus“ an, basierend auf Anthropic’s Claude. Mehr Gesprächsfähigkeit, mehr Agenten-Funktionalitäten (z. B. Bestellungen tätigen, Services buchen). https://www.aboutamazon.com/news/devices/new-alexa-generative-artificial-intelligence

Agentik im Alltag: Ziel ist eine KI, die eigenständig Aufgaben übernimmt, mit Drittanbietern verknüpft ist und Befehle aktiv ausführt.

Microsoft & Copilot-Updates

Kostenfrei „Think Deeper“ & Voice: CoPilot-Nutzer erhalten u. a. eine integrierte „Deep Thought“- und Sprachfunktion – angetrieben von OpenAI im Hintergrund. https://www.microsoft.com/en-us/microsoft-copilot/blog/2025/02/25/announcing-free-unlimited-access-to-think-deeper-and-voice/

Neue Modelle „Phi-Familie“: Phi4 & Phi4 mini für on-device-Use-Cases. Leichte, schnelle Sprachmodelle für Mobile- und Desktop-Apps. https://azure.microsoft.com/en-us/blog/empowering-innovation-the-next-generation-of-the-phi-family/

Copilot für Mac: Microsoft veröffentlicht eine eigenständige Copilot-App für Apple-User. https://apps.apple.com/us/story/id1798580097

Diffusion Language Model & weitere Neuheiten

Inception Labs: Präsentieren ein sog. „Diffusion Large Language Model“ für Code (Mercury Coder). Besonders auffällig: extrem hohe Generationsgeschwindigkeit (bis zu 1.000 Tokens/s). https://www.inceptionlabs.ai/news

Google AI Studio: Neues „Branching Feature“, um Konversationen in mehrere Richtungen aufzuspalten, ohne Chat neu starten zu müssen. https://x.com/OfficialLoganK/status/1894049802557456669

Offene Video-KI „Wan Ai“: Open-Source-Video-Modell mit soliden Ergebnissen (z. B. bei Krea.ai verfügbar). Konkurrenz für Runway & Co.? https://wanxai.com https://x.com/krea_ai/status/1895140586287435947

Pika 2.2: Jetzt mit schnelleren Video-Generationen, 1080p-Ausgabe und weichen „Keyframe-Übergängen“. https://x.com/pika_labs/status/1895156950431867318

Idiogram 2A: Neue Text-in-Bild-Engine, die Texterkennung und Bilderstellung verbessert (z. B. Logos mit integrierten Wörtern). https://x.com/ideogram_ai/status/1895157668102222075

Magnific: „Structure Reference“: Ähnlich zu ControlNet – ermöglicht das Umstylen bestehender Motive mit genauerer Bildkontrolle. https://x.com/javilopen/status/1895129521105559805

Neue Audio- und TTS-Features

Luma AI: Generiert jetzt automatisch passende Audio-Tracks zu Video-Outputs. https://x.com/LumaLabsAI/status/1894063350666957148

ElevenLabs „Scribe“: Verspricht die „weltweit genaueste“ Spracherkennung für Transkriptionen. https://elevenlabs.io/blog/meet-scribe

Octave: Erstes Text-to-Speech-Modell, das „versteht“, was es sagt und entsprechend Gefühle, Pausen und Stil anpassen kann. https://www.hume.ai/blog/octave-the-first-text-to-speech-model-that-understands-what-its-saying

Perplexity Browser & Robotics

Perplexity „Comet“: Angedeuteter neuer KI-Browser für Agenten-Suche – noch in der Warteliste-Phase. https://x.com/perplexity_ai/status/1894068197936304296

Figure Robotics: Der „Helix“-Roboter soll bereits ab Ende 2025 im Haushalt helfen. Ein gewagter Zeitplan, aber humanoide Roboter für daheim rücken näher. https://x.com/adcock_brett/status/1895175400160133543

Fazit: Die KI-Branche schaltet erneut einen Gang hoch. Spannend ist hauptsächlich, wie sehr Agenten-Funktionen in Alltagshelfer (Alexa, Copilot & Co.) einziehen und wie sich die neuen Generationen bei Reasoning und Coding entwickeln. Es bleibt rasant – und wir werden sicher bald sehen, ob GPT-4.5 seinen „Vibe“-Vorsprung behaupten kann oder ob doch Grok 3 und Claude 3.7 das Rennen machen.

Was meint ihr? Wo geht die Reise hin? Teilt gern eure Gedanken – und bis zur nächsten Ausgabe unseres KI-Newsletters!

Bleibt wie immer neugierig und experimentierfreudig.

Herzliche Grüße,

Tobit

Fragen Sie unseren Experten
Daniel Szkutnik

Daniel Szkutnik

Chief Executive Officer

oder

0621 33840-153