OpenAI hat neue Sprachmodelle veröffentlicht. Sie heißen GPT-4.1, GPT-4.1 mini und GPT-4.1 nano. Alle drei sind über die OpenAI-API verfügbar, aber noch nicht in ChatGPT integriert. Die Modelle setzen vor allem auf Verbesserungen bei Programmieraufgaben, längeren Kontexten und besserer Befehlsverfolgung.
Wer regelmäßig mit KI arbeitet – ob im Coding, bei der Analyse großer Textmengen oder im Bereich Automatisierung – kennt die Schwächen vieler Modelle: zu langsam, zu teuer oder nicht kontextstark genug. Mit GPT-4.1 will OpenAI genau diese Punkte verbessern. Die neuen Varianten sollen leistungsfähiger, schneller und günstiger sein als ihre Vorgänger.
Drei neue Modelle für unterschiedliche Anwendungsbereiche
OpenAI bringt mit dem GPT-4.1-Release drei neue Modelle:
- GPT-4.1: Das Hauptmodell. Am leistungsstärksten, besonders bei Codierungsaufgaben und langen Kontexten.
- GPT-4.1 mini: Etwas abgespeckt, aber schneller und günstiger. Laut OpenAI übertrifft es GPT-4o bei gleicher oder besserer Leistung.
- GPT-4.1 nano: Das kleinste und günstigste Modell. Konzipiert für einfache Aufgaben wie Klassifizierung oder Autovervollständigung.
Die Modelle sind aktuell nur über die OpenAI-API verfügbar. In ChatGPT selbst sind sie noch nicht eingebaut. OpenAI sagt aber, dass einige der Verbesserungen schon in GPT-4o eingeflossen sind – weitere sollen folgen.
Starke Ergebnisse bei Codierung und Kontextverarbeitung
Ein großer Schwerpunkt liegt auf Programmieraufgaben. Laut OpenAI schneidet GPT-4.1 im SWE-Bench Verified Benchmark 21,4 Prozent besser ab als GPT-4o und 26,6 Prozent besser als GPT-4.5. Besonders interessant: GPT-4.1 mini erreicht ähnliche oder sogar bessere Ergebnisse als GPT-4o – bei deutlich geringeren Kosten und geringerer Latenz. Ein weiterer Punkt ist der Kontextumfang. GPT-4.1 kann bis zu eine Million Token im Kontext halten. Das heißt: Das Modell versteht auch sehr lange Texte oder große Codebasen zusammenhängend, ohne den Überblick zu verlieren. Für viele Anwendungen in der Praxis ein echter Vorteil (via Pressemitteilung).
Preise im Überblick
Die drei Modelle unterscheiden sich deutlich im Preis:
- GPT-4.1: $2 pro Million Input-Token und $8 pro Million Output-Token
- GPT-4.1 mini: $0,40 pro Million Input-Token und $1,60 pro Million Output-Token
- GPT-4.1 nano: $0,10 pro Million Input-Token und $0,40 pro Million Output-Token
Damit bietet OpenAI flexible Optionen – je nachdem, ob Leistung, Geschwindigkeit oder Kosten im Vordergrund stehen. Kundenspezifische Modelle sind laut OpenAI ebenfalls erhältlich, kosten dann aber mehr.
Aktualität der Modelle und Abkündigung von GPT-4.5
Alle neuen Modelle sind auf dem Stand von Juni 2024. Ereignisse nach diesem Datum kennt das Modell nicht. Mit der Veröffentlichung von GPT-4.1 wird GPT-4.5 in der API abgelöst. Der Grund: GPT-4.1 bietet fast dieselben Funktionen – zu geringeren Kosten und mit besserer Leistung.
Mehr Leistung, weniger Kosten: Das ist GPT-4.1
OpenAI bringt mit GPT-4.1 drei neue Modelle auf den Markt, die vor allem bei Codierung, langen Kontexten und effizienter Befehlsverarbeitung punkten. Nutzer können zwischen hoher Leistung (GPT-4.1), einem guten Kompromiss (GPT-4.1 mini) und einer schnellen, günstigen Lösung (GPT-4.1 nano) wählen. GPT-4.5 wird aus der API entfernt, weil GPT-4.1 mehr bietet – für weniger Geld. Wenn du in der Entwicklung oder Datenanalyse mit KI arbeitest, lohnt sich ein genauer Blick auf diese Modelle. (Bild: OpenAI)
- ChatGPT als Suchmaschine in Safari einrichten – So geht’s
- Neues ChatGPT-Update: Code-Bearbeitung in Xcode & mehr
- GPT-4.5 für ChatGPT vorgestellt – Das steckt im neuen Modell