GPT-4o mini: Ein wichtiger Schritt für erschwingliche KI
OpenAI hat kürzlich GPT-4o mini vorgestellt – ein neues Modell, das die Nutzung von KI in vielen Bereichen verändert. Lass uns einen genaueren Blick auf die wichtigsten Aspekte dieses Releases werfen.
Verbesserte Kosteneffizienz
GPT-4o mini setzt neue Maßstäbe in Sachen Preis-Leistungs-Verhältnis. Mit Kosten von nur 15 Cent pro Million Eingabe-Token und 60 Cent pro Million Ausgabe-Token ist es nicht nur deutlich günstiger als sein Vorgänger GPT-3.5, sondern positioniert sich auch preislich unter Konkurrenzmodellen wie Claude 3 Haiku (25ct/125ct) und Gemini 1.5 Flash (35ct/70ct).
Um die Kosteneffizienz zu veranschaulichen: Die Generierung von Textinhalten im Umfang eines 2.500-seitigen Buches kostet weniger als 1 €. Diese Preisgestaltung macht den Einsatz von KI für viele Unternehmen und Entwickler attraktiver.
Sam Altman, CEO von OpenAI, betonte den enormen Fortschritt: »Way back in 2022, the best model in the world was text-davinci-003. It was much, much worse than this new model. It cost 100x more.«
Das bedeutet: GPT-4o mini ist 100 Mal günstiger als das beste Modell von vor nur zwei Jahren. Gleichzeitig bietet es eine deutlich bessere Leistung.

Erweiterte Ausgabekapazität: 16.000 Token
Eine bemerkenswerte Eigenschaft von GPT-4o mini ist die Fähigkeit, bis zu 16.000 Output-Token in einer einzelnen Anfrage zu generieren. Um die Bedeutung dieser Zahl greifbar zu machen: 16.000 Token entsprechen etwa 12.000 Wörtern oder 20-25 Standardseiten Text. Das eröffnet völlig neue Möglichkeiten:

Umfangreiche Texterstellung:
  • Du erstellst lange SEO-optimierte Blogartikel, detaillierte Berichte oder sogar kurze E-Books in einer einzigen Anfrage.
  • Beispiel: Ein 10.000-Wörter-Whitepaper zu einem komplexen Thema lässt sich in einem Durchgang generieren, was Kohärenz und Konsistenz verbessert.

Vergleich zu anderen Modellen:
  • GPT-4o gibt nur 4.000 Output-Token pro Anfrage aus, was etwa 3.000 Wörtern entspricht.
  • Auch Claude 3 Haiku und GPT-3.5 sind auf etwa 4.000 Token begrenzt.
  • Mit GPT-4o mini kannst du also viermal so viel Text in einer Anfrage erzeugen wie mit diesen Modellen.
Diese Kapazität eröffnet neue Perspektiven für Content-Erstellung, Datenanalyse und komplexe Textverarbeitung.

Leistungsfähigkeit in Benchmarks
OpenAI hat Benchmarks veröffentlicht, die zeigen, dass GPT-4o mini in vielen Bereichen mit etablierten Modellen mithält oder sie sogar übertrifft. Lass uns einen genaueren Blick auf die Ergebnisse werfen und sie mit anderen Modellen vergleichen:
MMLU (Massive Multitask Language Understanding):
  • GPT-4o mini: 82,0%
  • Gemini 1.5 Flash: 77,9%
  • Claude 3 Haiku: 73,8%
  • GPT-3.5 Turbo: 69,8%

MGSM (GSM8K - Grade School Math):
  • GPT-4o mini: 87,0%
  • Gemini 1.5 Flash: 75,5%
  • Claude 3 Haiku: 71,7%
  • GPT-3.5 Turbo: 56,3%

HumanEval (Coding-Performance):
  • GPT-4o mini: 87,2%
  • Gemini 1.5 Flash: 71,5%
  • Claude 3 Haiku: 75,9%
  • GPT-3.5 Turbo: 68,0%
Diese Ergebnisse unterstreichen, dass GPT-4o mini trotz seiner Kosteneffizienz eine beachtliche Leistung bietet. Es übertrifft in vielen Bereichen nicht nur andere kostengünstige Modelle wie Gemini 1.5 Flash und Claude 3 Haiku, sondern nähert sich in manchen Aspekten sogar der Leistung von deutlich teureren Modellen wie GPT-4 an.

Reaktionen aus der Industrie
Die Einführung von GPT-4o mini hat in der Tech-Branche Aufmerksamkeit erregt. Aaron Levie, CEO von Box, kommentierte:
»Incredible that OpenAI just dropped the cost of AI by 60% with their release of GPT-4o mini. Once fully tested on our end, we anticipate bringing this to Box and offering unlimited use on documents for customers using Box AI.«
Diese Reaktion deutet darauf hin, dass wir mehr (kostenlose/unlimitierte) KI-gestützte Features in verschiedenen Produkten und Dienstleistungen sehen werden, da die Kosten für den Einsatz von KI sinken.

Ausblick: Neue Möglichkeiten für KI-Anwendungen
GPT-4o mini erleichtert den Einsatz von KI für ein breiteres Spektrum von Anwendungen und Unternehmen. Seine Kombination aus Leistung und Kosteneffizienz setzt neue Impulse in der KI-Landschaft.
Mit der zunehmenden Verfügbarkeit leistungsfähiger und erschwinglicher KI-Modelle wird es wichtiger, »KI-First-Gewohnheiten« zu entwickeln. Es lohnt sich, bei Arbeitsaufgaben zu überlegen: »Kann mich mein KI-Assistent hier schneller, besser oder kreativer machen?« Mit Modellen wie GPT-4o mini ergeben sich neue Möglichkeiten für solche Unterstützung.
40% mehr Produktivität in nur 21 Tagen – Unser KI-Bootcamp macht's möglich!
BLDRS GmbH.
Kontakt
Timo Springer
CEO und Co-Founder DECAID Studio