Bitget App
Trade smarter
Krypto kaufenMärkteTradenFuturesEarnWeb3PlazaMehr
Traden
Spot
Krypto kaufen und verkaufen
Margin
Kapital verstärken und Fondseffizienz maximieren
Onchain
Going Onchain, without going Onchain!
Umtauschen
Keine Transaktionsgebühren, keine Slippage und unterstützt die meisten wichtigen Coins.
Erkunden
Launchhub
Verschaffen Sie sich frühzeitig einen Vorteil und beginnen Sie zu gewinnen
Copy
Elite-Trader mit einem Klick kopieren
Bots
Einfacher, schneller und zuverlässiger KI-Trading-Bot
Traden
USDT-M Futures
Futures abgewickelt in USDT
USDC-M-Futures
Futures abgewickelt in USDC
Coin-M Futures
Futures abgewickelt in Kryptos
Erkunden
Futures-Leitfaden
Eine Reise ins Futures-Trading vom Anfänger bis Fortgeschrittenen
Futures-Aktionen
Großzügige Prämien erwarten Sie
Übersicht
Eine Vielzahl von Produkten zur Vermehrung Ihrer Assets
Simple Earn
Jederzeit ein- und auszahlen, um flexible Renditen ohne Risiko zu erzielen.
On-Chain Earn
Erzielen Sie täglich Gewinne, ohne Ihr Kapital zu riskieren
Strukturiert verdienen
Robuste Finanzinnovationen zur Bewältigung von Marktschwankungen
VIP & Wealth Management
Premium-Services für intelligente Vermögensverwaltung
Kredite
Flexible Kreditaufnahme mit hoher Vermögenssicherheit
OpenAI Rollt Gpt-oss-120b und Gpt-oss-20b ein und bringt hochmoderne Modelle auf lokale Geräte

OpenAI Rollt Gpt-oss-120b und Gpt-oss-20b ein und bringt hochmoderne Modelle auf lokale Geräte

MPOSTMPOST2025/08/06 18:00
Von:MPOST

In Kürze OpenAI hat zwei leistungsstarke Open-Weight-Modelle veröffentlicht, gpt-oss-120b und gpt-oss-20b, die eine erweiterte lokale KI-Leistung ohne Internetzugang ermöglichen und damit einen wichtigen Schritt in Richtung Entwicklerzugänglichkeit darstellen.

Forschungsorganisation für künstliche Intelligenz OpenAI gab die Veröffentlichung zweier fortschrittlicher, offener Sprachmodelle namens gpt-oss-120b und gpt-oss-20b bekannt. Diese Modelle bieten eine starke Leistung in praktischen Anwendungen bei niedrigen Betriebskosten. Veröffentlicht unter der flexiblen Apache 2.0-Lizenz, übertreffen sie andere offene Modelle ähnlicher Größe bei Reasoning-Aufgaben, bieten robuste Tool-Nutzungsmöglichkeiten und sind für den effizienten Betrieb auf Consumer-Hardware optimiert. Der Trainingsprozess umfasste Reinforcement-Learning-Techniken kombiniert mit Erkenntnissen aus OpenAIDie fortschrittlichsten internen Modelle von, einschließlich O3 und anderen hochmodernen Systemen.

Das Modell gpt-oss-120b bietet fast die gleiche Leistung wie OpenAIDas o4-mini-Modell von s bei fundamentalen Reasoning-Benchmarks und läuft effizient auf einer einzelnen 80-GB-GPU. Das gpt-oss-20b-Modell erreicht vergleichbare Ergebnisse wie OpenAIo3-mini von schneidet in gängigen Benchmarks ab und kann auf Edge-Geräten mit nur 16 GB Speicher betrieben werden. Dadurch eignet es sich für On-Device-Anwendungen, lokale Inferenz oder schnelle Tests ohne teure Infrastruktur. Beide Modelle zeigen starke Fähigkeiten im Tool-Einsatz, beim Aufrufen von Few-Shot-Funktionen und beim Chain-of-Thinking (CoT), wie in der agentischen Tau-Bench-Evaluierung und HealthBench gezeigt wurde, und übertreffen zeitweise proprietäre Modelle wie OpenAI o1 und GPT-4o.

Diese Modelle sind mit der Responses API kompatibel und für die Integration in Agenten-Workflows konzipiert. Sie bieten erweiterte Anweisungsbefolgung, Tool-Nutzung einschließlich Websuche und Python-Codeausführung sowie Argumentationsfunktionen. Dazu gehört ein anpassbarer Argumentationsaufwand zur Optimierung für Aufgaben, die kein komplexes Denken erfordern oder bei denen geringe Latenzzeiten im Endergebnis im Vordergrund stehen. Beide Modelle sind vollständig anpassbar, unterstützen vollständiges Denken und unterstützen strukturierte Ausgabeformate.

Sicherheitsaspekte sind für die Veröffentlichung dieser Modelle von zentraler Bedeutung, insbesondere angesichts ihrer offenen Natur. Neben umfassenden Sicherheitsschulungen und -bewertungen wurde eine zusätzliche Testebene durch eine fein abgestimmte Version von gpt-oss-120b unter OpenAIDie gpt-oss-Modelle erreichen eine Sicherheits-Benchmark-Leistung, die vergleichbar ist mit OpenAIDie neuesten proprietären Modelle von bieten Entwicklern ähnliche Sicherheitsgarantien. Detaillierte Ergebnisse und weitere Informationen sind in einem Forschungsbericht und einer Modellkarte verfügbar. Die Methodik wurde von externen Experten überprüft und stellt einen Fortschritt bei der Festlegung neuer Sicherheitsstandards für Modelle mit offenem Gewicht dar.

OpenAI hat mit frühen Partnern wie AI Sweden, Orange und Snowflake zusammengearbeitet, um die praktische Anwendung dieser offenen Modelle zu erforschen, einschließlich On-Premises-Hosting für Datensicherheit und Feinabstimmung spezialisierter Datensätze. Die Verfügbarkeit dieser offenen Modelle soll einem breiten Anwenderkreis – von einzelnen Entwicklern bis hin zu großen Unternehmen und Behörden – ermöglichen, KI auf ihrer eigenen Infrastruktur auszuführen und anzupassen. In Kombination mit anderen Modellen, die über OpenAIMithilfe der API von können Entwickler aus einer Reihe von Optionen auswählen, die Leistung, Kosten und Latenz ausbalancieren, um verschiedene KI-Workflows zu unterstützen.

gpt-oss ist eine große Sache; es ist ein hochmodernes Open-Weights-Argumentationsmodell mit einer starken Leistung in der Praxis, vergleichbar mit o4-mini, das Sie lokal auf Ihrem eigenen Computer (oder Smartphone mit der kleineren Größe) ausführen können. Wir glauben, dass dies das beste und benutzerfreundlichste offene Modell in der…

– Sam Altman (@sama) August 5, 2025

Gpt-oss-120b und Gpt-oss-20b jetzt kostenlos verfügbar mit umfassender Plattform- und Hardwareunterstützung

Die Gewichte für gpt-oss-120b und gpt-oss-20b stehen auf Hugging Face zum Download bereit und werden mit nativer Quantisierung im MXFP4-Format bereitgestellt. Dadurch kann das Modell gpt-oss-120b mit einer Speicherkapazität von 80 GB betrieben werden, während das Modell gpt-oss-20b nur 16 GB benötigt. Beide Modelle wurden im Harmony-Prompt-Format nachtrainiert, und ein Open-Source-Harmony-Renderer in Python und Rust erleichtert die Einführung. Zusätzlich werden Referenzimplementierungen für die Ausführung von Inferenzen mit PyTorch und Apples Metal-Plattform sowie eine Reihe von Beispieltools für die praktische Anwendung bereitgestellt.

Diese Modelle sind auf Flexibilität und Benutzerfreundlichkeit ausgelegt und unterstützen die Bereitstellung lokal, auf dem Gerät oder über Inferenzanbieter von Drittanbietern. Um die Zugänglichkeit zu verbessern, wurden vor der Markteinführung Partnerschaften mit wichtigen Bereitstellungsplattformen wie Azure, Hugging Face, vLLM, O geschlossen.llama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare und OpenRouter. Darüber hinaus wurde mit Hardwareherstellern wie NVIDIA, AMD, Cerebras und Groq zusammengearbeitet, um eine optimale Leistung auf verschiedenen Systemen sicherzustellen.

In Verbindung mit dieser Version stellt Microsoft GPU-optimierte Versionen des Modells gpt-oss-20b für Windows-Geräte bereit. Diese Versionen basieren auf ONNX Runtime, unterstützen lokale Inferenz und sind über Foundry Local und das AI Toolkit für VS Code zugänglich. Dies vereinfacht den Integrationsprozess für Entwickler auf Windows-Plattformen.

Für Entwickler, die vollständig anpassbare Modelle suchen, die sich in ihren eigenen Umgebungen optimieren und einsetzen lassen, bieten die gpt-oss-Modelle eine geeignete Lösung. Für diejenigen, die hingegen multimodale Funktionen, integrierte Tools und eine nahtlose Plattformintegration benötigen, sind die über die API-Plattform angebotenen Modelle weiterhin die bevorzugte Wahl. Das Feedback der Entwickler wird weiterhin beobachtet und gegebenenfalls für die zukünftige API-Unterstützung von gpt-oss-Modellen berücksichtigt.

Die Einführung von gpt-oss-120b und gpt-oss-20b stellt einen bemerkenswerten Fortschritt im Bereich der Open-Weighted-Modelle dar und bietet erhebliche Verbesserungen der Argumentationsfähigkeiten und der Sicherheit in ihrem Maßstab. Diese offenen Modelle ergänzen proprietäre gehostete Modelle, indem sie Entwicklern eine größere Auswahl an Tools bieten, um Spitzenforschung zu ermöglichen, Innovationen anzuregen und eine sicherere, transparentere KI-Entwicklung für verschiedene Anwendungen zu fördern.

Darüber hinaus tragen diese offenen Modelle dazu bei, Markteintrittsbarrieren für Schwellenländer, ressourcenarme Branchen und kleinere Unternehmen abzubauen, die bei der Einführung proprietärer Lösungen möglicherweise mit Einschränkungen konfrontiert sind. Durch die Bereitstellung zugänglicher und leistungsstarker Tools werden Nutzer weltweit in die Lage versetzt, zu entwickeln, Innovationen zu schaffen und neue Möglichkeiten zu schaffen. Die breite Verfügbarkeit dieser leistungsfähigen, in den USA entwickelten Open-Weight-Modelle trägt zu einem gleichberechtigten Zugang zu KI bei.

Ein zuverlässiges Ökosystem offener Modelle ist ein wesentlicher Bestandteil für die Förderung eines breiten und inklusiven KI-Zugangs. Entwickler und Forscher werden ermutigt, diese Modelle für Experimente, Zusammenarbeit und die Erweiterung der Grenzen des Machbaren zu nutzen. Die weiteren Fortschritte in diesem Bereich werden mit Spannung erwartet.

0

Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.

PoolX: Locked to Earn
APR von bis zu 10%. Mehr verdienen, indem Sie mehr Lockedn.
Jetzt Lockedn!