La recente introduzione di modelli di ragionamento AI da parte di OpenAI segna un passo significativo nel panorama dell’intelligenza artificiale. Questi modelli, denominati gpt-oss-120b e gpt-oss-20b, sono progettati per essere accessibili anche a sviluppatori con risorse limitate, ampliando notevolmente le possibilità di utilizzo.
OpenAI lancia nuovi modelli AI
I nuovi modelli di ragionamento AI presentano un consumo relativamente contenuto di risorse. In particolare, il modello gpt-oss-120b può operare su una singola GPU NVIDIA, mentre il modello più leggero gpt-oss-20b è in grado di funzionare su un laptop comune dotato di soli 16 GB di memoria. Questa caratteristica li rende ideali per sviluppatori che non dispongono di hardware avanzato o complesso.
Secondo OpenAI, il modello gpt-oss-120b raggiunge prestazioni simili a quelle del modello o4-mini su benchmark fondamentali, lavorando in modo efficiente su una GPU da 80 GB. Il modello gpt-oss-20b, invece, offre risultati paragonabili a quelli del modello o3-mini e può essere utilizzato su dispositivi edge con solo 16 GB di memoria, risultando pertanto adatto per casi d’uso on-device e inferenze locali senza necessità di infrastrutture costose.
Performance dei modelli
Nonostante il minor fabbisogno energetico, i nuovi modelli si comportano bene anche in termini di performance. I punteggi ottenuti nei benchmark su Codeforces sono rispettivamente 2622 per gpt-oss-120b e 2516 per gpt-oss-20b, superando anche la performance del sistema R1 sviluppato da DeepSeek.
Nell’ambito del test “Humanity’s Last Exam”, che raccoglie domande crowdsourced su vari argomenti, i due modelli hanno ottenuto punteggi del 19% e del 17.3%, battendo alcuni concorrenti come DeepSeek e Qwen. L’introduzione dei nuovi modelli open-weight dovrebbe incontrare il favore dell’amministrazione Trump, la quale ha sollecitato gli sviluppatori statunitensi a rendere open source maggior parte della tecnologia AI.
- OpenAI
- DeepSeek
- Alibaba
- Moonshot
- Qwen
Lascia un commento