Mistral AI, la startup parigina di Intelligenza Artificiale, ha presentato Mistral Small 3, un modello linguistico da 24 miliardi di parametri che promette performance paragonabili a sistemi tre volte più grandi, come Llama 3.3 70B.
L’approccio della startup, valutata 6 miliardi di dollari, si basa sull’ottimizzazione algoritmica anziché sulla scalabilità estrema, come confermato da Guillaume Lample, chief science officer dell’azienda, in un’intervista a Venture Beat.
Performance a doppio taglio
Secondo l’analisi indipendente di Epoch AI, il modello mostra risultati contrastanti: raggiunge il 45% di accuratezza sul benchmark GPQA Diamond – superando GPT-4o Mini ed eguagliando Qwen 2.5 32B – ma arranca nel problem solving matematico avanzato (MATH Level 5), dove viene surclassato dagli stessi competitor.
Questa dicotomia riflette probabilmente la specializzazione del modello verso casi d’uso aziendali come analisi documentale e automazione di processi, piuttosto che compiti di ragionamento complesso.
Il GPQA Diamond raccoglie quesiti scientifici avanzati di livello universitario, progettati per essere “resistenti” alle ricerche web (Google-proof), come spiega anche Epoch AI. A differenza della versione standard, dove i modelli raggiungono spesso performance vicine all’umano, in questa variante “hardcore” gli esperti umani ottengono solo il 70% di accuratezza nonostante l’accesso a internet, trasformandolo in un banco di prova cruciale per valutare le reali capacità di comprensione concettuale dei modelli IA.
Il chatbot di Mistral sale di livello: beta gratuita con ricerca web, Canvas, analisi PDF e generazione immagini
Architettura pulita per settori sensibili
Diversamente dai concorrenti, Mistral ha eliminato anche il reinforcement learning e dati sintetici dal training, riducendo il rischio di bias nascosti, secondo Lample.
Il modello, addestrato su 8 trilioni di token (quasi la metà dei 15 trilioni usati per sistemi analoghi), viene proposto come soluzione per finanza, sanità e manifatturiero; settori che richiedono “deployment on-premise” per garantire privacy e controllo, cioè una configurazione e una messa in funzione del sistema all’interno delle strutture fisiche di un’organizzazione.
Il lancio avviene in un momento cruciale per il mercato causato dalle dichiarazioni di DeepSeek sui costi di training ridotti e soprattutto sui suoi bassissimi costi di inferenza.
Con licenza Apache 2.0 e integrazioni pronte, tra gli altri, per Hugging Face, Ollama, Kaggle e in seguito anche per Amazon SageMaker, Groq e NVIDIA NIM, Mistral punta a trasformare i modelli compatti in commodity, anticipando una tendenza che potrebbe marginalizzare gli investimenti iper-scalabili di OpenAI e Anthropic.
Di NVIDIA NIM ne abbiamo già parlato trattando delle nuove RTX 5000 e dell’uso dell’IA generativa nei videogiochi. Si tratta di una piattaforma di microservizi containerizzati progettata per semplificare e accelerare il deployment di modelli di intelligenza artificiale, particolarmente quelli generativi, su infrastrutture cloud, data center o dispositivi locali. Ottimizzati per GPU NVIDIA, come le RTX Serie 50 con architettura Blackwell, questi microservizi integrano modelli preconfigurati (dai LLM alla generazione di immagini) insieme a librerie, runtime e API standard, eliminando la necessità di complesse configurazioni.
Mistral è la punta di diamante dell’IA europea
In ogni caso, nelle prossime settimane, è comunque atteso l’annuncio di Mistral di modelli potenziati nelle capacità di ragionamento.
Inoltre, la partnership già in piedi con Microsoft e i preparativi per l’eventuale l’IPO segnalano quanto meno l’ambizione di Mistral di diventare il campione europeo nell’arena globale dell’IA.
Microsoft fa uno sgambetto a OpenAI ed entra nell’europea Mistral AI. Come provare il chatbot “Le Chat”
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link