La nuova versione del modello linguistico Gemini 2.5 Flash di Google sta facendo discutere: è più obbediente ma anche meno sicura. Secondo quanto riportato in un recente rapporto tecnico di Google, le performance del nuovo modello in termini di rispetto delle norme di sicurezza sono peggiorate rispetto alla versione precedente, Gemini 2.0 Flash.

Prestazioni peggiorate nei test: ecco i numeri
Secondo i dati ufficiali, Gemini 2.5 Flash ha violato le regole di sicurezza nel 4,1% dei casi durante la generazione di testi, e nel 9,6% dei casi nella generazione di immagini. Per confronto, la versione 2.0 mostrava percentuali leggermente migliori, suggerendo che l’evoluzione del modello ha aumentato la sua capacità di seguire istruzioni, ma al prezzo di una maggiore vulnerabilità.
Una tendenza condivisa: meno restrizioni, più libertà (e rischi)
Come evidenziato da TechCrunch, il caso di Gemini non è isolato. Sempre più aziende stanno allentando i vincoli imposti ai propri modelli di intelligenza artificiale, per renderli più flessibili, versatili e capaci di rispondere a richieste complesse o delicate. Sia Meta che OpenAI hanno annunciato aggiornamenti che permettono alle loro AI di affrontare argomenti politici controversi in maniera imparziale, presentando punti di vista plurali.
Tuttavia, questa maggiore libertà operativa comporta seri rischi etici e legali. Basti pensare a quanto accaduto con ChatGPT, coinvolto in conversazioni inappropriate con minori. OpenAI ha definito l’accaduto un bug, ma il problema ha sollevato preoccupazioni concrete sulla sicurezza dei modelli linguistici avanzati.
Obbedienza assoluta: un’arma a doppio taglio
Una delle novità principali di Gemini 2.5 Flash è proprio la maggiore aderenza alle istruzioni ricevute dagli utenti. Se da un lato questo migliora l’esperienza d’uso e la precisione delle risposte, dall’altro aumenta il rischio di abusi, soprattutto in contesti dove è richiesta un’etica algoritmica robusta.
Gli esperti sottolineano che questo comportamento potrebbe portare a vietare l’uso di alcuni modelli in ambiti sensibili, proprio per la loro eccessiva disponibilità a seguire comandi, anche potenzialmente pericolosi o dannosi.
Google sotto osservazione: pochi dettagli e report lacunosi
Il rapporto pubblicato da Google è stato criticato per la mancanza di trasparenza: non sono stati divulgati dettagli significativi sulle condizioni dei test o sui casi specifici in cui Gemini ha violato le policy. In risposta, Google ha rilasciato una versione aggiornata e più dettagliata del documento, pubblicata lunedì, nel tentativo di rafforzare la fiducia nella gestione della sicurezza dei suoi modelli.
Intelligenza artificiale più potente, ma anche più fragile?
L’evoluzione di modelli come Gemini 2.5 Flash rappresenta una sfida costante per l’equilibrio tra utilità, obbedienza e responsabilità. Mentre l’IA diventa sempre più intelligente, il dibattito sulla regolamentazione, la sicurezza e l’etica si fa ogni giorno più urgente.

Giornalista e analista, scrive di economia italiana, innovazione e imprese. Appassionato di tecnologia e finanza, racconta il presente e il futuro delle aziende che fanno muovere il Paese.