Enshittification di Ollama - I primi segnali
La mia opinione sull'attuale stato dello sviluppo di Ollama
Ollama ha rapidamente diventato uno degli strumenti più popolari per eseguire i modelli LLM localmente. La sua semplice CLI e la gestione semplificata dei modelli l’hanno resa un’opzione di riferimento per gli sviluppatori che desiderano lavorare con i modelli AI al di fuori del cloud.
Se stai valutando Ollama rispetto ad altre opzioni locali o in cloud, consulta LLM Hosting: Local, Self-Hosted & Cloud Infrastructure Compared. Ma, come spesso accade con piattaforme promettenti, ci sono già segnali di Enshittification:
- il processo graduale per cui un software o un servizio degrada nel tempo, man mano che gli interessi degli utenti vengono progressivamente sottomessi a priorità aziendali, architettoniche o interne.

In questo articolo, esplorerò le tendenze recenti e le lamentele degli utenti su Ollama che suggeriscono questa deriva, e perché contano per il suo futuro.
Per i dettagli dei comandi e dei parametri più frequenti di Ollama - consulta Ollama cheatsheet.
Per UI utili per Ollama consulta - Open-Source Chat UIs for LLMs on Local Ollama Instances
Avvio automatico e controllo in background
Uno dei problemi più evidenti segnalati dagli utenti è l’avvio automatico di Ollama all’avvio del sistema — in particolare su Windows.
- Non esiste un’impostazione chiara per disattivare questo comportamento.
- Anche se lo disattivi manualmente, gli aggiornamenti o le reinstallazioni possono riattivarlo silenziosamente.
- Su macOS, l’app desktop si avvia di default all’accesso, a meno che non installi specificamente la versione CLI-only.
Questo modello — il software che si inserisce automaticamente nel flusso di avvio senza un consenso esplicito — è un classico segnale di allarme. Erode la fiducia degli utenti e crea attrito per coloro che valutano il controllo sul proprio sistema.
Preoccupazioni riguardo alla telemetria e alla raccolta dati
Un altro problema ricorrente è il comportamento di rete di Ollama. Gli utenti hanno notato traffico in uscita anche quando tutte le operazioni dovrebbero essere locali. I mantainer hanno dichiarato che questo è legato ai controlli degli aggiornamenti, non agli input degli utenti — ma non c’è un interruttore semplice per chi desidera un’esperienza completamente offline.
Per una piattaforma che si presenta come uno strumento locale, centrato sulla privacy, questa mancanza di chiarezza genera dubbi. La trasparenza e le opzioni di disattivazione sono essenziali se Ollama vuole mantenere la sua credibilità.
Regressione delle prestazioni con il nuovo motore
Gli aggiornamenti recenti hanno introdotto un nuovo motore di inferenza, ma invece di miglioramenti delle prestazioni, alcuni utenti hanno segnalato l’opposto:
- La generazione dei token è fino a 10× più lenta in alcuni scenari.
- L’utilizzo della GPU è inconsistente rispetto al motore precedente.
- I modelli più grandi, come Qwen3:30B, ora funzionano significativamente peggio, con una latenza più alta e una throughput inferiore.
Questo cambiamento solleva preoccupazioni riguardo alle priorità. Se gli aggiornamenti rendono i modelli meno utilizzabili su hardware reale, gli sviluppatori potrebbero sentirsi costretti ad aggiornare l’hardware o ad accettare prestazioni ridotte — un altro modo sottile per depriorizzare l’esperienza utente.
Rischi di sicurezza da istanze mal configurate
I ricercatori sulla sicurezza hanno trovato server Ollama esposti che funzionano senza autenticazione. Vulnerabilità come il percorso di traverso e i vettori di denial-of-service sono state divulgate, con alcune corrette e altre discusse.
Sebbene gran parte di ciò dipenda dagli utenti che configurano male le distribuzioni, l’assenza di default sicuri aumenta il rischio. La responsabilità di una piattaforma include il rendere il percorso sicuro il più semplice possibile.
Turbo: cambiamenti di monetizzazione e modello aziendale
Il lancio di Ollama Turbo — un servizio di accelerazione in cloud — ha rappresentato un momento decisivo. L’originale differenziazione di Ollama era la sua concentrazione su controllo locale, privacy e distribuzione open-source. Turbo, tuttavia, introduce una dipendenza dall’infrastruttura di Ollama.
- L’uso di Turbo richiede un accesso, spostandosi lontano dall’esperienza locale senza attriti.
- Le funzionalità chiave nell’app per Mac ora dipendono dai server di Ollama, sollevando preoccupazioni su quanto funzionamento possa rimanere utilizzabile offline.
- Le discussioni su Hacker News lo hanno visto come l’inizio dell’enshittification, avvertendo che la commercializzazione potrebbe introdurre a pagamento funzionalità che attualmente sono gratuite.
Questo non significa che Ollama abbia abbandonato i suoi principi — Turbo può essere utile per gli utenti che desiderano un’inferenza più veloce senza acquistare nuovi hardware. Ma l’immagine conta: una volta che uno strumento locale richiede servizi centralizzati per “l’esperienza migliore”, rischia di diluire le qualità che l’hanno distinta da OpenAI o Anthropic in primo luogo.
La tendenza: controllo utente vs. default del fornitore
Singolarmente, questi problemi potrebbero sembrare piccoli. Insieme, suggeriscono una tendenza:
- Il comportamento di avvio predefinito è attivo, non disattivo.
- I controlli degli aggiornamenti avvengono automaticamente, non su richiesta.
- I cambiamenti delle prestazioni servono nuovi obiettivi architettonici, anche se degradano l’utilizzabilità corrente.
- La monetizzazione introduce ora una dipendenza da server, non solo da binari locali.
Questo è come inizia l’enshittification — non con un singolo movimento ostile, ma con una serie di piccoli spostamenti che scambiano gradualmente il controllo degli utenti per la comodità o i profitti del fornitore.
Cosa non è successo (ancora)
Per giustizia, Ollama non ha ancora superato le aree più gravi:
- Nessuna pubblicità o promozione all’interno dell’interfaccia.
- Nessun paywall aggressivo che limiti la funzionalità locale centrale.
- Nessun blocco duro intorno a formati proprietari; i modelli della comunità rimangono accessibili.
Detto questo, è necessaria vigilanza. Lo spostamento da “uno strumento che rispetta il tuo controllo” a “uno strumento che fa ciò che il fornitore vuole di default” spesso avviene gradualmente.

Conclusione
Ollama rimane uno dei modi migliori per eseguire modelli di grandi dimensioni localmente. Per vedere come Ollama si collochi tra altre opzioni locali, autohostate e in cloud per LLM, consulta il nostro LLM Hosting: Local, Self-Hosted & Cloud Infrastructure Compared.
Ma i segnali iniziali sono chiari: il comportamento di avvio automatico, l’opacità della telemetria, le regressioni delle prestazioni, i default insicuri e la deriva cloud-first di Turbo suggeriscono un lento allontanamento dall’etica originale del tool.
Per Ollama rimanere fedele alla sua promessa, i mantainer devono prioritizzare trasparenza, progettazione su richiesta e principi local-first. Altrimenti, la piattaforma rischia di compromettere i valori che l’hanno resa attraente in primo luogo. Ma non tengo il fiato.