Problemi di Output Strutturato di Ollama GPT-OSS
Non molto bello.
Ollama’s GPT-OSS models presentano frequenti problemi nel gestire l’output strutturato, specialmente quando vengono utilizzate con framework come LangChain, OpenAI SDK, vllm e altri.
Non molto bello.
Ollama’s GPT-OSS models presentano frequenti problemi nel gestire l’output strutturato, specialmente quando vengono utilizzate con framework come LangChain, OpenAI SDK, vllm e altri.
API leggermente diverse richiedono un approccio speciale.
Ecco un confronto a fianco a fianco del supporto per output strutturato (ottenere un JSON affidabile) tra i principali fornitori di LLM, più esempi minimi in Python
Un paio di modi per ottenere un output strutturato da Ollama
Modelli di grandi dimensioni (LLMs) sono potenti, ma in produzione raramente desideriamo paragrafi liberi. Invece, vogliamo dati prevedibili: attributi, fatti o oggetti strutturati che possiamo alimentare in un’app. Questo è LLM Structured Output.
Riferimento rapido a PostgreSQL
Utilizzare pandoc, python o strumenti online per la conversione in MD
Conversione di documenti Word in Markdown è un compito molto comune per gli scrittori tecnici, gli sviluppatori e i creatori di contenuti che desiderano spostare i loro contenuti su piattaforme che utilizzano Markdown (come GitHub, GitLab, generatori di siti statici come Hugo). Questa guida fa parte del nostro Strumenti per la Documentazione nel 2026: Markdown, LaTeX, PDF e Flussi di Lavoro per la Stampa hub.
Una panoramica pratica e ricca di codice sugli ORM in GO
I framework ORM più utilizzati per GO sono GORM, Ent, Bun e sqlc. Ecco un piccolo confronto tra di loro con esempi di operazioni CRUD in GO puro.
Un po' di statistiche su Jabber / XMPP ````
Jabber (ora comunemente noto come XMPP) è un protocollo di comunicazione open-source e un insieme di applicazioni client che consentono messaggistica istantanea, chiamate vocali/video, conferenze, condivisione del desktop e funzionalità di presenza per individui e organizzazioni.
MiKTeX vs TeX Live vs TinyTeX
Se si scrivono documenti tecnici, paper o libri su Windows, si sceglierà quasi certamente uno dei tre distribuzioni LaTeX per Windows 11. Questa guida fa parte del nostro Strumenti di Documentazione nel 2026: Markdown, LaTeX, PDF e Flussi di Lavoro per la Stampa hub.
Ho provato sia Kubuntu che KDE Neon; Kubuntu è più stabile.
Per i fan di KDE Plasma, due distribuzioni Linux emergono frequentemente nelle discussioni: Kubuntu e KDE Neon. Potrebbero sembrare simili: entrambe includono KDE Plasma come desktop predefinito, entrambe sono basate su Ubuntu e entrambe sono amichevoli per i nuovi utenti.
Il mio test della pianificazione del modello ollama
Ecco che confronto quanta VRAM la nuova versione di Ollama alloca per il modello rispetto alla versione precedente di Ollama. La nuova versione è peggio.
E distribuire un nuovo bot Telegram su AWS
Ecco i miei appunti con un tutorial passo dopo passo su come implementare e distribuire su AWS un bot Telegram. Ho aggiunto un quick start (long polling) e un percorso pronto per la produzione (webhooks), con esempi in Python e Node.js.
Note sulla configurazione di un indirizzo IP statico in Linux
Questo tutorial ti guiderà attraverso il processo di cambiare l’indirizzo IP statico su un server Ubuntu.
La mia opinione sull'attuale stato dello sviluppo di Ollama
Ollama ha rapidamente diventato uno degli strumenti più popolari per eseguire i modelli LLM localmente. La sua semplice CLI e la gestione semplificata dei modelli l’hanno resa un’opzione di riferimento per gli sviluppatori che desiderano lavorare con i modelli AI al di fuori del cloud.
Piattaforma alternativa di comunicazione VoIP
Mumble è un’applicazione gratuita e open source per la comunicazione vocale tramite IP (VoIP), progettata principalmente per la comunicazione vocale in tempo reale. Utilizza un’architettura client-server in cui gli utenti si connettono a un server condiviso per parlare tra loro.
Dove andare a Melbourne?
Ecco un elenco curato di conferenze, meetup e workshop relativi allo sviluppo software, al cloud computing, all’IT e all’AI, programmati a Melbourne, in Australia tra agosto 2025 e dicembre 2026.
Panoramica rapida delle interfacce utente più prominenti per Ollama nel 2025
Locally hosted Ollama consente di eseguire modelli linguistici di grandi dimensioni sul proprio computer, ma l’utilizzo tramite riga di comando non è particolarmente utente-friendly. Ecco diversi progetti open-source che forniscono interfacce simili a ChatGPT che si connettono a un Ollama locale.
Ricevi nuovi articoli su sistemi, infrastruttura e ingegneria AI.