Self-hosting Perplexica - con Ollama

Self-hosting Perplexica - con Ollama

Eseguire un servizio nello stile di Copilot in locale? Facile!

Questo è molto eccitante! Invece di chiamare copilot o perplexity.ai e raccontare a tutti il mondo di cosa stai cercando, ora puoi ospitare un servizio simile sul tuo PC o laptop!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Test della rilevazione delle fallacie logiche

Recentemente abbiamo visto il rilascio di diversi nuovi LLM. Tempi eccitanti. Testiamo e vediamo come si comportano quando rilevano fallacie logiche.

Frontend per LLM

Frontend per LLM

Non ce ne sono così tanti da scegliere, ma comunque...

Quando ho iniziato a sperimentare con gli LLM, le interfacce utente per loro erano in fase attiva di sviluppo e ora alcune di esse sono davvero buone.

Python Cheat Sheet

Python Cheat Sheet

Frammenti di codice Python frequentemente necessari

A volte ne ho bisogno ma non riesco a trovarli subito.
Per questo motivo li tengo tutti qui.