
Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 e Phi - Test con LLM
Prossima fase dei test sull'LLM
Non molto tempo fa è stato rilasciato. Andiamo a rivedere e
testa come si comporta Mistral Small rispetto ad altri LLM.
Prossima fase dei test sull'LLM
Non molto tempo fa è stato rilasciato. Andiamo a rivedere e
testa come si comporta Mistral Small rispetto ad altri LLM.
Opzioni dei sistemi di integrazione
Sistemi di integrazione potrebbero essere commerciali con molti moduli di connessione a pagamento e alcuni gratuiti; Oppure di tipo gratuito ma con licenze strane; Oppure pronti per l’hosting autonomo e non.
YaCy è un motore di ricerca P2P autoospitato
YaCy è un motore di ricerca decentralizzato, peer-to-peer (P2P) che consente agli individui e alle organizzazioni di gestire i propri portali di ricerca o di unirsi a una rete globale di peer di ricerca.
Istruzioni passo per passo
Howto: installare Kubernetes utilizzando Kubespray, inclusi l’impostazione dell’ambiente, la configurazione dell’inventario e l’esecuzione dei playbook Ansible.
Alcuni comandi k8s frequenti con parametri
Ecco il mio k8s cheat sheet che copre i comandi più importanti di Kubernetes most important commands e i concetti, dall’installazione all’esecuzione dei contenitori e alla pulizia:
Alcuni parametri comuni dei comandi docker
Ecco una Docker cheat sheet che copre i comandi più importanti e i concetti da installare fino all’esecuzione dei contenitori e alla pulizia:
Nuovo modello AI affascinante per generare un'immagine da testo
Recentemente Black Forest Labs ha pubblicato un insieme di modelli AI testo-immagine.
Questi modelli si dice che abbiano una qualità di output molto superiore.
Proviamoli
Confronto tra due motori di ricerca AI self-hosted
La buona cucina è un piacere per gli occhi. Ma in questo post compariamo due sistemi di ricerca basati sull’AI, Farfalle e Perplexica.
Eseguire un servizio nello stile di Copilot in locale? Facile!
Questo è molto eccitante! Invece di chiamare copilot o perplexity.ai e raccontare a tutti il mondo di cosa stai cercando, ora puoi ospitare un servizio simile sul tuo PC o laptop!
Non ce ne sono così tanti da scegliere, ma comunque...
Quando ho iniziato a sperimentare con gli LLM, le interfacce utente per loro erano in fase attiva di sviluppo e ora alcune di esse sono davvero buone.
Test della rilevazione delle fallacie logiche
Recentemente abbiamo visto il rilascio di diversi nuovi LLM. Tempi eccitanti. Testiamo e vediamo come si comportano quando rilevano fallacie logiche.
Sincronizzare i segnalibri tra i laptop e i browser?
Ho provato diversi strumenti e sono arrivato alla conclusione che preferisco floccus.
Etichettatura e formazione richiedono un po' di colla.
Quando ho addestrato un rilevatore di oggetti AI qualche tempo fa - LabelImg era uno strumento molto utile, ma l’esportazione da Label Studio al formato COCO non era accettata dal framework MMDetection..
8 versioni llama3 (Meta+) e 5 versioni phi3 (Microsoft) LLM
Testando come modelli con un numero diverso di parametri e quantizzazione si comportano.
I file del modello LLM di Ollama occupano molto spazio.
Dopo l’installazione di ollama è meglio riconfigurare ollama per archiviarli in un nuovo luogo subito. In questo modo, dopo aver scaricato un nuovo modello, non verrà scaricato nella vecchia posizione.