
Riordinamento con modelli di embedding
Un codice Python per il rirango di RAG
Un codice Python per il rirango di RAG
Inclusione degli ambienti di staging e di produzione
Quando hai creato progetto Flutter con backend AWS Amplify, il passo successivo è deployarlo. Ecco come Deployare il progetto Flutter su AWS Amplify hosting
AWS Amplify con supporto per Flutter
Un quickstart - come creare progetto Flutter fullstack su AWS Amplify piattaforma.
Nuovo modello AI affascinante per generare un'immagine da testo
Recentemente Black Forest Labs ha pubblicato un insieme di modelli AI testo-immagine.
Questi modelli si dice che abbiano una qualità di output molto superiore.
Proviamoli
Confronto tra due motori di ricerca AI self-hosted
La buona cucina è un piacere per gli occhi. Ma in questo post compariamo due sistemi di ricerca basati sull’AI, Farfalle e Perplexica.
Quale linguaggio utilizzare per AWS Lambda?
Possiamo scrivere una funzione lambda per il deployment su AWS in diversi linguaggi. Confrontiamo le prestazioni di (quasi vuote) funzioni scritte in JavaScript, Python e Golang…
Eseguire un servizio nello stile di Copilot in locale? Facile!
Questo è molto eccitante! Invece di chiamare copilot o perplexity.ai e raccontare a tutti il mondo di cosa stai cercando, ora puoi ospitare un servizio simile sul tuo PC o laptop!
Test della rilevazione delle fallacie logiche
Recentemente abbiamo visto il rilascio di diversi nuovi LLM. Tempi eccitanti. Testiamo e vediamo come si comportano quando rilevano fallacie logiche.
Non ce ne sono così tanti da scegliere, ma comunque...
Quando ho iniziato a sperimentare con gli LLM, le interfacce utente per loro erano in fase attiva di sviluppo e ora alcune di esse sono davvero buone.
Richiede alcuni esperimenti ma
Tuttavia, esistono alcuni approcci comuni per scrivere promemoria efficaci in modo che i modelli linguistici non si confondano cercando di capire cosa si desidera da essi.
Sincronizzare i segnalibri tra i laptop e i browser?
Ho provato diversi strumenti e sono arrivato alla conclusione che preferisco floccus.
Frammenti di codice Python frequentemente necessari
A volte ne ho bisogno ma non riesco a trovarli subito.
Per questo motivo li tengo tutti qui.
Etichettatura e formazione richiedono un po' di colla.
Quando ho addestrato un rilevatore di oggetti AI qualche tempo fa - LabelImg era uno strumento molto utile, ma l’esportazione da Label Studio al formato COCO non era accettata dal framework MMDetection..
8 versioni llama3 (Meta+) e 5 versioni phi3 (Microsoft) LLM
Testando come modelli con un numero diverso di parametri e quantizzazione si comportano.
I file del modello LLM di Ollama occupano molto spazio.
Dopo l’installazione di ollama è meglio riconfigurare ollama per archiviarli in un nuovo luogo subito. In questo modo, dopo aver scaricato un nuovo modello, non verrà scaricato nella vecchia posizione.