Auto-hébergement de Perplexica - avec Ollama

Auto-hébergement de Perplexica - avec Ollama

Exécuter un service du style Copilot localement ? Facile !

C’est très excitant !

Au lieu d’appeler Copilot ou Perplexity.ai et de tout raconter au monde, vous pouvez maintenant héberger un service similaire sur votre propre ordinateur ou laptop !

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Test de détection des fautes de raisonnement

Récemment, nous avons vu plusieurs nouveaux LLM sortir. Des temps excitants. Testons-les et voyons comment ils se débrouillent lorsqu’ils détectent les fautes logiques.

Rédiger des prompts efficaces pour les LLMs

Rédiger des prompts efficaces pour les LLMs

Exige quelques expérimentations mais

Il existe toutefois quelques approches courantes pour rédiger des prompts efficaces afin que le modèle de langage ne se confonde pas en tentant de comprendre ce que vous souhaitez.

Synchronisation des signets avec Floccus

Synchronisation des signets avec Floccus

Synchroniser les signets entre les ordinateurs portables et les navigateurs ?

J’ai essayé différents outils et je suis arrivé à la conclusion que j’aime le plus floccus.

Déplacer les modèles Ollama vers un autre emplacement

Déplacer les modèles Ollama vers un autre emplacement

Les fichiers de modèles LLM d'Ollama prennent beaucoup de place.

Après avoir installé ollama, il est préférable de reconfigurer ollama pour qu’ils soient stockés dans un nouvel emplacement dès maintenant. Ainsi, après avoir tiré un nouveau modèle, il ne sera pas téléchargé vers l’ancien emplacement.

Installer Pi-Hole - bloqueur de publicités gratuit

Installer Pi-Hole - bloqueur de publicités gratuit

C’est tellement agaçant de regarder tous ces publicités

Vous pouvez installer un plugin ou un complément de blocage de publicités dans un navigateur pour Google Chrome, Firefox ou Safari, mais vous devrez le faire sur chaque appareil.
Le bloqueur de publicités réseau est ma solution préférée.

Test de vitesse des grands modèles de langage

Test de vitesse des grands modèles de langage

Testons la vitesse des LLM sur GPU vs CPU

Comparaison de la vitesse de prédiction de plusieurs versions de LLMs : llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) sur CPU et GPU.

Détection des fautes logiques avec les LLMs

Détection des fautes logiques avec les LLMs

Testons la qualité de détection des fautes logiques de différents LLMs

Ici, je compare plusieurs versions de LLM : Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) et Qwen (Alibaba).

Menu contextuel Linux Mint Cinnamon

Menu contextuel Linux Mint Cinnamon

Parfois, vous n'avez qu'à ajouter votre élément là...

Le fait de recadrer, redimensionner et ajouter des bordures aux images pour ce blog m’a poussé à ajouter cette fonctionnalité fréquemment utilisée au menu contextuel de Linux Mint Cinnamon.

Recette de vin chaud

Recette de vin chaud

Dans la froide soirée d'hiver, c'est si réconfortant d'avoir

Je connaissais cette boisson sous le nom de « Glintwein », en anglais, on la nomme plus fréquemment Vin chaud.

Elle a une quantité assez importante d’ingrédients et un goût original. J’adore ça !

Feuille de rappel Bash Linux

Feuille de rappel Bash Linux

Quelques paramètres de ligne de commande des outils

Ce n’est pas une liste très complète, juste quelques-unes utiles pour moi