
Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 et Phi - Test de modèles LLM
Prochaine série de tests de LLM
Il y a peu de temps a été publié. Commençons par un point de situation et testons comment Mistral Small se compare aux autres LLM.
Prochaine série de tests de LLM
Il y a peu de temps a été publié. Commençons par un point de situation et testons comment Mistral Small se compare aux autres LLM.
Options des systèmes d'intégration
Systèmes d’intégration peuvent être commerciaux avec beaucoup de modules de connexion payants et quelques-uns gratuits ; Ou de type gratuit mais avec une licence un peu étrange ; Ou prêts à l’hébergement local et non.
YaCy est un moteur de recherche P2P auto-hébergé
YaCy est un moteur de recherche décentralisé, pair-à-pair (P2P) qui permet aux individus et aux organisations de gérer leurs propres portails de recherche ou de rejoindre un réseau mondial de pairs de recherche.
Instructions étape par étape
Comment installer Kubernetes avec Kubespray : installer Kubernetes avec Kubespray, y compris la configuration de l’environnement, la configuration de l’inventaire et l’exécution des playbooks Ansible.
Quelques commandes k8s fréquentes avec paramètres
Voici mon k8s cheat sheet
couvrant les commandes les plus importantes de Kubernetes et les concepts allant de l’installation jusqu’à l’exécution de conteneurs et au nettoyage :
Quelques paramètres de commandes Docker courants
Voici une fiche de référence Docker
couvrant les commandes les plus importantes et les concepts allant de l’installation à l’exécution de conteneurs et au nettoyage :
Un nouveau modèle d'IA incroyable capable de générer une image à partir de texte
Récemment, Black Forest Labs a publié un ensemble de
modèles d’IA texte à image.
Ces modèles sont dit avoir une qualité de sortie bien plus élevée.
Essayons-les
Comparaison de deux moteurs de recherche d'IA auto-hébergés
La bonne nourriture est aussi un plaisir pour les yeux. Mais dans cet article, nous allons comparer deux systèmes de recherche basés sur l’IA, Farfalle et Perplexica.
Exécuter localement un service du style Copilot ? Facile !
C’est très excitant !
Au lieu d’appeler Copilot ou Perplexity.ai et de tout raconter au monde,
vous pouvez maintenant héberger un service similaire sur votre propre ordinateur ou laptop !
Pas tant d'options à choisir, mais tout de même...
Quand j’ai commencé à expérimenter avec les LLM, les interfaces utilisateur pour eux étaient en développement actif, et maintenant certaines d’entre elles sont vraiment excellentes.
Test de détection des fautes de raisonnement
Récemment, nous avons vu plusieurs nouveaux LLM sortir. Des temps excitants. Testons-les et voyons comment ils se débrouillent lors de la détection des fautes logiques.
Synchroniser les signets entre les ordinateurs portables et les navigateurs ?
J’ai essayé différents outils et je suis arrivé à la conclusion que j’aime le plus floccus.
L’étiquetage et l’entraînement nécessitent un peu de collage.
Quand j’ai entraîné un détecteur d’objets AI il y a un certain temps - LabelImg était un outil très utile, mais l’exportation depuis Label Studio vers le format COCO n’était pas acceptée par le framework MMDetection..
8 versions de llama3 (Meta+) et 5 versions de phi3 (Microsoft) de modèles LLM
Testing comment sur les modèles avec un nombre différent de paramètres et la quantification.
Les fichiers de modèles LLM d'Ollama prennent beaucoup de place.
Après avoir installé ollama, il est préférable de reconfigurer ollama pour qu’il les stocke directement dans le nouveau lieu. Ainsi, après avoir tiré un nouveau modèle, il ne sera pas téléchargé vers l’ancien emplacement.