Applications de surveillance du GPU sous Linux / Ubuntu
Petite liste d'applications pour le suivi de la charge du GPU
Applications de surveillance de la charge du GPU :
nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Petite liste d'applications pour le suivi de la charge du GPU
Applications de surveillance de la charge du GPU :
nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Installer little k3s Kubernetes sur un cluster homelab
Voici un walkthrough étape par étape de
l’installation d’un cluster K3s à 3 nœuds
sur des serveurs physiques (1 maître + 2 travailleurs).
Aperçu très court des variantes de Kubernetes
Comparaison des distributions de self-hosting Kubernetes pour l’hébergement sur serveurs physiques ou serveurs domestiques, en se concentrant sur la facilité d’installation, les performances, les exigences système et les ensembles de fonctionnalités.
Choisir la meilleure version de Kubernetes pour notre homelab
Je compare les variantes de Kubernetes auto-hébergées que l’on peut utiliser dans un homelab basé sur Ubuntu avec 3 nœuds (16 Go de RAM, 4 cœurs chacun), en mettant l’accent sur la facilité d’installation et de maintenance, ainsi que le support des volumes persistants et des LoadBalancers.
Un aperçu des actions GitHub courantes et de leur structure.
GitHub Actions est une plateforme d’automatisation et de CI/CD intégrée à GitHub, utilisée pour construire, tester et déployer votre code en fonction d’événements tels que des pushes, des pull requests, ou selon un calendrier.
Par ailleurs, docker-compose est différent de docker compose...
Voici un fichier d’astuces Docker Compose avec des exemples annotés pour vous aider à maîtriser rapidement les fichiers et les commandes Compose.
À propos d'Obsidian ...
Voici une analyse détaillée de
Obsidian en tant qu’outil puissant pour la gestion de la connaissance personnelle (GCP),
expliquant son architecture, ses fonctionnalités, ses forces et la manière dont il soutient les workflows modernes de gestion de la connaissance.
En juillet 2025, cela devrait bientôt être disponible.
Nvidia s’apprête à publier NVIDIA DGX Spark - un petit supercalculateur IA basé sur l’architecture Blackwell, doté de plus de 128 Go de mémoire unifiée et d’une performance IA de 1 PFLOPS. Un appareil idéal pour exécuter des LLM.
Quels systèmes d'analyse web utiliser sur votre site web ?
Faisons un rapide aperçu de
Matomo, Plausible, Google et autres fournisseurs et systèmes d’analyse web
disponibles pour le déploiement en auto-hébergement et les comparons.
Notes sur la séquence d'installation standard d'Ubuntu 24.04
Voici ma préférée série d’étapes lors d’une installation fraîche d’Ubuntu 24.04. Ce que j’aime ici, c’est qu’il n’est pas nécessaire d’installer les pilotes NVidia ! Ils sont installés automagiquement.
J'utilisais Dokuwiki en tant que base de connaissances personnelle.
Dokuwiki est un wiki autohébergé qui peut être hébergé facilement sur site et ne nécessite aucun système de base de données. Je le faisais fonctionner en version conteneurisée, sur mon propre cluster Kubernetes.
Mise à jour des prix de GPU adaptés à l'IA - RTX 5080 et RTX 5090
Comparons les prix des GPU grand public de première ligne, particulièrement adaptés aux LLM et à l’IA en général.
Examinons plus particulièrement les prix des RTX 5080 et RTX 5090. Ils ont légèrement baissé.
Belle framework pour ETS/MLOPS avec Python
Apache Airflow est une plateforme open source conçue pour créer, planifier et surveiller des workflows de manière programmée, entièrement en code Python, offrant une alternative flexible et puissante aux outils traditionnels, manuels ou basés sur une interface graphique.
Mise en œuvre de RAG ? Voici quelques extraits de code Go – 2...
Puisque la version standard d’Ollama ne possède pas d’API de reranking directe, vous devrez implémenter le reranking en utilisant Qwen3 Reranker en GO en générant des embeddings pour les paires requête-document et en les notant.
qwen3 8b, 14b et 30b, devstral 24b, mistral small 24b
Dans ce test, je suis en train de comparer comment différents LLMs hébergés sur Ollama traduisent une page Hugo en anglais vers l’allemand.
Mettez en œuvre RAG ? Voici quelques extraits de code en Golang..
Cet exemple de code Go pour le reranking appelle Ollama pour générer des embeddings pour la requête et pour chaque document candidat, puis les trie de manière décroissante selon la similarité cosinus.