AI

Auto-hébergement d'Immich : nuage photo privé

Auto-hébergement d'Immich : nuage photo privé

Vos photos sur un backup alimenté par l'IA auto-hébergé

Immich est une solution révolutionnaire, open source et auto-hébergée pour la gestion de vos photos et vidéos, vous donnant un contrôle complet sur vos souvenirs. Avec des fonctionnalités rivales de celles de Google Photos, notamment la reconnaissance faciale alimentée par l’intelligence artificielle, la recherche intelligente et le sauvegarde automatique depuis les appareils mobiles, tout en maintenant vos données privées et sécurisées sur votre propre serveur.

NVIDIA DGX Spark vs Mac Studio vs RTX-4080 : Comparaison des performances d'Ollama

NVIDIA DGX Spark vs Mac Studio vs RTX-4080 : Comparaison des performances d'Ollama

Benchmarks GPT-OSS 120b sur trois plateformes d'IA

J’ai découvert des tests de performance intéressants sur l’exécution du modèle GPT-OSS 120b avec Ollama sur trois plateformes différentes : NVIDIA DGX Spark, Mac Studio, et RTX 4080. Le modèle GPT-OSS 120b de la bibliothèque Ollama pèse 65 Go, ce qui signifie qu’il ne peut pas s’exécuter dans les 16 Go de VRAM d’un RTX 4080 (ou sur le plus récent RTX 5080).

DGX Spark face Mac Studio : analyse comparative des prix du superordinateur personnel IA de NVIDIA

DGX Spark face Mac Studio : analyse comparative des prix du superordinateur personnel IA de NVIDIA

Disponibilité, prix de vente réels dans six pays et comparaison avec le Mac Studio.

NVIDIA DGX Spark est bien réel, en vente depuis le 15 octobre 2025, et destiné aux développeurs CUDA ayant besoin de travailler localement avec des LLM grâce à une pile IA NVIDIA intégrée. Le prix de détail US est de 3 999 $ ; les prix de détail au Royaume-Uni/Allemagne/Japon sont plus élevés en raison de la TVA et des canaux de distribution. Les prix publics en AUD/KRW ne sont pas encore largement affichés.

L'Enshittification d'Ollama - Les premiers signes

L'Enshittification d'Ollama - Les premiers signes

Ma vision de l'état actuel du développement d'Ollama

Ollama est rapidement devenu l’un des outils les plus populaires pour exécuter des LLM localement. Son interface CLI simple et sa gestion des modèles optimisée l’ont rendu l’option de prédilection pour les développeurs souhaitant travailler avec des modèles d’IA en dehors du cloud.

Interfaces de chat pour les instances locales d'Ollama

Interfaces de chat pour les instances locales d'Ollama

Aperçu rapide des interfaces utilisateur les plus remarquables pour Ollama en 2025

Localement hébergé, Ollama permet d’exécuter des modèles de langage sur votre propre machine, mais son utilisation via la ligne de commande n’est pas très conviviale.
Voici plusieurs projets open source qui proposent des interfaces du style ChatGPT qui se connectent à un Ollama local.