Hardware

GNOME Boxes: Una guía completa sobre características, ventajas, desafíos y alternativas

GNOME Boxes: Una guía completa sobre características, ventajas, desafíos y alternativas

Gestión sencilla de máquinas virtuales para Linux con GNOME Boxes

En el panorama actual de la computación, la virtualización se ha convertido en esencial para el desarrollo, las pruebas y la ejecución de múltiples sistemas operativos. Para usuarios de Linux que buscan una forma sencilla e intuitiva de gestionar máquinas virtuales, GNOME Boxes destaca como una opción liviana y amigable con el usuario que prioriza la facilidad de uso sin sacrificar la funcionalidad.

DGX Spark frente a Mac Studio: Análisis de precios de la supercomputadora personal de IA de NVIDIA

DGX Spark frente a Mac Studio: Análisis de precios de la supercomputadora personal de IA de NVIDIA

Disponibilidad, precios reales en tiendas minoristas en seis países y comparación con Mac Studio.

NVIDIA DGX Spark es real, está a la venta desde el 15 de octubre de 2025 y está dirigido a desarrolladores de CUDA que necesitan trabajo de LLM local con un stack de IA de NVIDIA integrado. El precio de venta al público en EE. UU. es de $3.999; el precio minorista en el Reino Unido/Alemania/Japón es más alto debido al IVA y a los canales de distribución. Los precios públicos en AUD/KRW aún no se han publicado ampliamente.

Precios de las Nvidia RTX 5080 y RTX 5090 en Australia - junio de 2025

Precios de las Nvidia RTX 5080 y RTX 5090 en Australia - junio de 2025

Comprobación de la realidad de los precios: RTX 5080 y RTX 5090

Hace solo tres meses no veíamos RTX 5090 en las tiendas, y ahora ya están aquí, aunque los precios son ligeramente superiores al precio recomendado por el fabricante (MRSP). Compararemos los precios más bajos de RTX 5080 y RTX 5090 en Australia y veremos cómo evoluciona la situación.

Para comparar, consulte también Precios de RTX 5080 y RTX 5090 en Australia - Julio 2025, Octubre 2025 y Noviembre 2025.

Cómo Ollama maneja solicitudes en paralelo

Cómo Ollama maneja solicitudes en paralelo

Configurando ollama para la ejecución de solicitudes en paralelo.

Cuando el servidor Ollama recibe dos solicitudes al mismo tiempo, su comportamiento depende de su configuración y de los recursos del sistema disponibles.

Prueba de velocidad de modelos de lenguaje grandes

Prueba de velocidad de modelos de lenguaje grandes

Probemos la velocidad de los LLM en GPU frente a CPU

Comparando la velocidad de predicción de varias versiones de LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) en CPU y GPU.