Construyendo un BFF de GraphQL con Apollo Server
Optimice las APIs del frontend con GraphQL BFF y Apollo Server
El patrón Backend for Frontend (BFF) combinado con GraphQL y Apollo Server crea una arquitectura poderosa para aplicaciones web modernas.
Optimice las APIs del frontend con GraphQL BFF y Apollo Server
El patrón Backend for Frontend (BFF) combinado con GraphQL y Apollo Server crea una arquitectura poderosa para aplicaciones web modernas.
Controla tus datos con el almacenamiento en la nube Nextcloud autohospedado
Nextcloud es la plataforma líder de almacenamiento en la nube y colaboración de código abierto y autohospedada que te da el control total de tus datos.
dos poderosos sistemas de gestión del conocimiento
Elegir la herramienta adecuada de Gestión del Conocimiento Personal (PKM) puede tener un impacto significativo en tu productividad, aprendizaje y organización de la información. Vamos a echar un vistazo a Obsidian y LogSeq.
Sus fotos en la copia de seguridad impulsada por IA alojada en su propio servidor
Immich es una solución revolucionaria de código abierto y autohospedada para la gestión de fotos y videos que te da el control total sobre tus recuerdos. Con características que rivalizan con Google Photos, incluyendo reconocimiento facial impulsado por inteligencia artificial, búsqueda inteligente y copia de seguridad automática desde dispositivos móviles, todo mientras mantienes tus datos privados y seguros en tu propio servidor.
Comandos de Elasticsearch para búsqueda, indexación y análisis
Elasticsearch es un potente motor de búsqueda y análisis distribuido construido sobre Apache Lucene. Este completo resumen de comandos cubre comandos esenciales, mejores prácticas y referencias rápidas para trabajar con clústeres de Elasticsearch.
Resultados de benchmarks de GPT-OSS 120b en tres plataformas de IA
Investigué algunos interesantes tests de rendimiento del modelo GPT-OSS 120b ejecutándose en Ollama en tres plataformas diferentes: NVIDIA DGX Spark, Mac Studio y RTX 4080. El modelo GPT-OSS 120b del repositorio Ollama tiene un tamaño de 65 GB, lo que significa que no cabe en los 16 GB de VRAM de una RTX 4080 (ni en la más reciente RTX 5080).
Pruebas en Python con pytest, TDD, mocking y coverage
La prueba unitaria asegura que tu código en Python funcione correctamente y continúe funcionando a medida que evolucione tu proyecto. Esta guía completa cubre todo lo que necesitas saber sobre pruebas unitarias en Python, desde conceptos básicos hasta técnicas avanzadas.
Construya servidores MCP para asistentes de IA con ejemplos en Python
El Protocolo de Contexto del Modelo (MCP) está revolucionando la forma en que los asistentes de IA interactúan con fuentes de datos externas y herramientas. En esta guía, exploraremos cómo construir servidores MCP en Python, con ejemplos centrados en las capacidades de búsqueda en la web y raspado.
Atajos de teclado de Ubuntu -> tu productividad
Los atajos de teclado de Ubuntu son herramientas esenciales para maximizar la productividad y la eficiencia. Ya seas un desarrollador, administrador de sistemas o usuario avanzado, estos atajos pueden acelerar tu flujo de trabajo y reducir la dependencia del ratón.
Python para convertir HTML en Markdown limpio y listo para LLM
Convertir HTML a Markdown es una tarea fundamental en los flujos de trabajo de desarrollo modernos, especialmente cuando se prepara contenido web para Modelos de Lenguaje Grande (LLMs), sistemas de documentación o generadores de sitios estáticos como Hugo.
Referencia rápida para comandos de Docker Model Runner
Docker Model Runner (DMR) es la solución oficial de Docker para ejecutar modelos de IA localmente, introducida en abril de 2025. Esta guía rápida proporciona una referencia rápida para todos los comandos esenciales, configuraciones y mejores prácticas.
Compare Docker Model Runner y Ollama para LLM local
Running large language models (LLMs) locally ha ganado popularidad en los últimos tiempos por razones de privacidad, control de costos y capacidades fuera de línea. El panorama cambió significativamente en abril de 2025 cuando Docker introdujo Docker Model Runner (DMR), su solución oficial para la implementación de modelos de IA.
Implementar un service mesh listo para producción - Istio vs Linkerd
Descubre cómo implementar y optimizar arquitecturas de malla de servicios utilizando Istio y Linkerd. Esta guía cubre estrategias de implementación, comparaciones de rendimiento, configuraciones de seguridad y mejores prácticas para entornos de producción.
Gestión sencilla de máquinas virtuales para Linux con GNOME Boxes
En el panorama actual de la computación, la virtualización se ha convertido en esencial para el desarrollo, las pruebas y la ejecución de múltiples sistemas operativos. Para usuarios de Linux que buscan una forma sencilla e intuitiva de gestionar máquinas virtuales, GNOME Boxes destaca como una opción liviana y amigable con el usuario que prioriza la facilidad de uso sin sacrificar la funcionalidad.
Protocolo social descentralizado con más de 21K usuarios que está redefiniendo la privacidad en línea
Aquí tenemos Nostr - el protocolo social descentralizado que está desafiando la dominancia de Big Tech con comunicación resistente a la censura y datos controlados por el usuario.
Instalación, configuración y comandos esenciales en múltiples pasos
Multipass es un administrador ligero de máquinas virtuales que facilita la creación y gestión de instancias en la nube de Ubuntu en Linux, Windows y macOS.