
Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 y Phi - Prueba de modelos LLM
Siguiente ronda de pruebas de LLM
Hace poco fue lanzado. Vamos a ponernos al día y
testeamos cómo se comporta Mistral Small en comparación con otros LLMs.
Siguiente ronda de pruebas de LLM
Hace poco fue lanzado. Vamos a ponernos al día y
testeamos cómo se comporta Mistral Small en comparación con otros LLMs.
Opciones de sistemas de integración
Sistemas de integración podrían ser comerciales con muchos módulos de conexión pagos y algunos gratuitos; O de tipo gratuito pero con una licencia un poco extraña; O listos para autohospedaje y no.
YaCy es un motor de búsqueda P2P autohospedado
YaCy es un motor de búsqueda descentralizado, de punto a punto (P2P), que permite a individuos y organizaciones ejecutar sus propias puertas de entrada de búsqueda o unirse a una red global de pares de búsqueda.
Instrucciones paso a paso
Cómo: instalar Kubernetes usando Kubespray, incluyendo la configuración del entorno, la configuración del inventario y la ejecución de los playbooks de Ansible.
Algunos comandos frecuentes de k8s con parámetros
Aquí está mi k8s cheat sheet
que cubre los comandos más importantes de Kubernetes most important commands y conceptos desde la instalación hasta la ejecución de contenedores y la limpieza:
Algunos parámetros frecuentes de comandos de Docker
Aquí está una hoja de trucos de Docker que cubre los comandos más importantes y conceptos desde la instalación hasta la ejecución de contenedores y la limpieza:
Novedoso modelo de IA para generar imágenes a partir de texto
Recientemente, Black Forest Labs publicó un conjunto de modelos de IA de texto a imagen. Estos modelos se dicen que tienen una calidad de salida mucho mayor. Probémoslos
Comparando dos motores de búsqueda de IA autohospedados
La comida deliciosa también es un placer para los ojos.
Pero en este post compararemos dos sistemas de búsqueda basados en IA, Farfalle y Perplexica.
¿Ejecutando un servicio estilo copilot localmente? ¡Fácil!
¡Eso es muy emocionante! En lugar de llamar a copilot o perplexity.ai y contarle al mundo entero qué es lo que buscas, ahora puedes alojar un servicio similar en tu propio PC o laptop.
No hay tantas opciones, pero aún así...
Cuando empecé a experimentar con LLMs, las interfaces de usuario para ellos estaban en desarrollo activo y ahora algunas de ellas son realmente buenas.
Prueba de detección de falacias lógicas
Recientemente hemos visto la liberación de varios nuevos LLMs. Tiempo emocionante. Vamos a probar y ver cómo se desempeñan al detectar falacias lógicas.
Sincronizar marcadores entre los portátiles y los navegadores?
He probado diferentes herramientas y he llegado a la conclusión de que prefiero floccus.
Etiquetar y entrenar necesita algo de pegamento
Cuando entrené un detector de objetos AI hace algún tiempo - LabelImg fue una herramienta muy útil, pero la exportación desde Label Studio a formato COCO no era aceptada por el marco MMDetection..
8 versiones de llama3 (Meta+) y 5 versiones de phi3 (Microsoft) LLM
Probando cómo se comportan los modelos con diferentes números de parámetros y cuantización.
Los archivos del modelo LLM de Ollama ocupan mucho espacio.
Después de instalar ollama, es mejor reconfigurar ollama para que los almacene en un nuevo lugar de inmediato. Así, después de que descarguemos un nuevo modelo, no se descargará en el lugar antiguo.