
Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 e Phi - Teste de LLM
Próxima rodada de testes de LLM
Não há muito tempo foi lançado. Vamos nos atualizar e
teste como o Mistral Small se compara a outros LLMs.
Próxima rodada de testes de LLM
Não há muito tempo foi lançado. Vamos nos atualizar e
teste como o Mistral Small se compara a outros LLMs.
Opções de sistemas de integração
Sistemas de integração podem ser comerciais com muitos módulos de conexão pagos e alguns gratuitos; Ou do tipo gratuito, mas com licenças um pouco estranhas; Ou prontos para auto-hospedagem e não.
YaCy é um motor de busca P2P auto-hospedado
YaCy é um motor de busca descentralizado, peer-to-peer (P2P), que permite que indivíduos e organizações executem seus próprios portais de busca ou participem de uma rede global de pares de busca.
Instruções passo a passo
Como instalar o Kubernetes usando o Kubespray](https://www.glukhov.org/pt/post/2024/10/install-k8s-with-kubespray/ “instalar o Kubernetes usando o Kubespray”), incluindo a configuração do ambiente, a configuração do inventário e a execução dos playbooks do Ansible.
Alguns comandos frequentes do k8s com parâmetros
Aqui está o meu k8s cheat sheet
cobrindo os comandos mais importantes do Kubernetes most important commands e conceitos desde a instalação até a execução de containers e limpeza:
Alguns parâmetros comuns de comandos do Docker
Aqui está uma folha de dicas do Docker que abrange os comandos mais importantes e conceitos desde a instalação até a execução de contêineres e limpeza:
Um incrível novo modelo de IA para produzir uma imagem a partir de texto
Recentemente, a Black Forest Labs publicou um conjunto de modelos de IA de texto para imagem.
Esses modelos dizem-se ter uma qualidade de saída muito superior.
Vamos testá-los
Comparando duas ferramentas de busca por IA auto-hospedadas
Comida incrível é um prazer para os olhos também. Mas neste post, vamos comparar dois sistemas de busca baseados em IA, Farfalle e Perplexica.
Executando um serviço do tipo copilot localmente? Fácil!
Isso é muito emocionante! Em vez de chamar o copilot ou perplexity.ai e contar ao mundo inteiro o que você está buscando, agora você pode hospedar um serviço semelhante no seu próprio PC ou laptop!
Não há tantas opções assim, mas ainda assim...
Quando comecei a experimentar com LLMs, as interfaces deles estavam em desenvolvimento ativo e agora algumas delas são realmente boas.
Testando a detecção de falácias lógicas
Recentemente, vimos a liberação de vários novos LLMs. Tempos emocionantes. Vamos testar e ver como eles se saem ao detectar falácias lógicas.
Sincronizar favoritos entre os laptops e navegadores?
Tentei diferentes ferramentas e cheguei à conclusão de que gosto mais do floccus.
A etiquetagem e o treinamento exigem algum colagem.
Quando eu treinei um detector de objetos AI há algum tempo - o LabelImg foi uma ferramenta muito útil, mas a exportação do Label Studio para o formato COCO não era aceita pela estrutura MMDetection..
8 versões do llama3 (Meta+) e 5 versões do phi3 (Microsoft) LLM
Testando como modelos com diferentes números de parâmetros e quantização estão se comportando.
Os arquivos do modelo LLM Ollama ocupam muito espaço.
Após instalar ollama é melhor reconfigurar ollama para armazená-los em um novo local imediatamente. Assim, após puxarmos um novo modelo, ele não será baixado para o local antigo.