Ollama

Como o Ollama lida com solicitações paralelas

Como o Ollama lida com solicitações paralelas

Configurando ollama para execução de solicitações em paralelo.

Quando o servidor Ollama recebe duas solicitações ao mesmo tempo, seu comportamento depende da sua configuração e dos recursos do sistema disponíveis.

Farfalle vs Perplexica

Farfalle vs Perplexica

Comparando duas ferramentas de busca por IA auto-hospedadas

Comida incrível é um prazer para os olhos também. Mas neste post, vamos comparar dois sistemas de busca baseados em IA, Farfalle e Perplexica.

Auto-hospedagem do Perplexica - com Ollama

Auto-hospedagem do Perplexica - com Ollama

Executando um serviço do tipo copilot localmente? Fácil!

Isso é muito emocionante! Em vez de chamar o copilot ou perplexity.ai e contar ao mundo inteiro o que você está buscando, agora você pode hospedar um serviço semelhante no seu próprio PC ou laptop!