
Reranking com modelos de embedding
Um código Python para reclassificação do RAG
Um código Python para reclassificação do RAG
Incluindo ambientes de staging e produção
Quando você criou projeto Flutter com backend AWS Amplify, o próximo passo é implantá-lo. Aqui está como implantar projeto Flutter no hospedagem AWS Amplify
AWS Amplify com suporte ao Flutter
Um quickstart - como criar projeto fullstack Flutter no AWS Amplify plataforma.
Um incrível novo modelo de IA para produzir uma imagem a partir de texto
Recentemente, a Black Forest Labs publicou um conjunto de modelos de IA de texto para imagem.
Esses modelos dizem-se ter uma qualidade de saída muito superior.
Vamos testá-los
Comparando duas ferramentas de busca por IA auto-hospedadas
Comida incrível é um prazer para os olhos também. Mas neste post, vamos comparar dois sistemas de busca baseados em IA, Farfalle e Perplexica.
Qual linguagem usar para AWS Lambda?
Podemos escrever uma função lambda para implantação na AWS em vários idiomas. Vamos comparar o desempenho de (quase vazias) funções escritas em JavaScript, Python e Golang…
Executando um serviço do tipo copilot localmente? Fácil!
Isso é muito emocionante! Em vez de chamar o copilot ou perplexity.ai e contar ao mundo inteiro o que você está buscando, agora você pode hospedar um serviço semelhante no seu próprio PC ou laptop!
Testando a detecção de falácias lógicas
Recentemente, vimos a liberação de vários novos LLMs. Tempos emocionantes. Vamos testar e ver como eles se saem ao detectar falácias lógicas.
Não há tantas opções assim, mas ainda assim...
Quando comecei a experimentar com LLMs, as interfaces deles estavam em desenvolvimento ativo e agora algumas delas são realmente boas.
Requer algum experimento, mas
Ainda assim, existem algumas abordagens comuns para escrever prompts eficazes, de modo que os LLMs não fiquem confusos ao tentar entender o que você deseja.
Sincronizar favoritos entre os laptops e navegadores?
Tentei diferentes ferramentas e cheguei à conclusão de que gosto mais do floccus.
Trechos frequentemente necessários de código Python
Às vezes preciso disso, mas não consigo encontrá-lo imediatamente.
Então, estou mantendo todos aqui.
A etiquetagem e o treinamento exigem algum colagem.
Quando eu treinei um detector de objetos AI há algum tempo - o LabelImg foi uma ferramenta muito útil, mas a exportação do Label Studio para o formato COCO não era aceita pela estrutura MMDetection..
8 versões do llama3 (Meta+) e 5 versões do phi3 (Microsoft) LLM
Testando como modelos com diferentes números de parâmetros e quantização estão se comportando.
Os arquivos do modelo LLM Ollama ocupam muito espaço.
Após instalar ollama é melhor reconfigurar ollama para armazená-los em um novo local imediatamente. Assim, após puxarmos um novo modelo, ele não será baixado para o local antigo.