RAG

Konwersja HTML na Markdown za pomocą Pythona: Kompletny przewodnik

Konwersja HTML na Markdown za pomocą Pythona: Kompletny przewodnik

Python do konwersji HTML na czysty, gotowy do przetwarzania przez LLM Markdown

Konwersja HTML na Markdown to fundamentalna czynność w nowoczesnych przepływach pracy programistycznych, szczególnie przygotowując treści sieciowe do Large Language Models (LLM), systemów dokumentacji lub generatorów stron statycznych takich jak Hugo. Niniejszy przewodnik jest częścią naszego Narzędzi do Dokumentacji w 2026: Markdown, LaTeX, PDF i Pracy z Drukowaniem.

Modele Qwen3 Embedding i Reranker na Ollama: osiągnięcia stanowiące stan techniki

Modele Qwen3 Embedding i Reranker na Ollama: osiągnięcia stanowiące stan techniki

Nowe, imponujące modele LLM dostępne w Ollama

Modele Qwen3 Embedding i Reranker (https://www.glukhov.org/pl/rag/embeddings/qwen3-embedding-qwen3-reranker-on-ollama/ “Modele Qwen3 Embedding i Reranker na platformie ollama”) to najnowsze wydania z rodziny Qwen, zaprojektowane specjalnie do zaawansowanych zadań związanych z tworzeniem wektorów tekstu (embedding), odnajdywaniem informacji (retrieval) oraz ponownym ocenianiem wyników (reranking).

Alternatywy do Beautiful Soup dla Go

Alternatywy do Beautiful Soup dla Go

Kontynuując temat wyciągania danych z html

  • Dla bezpośredniego odpowiednika Beautiful Soup w Go użyj soup.
  • Dla obsługi selektorów CSS rozważ goquery.
  • Dla zapytań XPath użyj htmlquery.
  • Dla innego rozwiązania inspirowanego Beautiful Soup, spojrz na Node.

Jeśli szukasz odpowiednika Beautiful Soup w Go, kilka bibliotek oferuje podobną funkcjonalność parsowania i skrapowania HTML:

Dostawcy LLM w chmurze

Dostawcy LLM w chmurze

Krótki wykaz dostawców LLM

Użycie modeli językowych dużych (LLM) nie jest bardzo drogie, może nie być potrzeby zakupu nowego, wspaniałego GPU.
Oto lista, jeśli dostawcy LLM w chmurze z LLM, które hostują.

Jak Ollama Obsługuje Wątki Równoległe

Jak Ollama Obsługuje Wątki Równoległe

Konfiguracja ollama do wykonywania równoległych żądań.

Gdy serwer Ollama otrzymuje dwa żądania jednocześnie, jego zachowanie zależy od konfiguracji i dostępnych zasobów systemowych.

Testowanie Deepseek-R1 na Ollama

Testowanie Deepseek-R1 na Ollama

Porównanie dwóch modeli deepseek-r1 z dwoma modelami bazowymi

Modeli DeepSeek pierwszego pokolenia z wydajnością porównywalną do modeli OpenAI-o1, w tym sześć gęstych modeli oddestylowanych z DeepSeek-R1 opartych na Llama i Qwen.