SelfHosting

Tworzenie umiejętności agenta Hermes — struktura pliku SKILL.md i najlepsze praktyki

Tworzenie umiejętności agenta Hermes — struktura pliku SKILL.md i najlepsze praktyki

Autor Hermes oferuje umiejętności, które ładują się szybko i działają niezawodnie

Hermes Agent traktuje umiejętności (skills) jako domyślny sposób nauczania powtarzalnych procesów. Oficjalna dokumentacja opisuje je jako dokumenty wiedzy dostępne na żądanie, zgodne z otwartym schematem agentskills.io, ładowanymi poprzez stopniową ekspozycję (progressive disclosure), dzięki czemu model widzi najpierw mały indeks i pobiera pełne instrukcje dopiero wtedy, gdy zadanie ich faktycznie wymaga.

Pamięć systemów AI — trwała wiedza i pamięć agentów

Pamięć systemów AI — trwała wiedza i pamięć agentów

Trwała wiedza wykraczająca poza pojedynczą rozmowę.

Ten rozdział zbiera przewodniki dotyczące trwałej wiedzy i pamięci dla systemów AI — jak asystenci utrzymują fakty, preferencje i skondensowany kontekst między sesjami, bez wciskania każdego tokenu do jednego promptu. Tutaj „pamięć” oznacza świadome utrwalanie (faktów dotyczących użytkownika, streszczeń, baz danych wspieranych przez wtyczki), a nie pamięć GPU czy wag modelu.

Porównanie Agent Memory Providers — Honcho, Mem0, Hindsight oraz pięć innych rozwiązań

Porównanie Agent Memory Providers — Honcho, Mem0, Hindsight oraz pięć innych rozwiązań

Osiem wymiennych backendów dla trwałej pamięci agenta.

Nowoczesni asystenci wciąż zapominają wszystko po zamknięciu karty, chyba że coś zachowuje trwałość poza oknem kontekstowym. Dostawcy pamięci agentów (Agent memory providers) to usługi lub biblioteki, które przechowują fakty i podsumowania pomiędzy sesjami — często integrowane jako wtyczki (plugins), dzięki czemu framework pozostaje lekki, podczas gdy pamięć jest skalowalna.

System Hermes Agent Memory: Jak w rzeczywistości działa trwała pamięć AI

System Hermes Agent Memory: Jak w rzeczywistości działa trwała pamięć AI

Pamięć to różnica między narzędziem a partnerem.

Znasz to. Otwierasz czat z agentem AI, wyjaśniasz swój projekt, dzielisz się preferencjami, wykonujesz jakąś pracę i zamykasz kartę. Wracasz tydzień później i czujesz się, jakbyś rozmawiał z nieznajomym — cały kontekst zniknął, każda preferencja została zapomniana, a projekt trzeba tłumaczyć od nowa.

Szybki start z Vane (Perplexica 2.0), Ollama i llama.cpp

Szybki start z Vane (Perplexica 2.0), Ollama i llama.cpp

Własne wyszukiwanie AI z lokalnymi modelami językowymi (LLM)

Vane to jedna z bardziej praktycznych pozycji w przestrzeni „AI z wyszukiwaniem i cytowaniami": samodzielnie hostowana silnia odpowiedziowa, która łąży pobieranie danych z sieci w czasie rzeczywistym z lokalnymi lub chmurowymi modelami LLM, zachowując jednocześnie pełną kontrolę nad całą infrastrukturą.