Farfalle vs Perplexica

Porównanie dwóch samodzielnie hostowanych silników wyszukiwania AI

Page content

Świetna jedzenie to przyjemność dla oczu również. Ale w tym poście porównamy dwa systemy wyszukiwania oparte na AI, Farfalle i Perplexica.

Przy okazji, ten kształt makaronu nazywa się również “farfalle”.

Ale tutaj porównuję tylko to, jak te dwa systemy zachowują się. Nie kształty makaronu.

farfalle pasta

OK. Skup się!

Proszę zobaczyć również Instalacja i konfiguracja Perplexica - z ollama oraz Instalacja i konfiguracja Ollama.

Perplexica

Oto strona główna z rozwijanym menu wyboru źródeł.

Strona główna Perplexica

  • Perplexica jest zaimplementowana w
    • TypeScript i React.Js (UI)
    • TypeScript i Express.Js (Backend)
    • zawiera również konfigurację do silnika metawyszukiwania SearxNG
  • Ma tryb Copilot
  • Ma możliwość użycia dowolnego modelu LLM hostowanego przez Ollama jako modelu do rozmów lub modelu do wstawiania wektorów
  • Ma trzy małe wewnętrzne modele wstawiania wektorów

Farfalle

  • Farfalle jest zaimplementowana w
    • TypeScript i React.Js (UI)
    • Python Fastapi (Backend)
    • zawiera również odniesienie do silnika metawyszukiwania SearxNG. Nie ma wiele konfiguracji dla tego, dość standardowy obraz Docker.
  • Ma tryb Eksperta, który powinien przygotować kilka żądań z oryginalnego i połączyć odpowiedzi. Ale to nie działało w naszym teście.
  • Ma możliwość użycia czterech modeli LLM hostowanych przez Ollama jako modelu do rozmów (llama3, mistral, gemma, phi3). To dobre zestawienie opcji, ale chciałbym, aby było bardziej elastyczne i pozwalało używać dowolnego modelu, który Ollama obsługuje.
  • Brak opcji dla modelu wstawiania wektorów

Strona główna Farfalle

Porównanie przeprowadzone przez Perplexica i Farfalle samego

Uruchomiłem ten sam żądanie Porównaj farfalle i perplexica na podstawie odporności, społeczności, wsparcia i modeli LLM wspieranych

Oba Perplexica i Farfalle korzystały z modelu llama3 hostowanego lokalnie przez ollama. Pełna nazwa modelu to llama3 8b q4.

Nie wierzę 100% w to, co mówią odpowiedzi, tylko zobacz długość tekstu, strukturę i ogólną jakość odpowiedzi.

Wierzę w około 70%…


Odpowiedź porównania Perplexica

Porównanie Farfalle i Perplexica

Odporność

Farfalle: 8/10 - Farfalle to popularny silnik wyszukiwania AI znany z niezawodności i zdolności do obsługi złożonych zapytań. Ma silną podstawę w przetwarzaniu języka naturalnego (NLP) i uczeniu maszynowym (ML). Choć nie jest doskonały, odporność Farfalle jest dobrze ustalona.

Perplexica: 9/10 - Perplexica jest zbudowana na modelu Phi-3 firmy Meta AI, który jest zaprojektowany do odporności. Testowano go, aby dostarczał dokładnych odpowiedzi nawet wobec niejasnych lub niepewnych zapytań. Możliwość przekładania pytań i adaptacji do różnych kontekstów czyni z niego odporny silnik wyszukiwania.

Społeczność

Farfalle: 7/10 - Farfalle ma zaangażowaną społeczność użytkowników, którzy doceniają jej możliwości. Choć może nie mieć takiego samego poziomu przyjęcia jak Perplexica, społeczność użytkowników Farfalle jest nadal znacząca.

Perplexica: 8,5/10 - Perplexica zdobyła szerokie uznanie za innowacyjne podejście do silników wyszukiwania. Jej społeczność rośnie szybko, a wielu użytkowników docenia jej zdolność dostarczania dokładnych i relevantnych wyników.

Wsparcie

Farfalle: 6,5/10 - Farfalle oferuje podstawowe wsparcie poprzez FAQ, dokumentację i fora. Choć nie jest tak kompleksowe jak wsparcie Perplexica, społeczność użytkowników Farfalle jest ogólnie samodzielna.

Perplexica: 9/10 - Perplexica oferuje rozszerzone zasoby wsparcia, w tym szczegółową dokumentację, FAQ i fora społecznościowe. Jego twórcy są aktywnie zaangażowani w społeczność, zapewniając użytkownikom wdrożenie i skuteczne wsparcie w odpowiednim czasie.

Wsparcie modeli LLM

Farfalle: Nie - Farfalle to samodzielny silnik wyszukiwania AI, który nie opiera się na dużych modelach językowych (LLM) dla swoich możliwości.

Perplexica: Tak - Perplexica jest zbudowana na modelu Phi-3 firmy Meta AI, który jest LLM. To pozwala Perplexica wykorzystać moc uczenia głębokiego dla bardziej dokładnych i relevantnych wyników.

Ogólny wynik Farfalle: 22/30 Perplexica: 34,5/40

Na podstawie tych kryteriów, Perplexica wydaje się mieć lekkie przewagę nad Farfalle pod względem odporności, wsparcia społeczności i integracji z modelem LLM. Jednak oba silniki wyszukiwania mają swoje zalety, a wybór zależy w końcu od Twoich konkretnych potrzeb i preferencji.

Rekomendacja Jeśli szukasz niezawodnego silnika wyszukiwania AI z silnymi możliwościami przetwarzania języka naturalnego, Perplexica może być lepszym wyborem. Jeśli preferujesz prostszy, bez zbędnych funkcji podejście do wyszukiwania, Farfalle nadal może dostarczyć wspaniałych wyników.


Odpowiedź porównania Farfalle

Porównanie Farfalle i Perplexica

Farfalle i Perplexica to dwa silniki wyszukiwania oparte na AI, które zyskały na uwadze w ostatnim czasie. Oto porównanie tych dwóch projektów na podstawie odporności, społeczności, wsparcia i wsparcia modeli LLM (Large Language Model).

Odporność

  • Farfalle jest zaprojektowana do samodostosowania z lokalnymi lub chmurowymi modelami LLM, co czyni ją bardziej odporną opcją dla użytkowników, którzy chcą mieć kontrolę nad swoim silnikiem wyszukiwania.
  • Perplexica z kolei jest otwartym źródłem alternatywą dla Perplexity AI i stale poprawiana przez swoich twórców.

Społeczność

  • Perplexica ma zaangażowaną społeczność programistów i użytkowników, którzy przyczyniają się do jej rozwoju i dostarczają wsparcia
  • Społeczność Farfalle jest mniejsza, ale nadal ma obecność na GitHub

Wsparcie

  • Perplexica oferuje regularne aktualizacje i poprawki, a także kanał Discordowy do dyskusji poza regularnym wsparciem
  • Wsparcie Farfalle ogranicza się do problemów i propozycji zmian na GitHub

Wsparcie modeli LLM Oba Farfalle i Perplexica wspierają modele LLM. Perplexica korzysta z Ollama, lokalnego modelu LLM, podczas gdy Farfalle wspiera zarówno lokalne, jak i chmurowe modele LLM.

Podsumowując, Farfalle jest bardziej odporna dzięki swojej architekturze samodostosowania, podczas gdy Perplexica ma silniejszą społeczność i lepsze wsparcie. Oba projekty wspierają modele LLM, ale Perplexica korzysta z Ollama konkretnie.


Wnioski

Jaka jest różnica między Perplexica a Farfalle?

Odpowiedź:

  • Pomimo pewnych błędów faktualnych, oba systemy uważają, że Perplexica jest lepsza niż Farfalle, co chciałbym zaakceptować.
  • Bardzo lubię interfejs użytkownika Farfalle, choć są one dość bliskie
  • Lubię pomysł trybu eksperta Farfalle, choć nie działał w moim środowisku
  • Natknąłem się na 3 błędy podczas uruchamiania Farfalle. Kod Perplexica jest bardziej wyrafinowany
  • Po skonfigurowaniu, Perplexica działała bez żadnych błędów
  • Perplexica pozwala używać dowolnego modelu hostowanego przez Ollama. Farfalle pozwala używać tylko Gemma, Llama3, Mistral i Phi3 (przeddefiniowane wersje, które są nieco przestarzałe).
  • Lubię odpowiedzi Farfalle. Zobacz obrazek Farfalle poniżej. Prosto do rzeczy bez tych „Zgodnie z kontekstem dostarczonym”…

Więcej przykładów

Te pokazują odpowiedzi na to samo pytanie o australijskiego breakdancer. Wiesz, tego z doktorat, który zdobył 0 (Zero) punktów i prawdopodobnie wykluczył breakdancing z programu olimpijskiego.

Odpowiedź Farfalle

farfalle

Odpowiedź Perplexica

Perplexica

Jeśli przeczytasz (lub przeczytasz) ten ostatni akapit, dziękuję, że dzielisz swoimi zainteresowaniami. To naprawdę ekscytujące czasy. Mam nadzieję, że będziecie dobrze!

Przydatne linki