LLM

Farfalle vs Perplexica

Farfalle vs Perplexica

Membandingkan dua mesin pencari AI self-hosted

Makanan yang luar biasa juga memberikan kesenangan bagi mata Anda. Namun, dalam posting ini kita akan membandingkan dua sistem pencarian berbasis AI, Farfalle dan Perplexica.

Self-hosting Perplexica - dengan Ollama

Self-hosting Perplexica - dengan Ollama

Menjalankan layanan gaya copilot secara lokal? Mudah!

Itu sangat menarik! Alih-alih memanggil copilot atau perplexity.ai dan memberi tahu seluruh dunia apa yang Anda cari, sekarang Anda dapat menjalankan layanan serupa di PC atau laptop Anda sendiri!

Frontend LLM

Frontend LLM

Tidak terlalu banyak pilihan, tetapi tetap....

Saat saya mulai bereksperimen dengan LLM, UI-nya sedang dalam pengembangan aktif dan sekarang beberapa dari mereka benar-benar bagus.

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Menguji deteksi kesalahan logika

Baru-baru ini kita melihat beberapa LLM baru yang dirilis. Masa yang menarik. Mari kita uji dan lihat bagaimana mereka berperforma saat mendeteksi fallasi logis.

Menulis prompt yang efektif untuk LLMs

Menulis prompt yang efektif untuk LLMs

Memerlukan beberapa eksperimen tetapi

Masih ada beberapa pendekatan umum bagaimana cara menulis prompt yang baik agar LLM tidak bingung mencoba memahami apa yang Anda inginkan darinya.

Uji Kecepatan Model Bahasa Besar

Uji Kecepatan Model Bahasa Besar

Mari uji kecepatan LLM pada GPU versus CPU

Membandingkan kecepatan prediksi beberapa versi LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) pada CPU dan GPU.

Deteksi Kesalahan Logis dengan LLMs

Deteksi Kesalahan Logis dengan LLMs

Mari kita uji kualitas deteksi fallasi logis dari berbagai LLM.

Di sini saya membandingkan beberapa versi LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI), dan Qwen (Alibaba).