
Menulis prompt yang efektif untuk LLMs
Memerlukan beberapa eksperimen tetapi
Masih ada beberapa pendekatan umum bagaimana cara menulis prompt yang baik agar LLM tidak bingung mencoba memahami apa yang Anda inginkan darinya.
Memerlukan beberapa eksperimen tetapi
Masih ada beberapa pendekatan umum bagaimana cara menulis prompt yang baik agar LLM tidak bingung mencoba memahami apa yang Anda inginkan darinya.
Penandaan dan pelatihan membutuhkan sedikit perekatan
Ketika saya melatih detektor objek AI beberapa waktu lalu - LabelImg adalah alat yang sangat membantu, namun ekspor dari Label Studio ke format COCO tidak diterima oleh framework MMDetection..
8 versi LLM llama3 (Meta+) dan 5 versi LLM phi3 (Microsoft)
Menguji bagaimana model dengan jumlah parameter yang berbeda dan kuantisasi berperilaku.
Berkas model LLM Ollama memakan banyak ruang.
Setelah memasang ollama lebih baik mengonfigurasi ulang ollama untuk menyimpannya di lokasi baru segera. Jadi setelah kita menarik model baru, tidak akan didownload ke lokasi lama.
Mari uji kecepatan LLM pada GPU versus CPU
Membandingkan kecepatan prediksi beberapa versi LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) pada CPU dan GPU.
Mari kita uji kualitas deteksi fallasi logis dari berbagai LLM.
Di sini saya membandingkan beberapa versi LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI), dan Qwen (Alibaba).