
LLM을 위한 효과적인 프롬프트 작성
일부 실험을 필요로 하지만
아직도 LLM이 당신이 원하는 것을 이해하려고 애를 쓰지 않도록 하기 위해 효과적인 프롬프트를 작성하는 데 사용되는 일반적인 접근 방법이 몇 가지 있습니다.
일부 실험을 필요로 하지만
아직도 LLM이 당신이 원하는 것을 이해하려고 애를 쓰지 않도록 하기 위해 효과적인 프롬프트를 작성하는 데 사용되는 일반적인 접근 방법이 몇 가지 있습니다.
레이블링 및 훈련에는 일정한 접착이 필요하다.
언제 제가 object detector AI 훈련 했을 때, LabelImg는 매우 유용한 도구였지만, Label Studio에서 COCO 형식으로 내보내는 것이 MMDetection 프레임워크에 의해 수용되지 않았습니다.
8개의 llama3 (Meta+) 및 5개의 phi3 (Microsoft) LLM 버전
다양한 파라미터 수와 양자화 방식을 사용한 모델들이 어떻게 동작하는지 테스트해보았습니다.
Ollama LLM 모델 파일은 많은 저장 공간을 차지합니다.
ollama 설치 후에는 즉시 ollama를 재구성하여 새 위치에 저장하는 것이 좋습니다.
이렇게 하면 새 모델을 끌어다 놓을 때 이전 위치에 다운로드되지 않습니다.
GPU 대 CPU에서 LLM의 속도를 테스트해 보겠습니다.
여러 버전의 LLM(llama3, phi3, gemma, mistral)이 CPU와 GPU에서 예측 속도를 비교합니다.
다양한 LLM의 논리적 오류 탐지 품질을 테스트해 보겠습니다.
여기에서 저는 여러 LLM 버전을 비교하고 있습니다: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo(Mistral AI), Qwen(Alibaba).