Ollama 간편 가이드

미래 사용을 위해 일부를 컴파일해 두었습니다...

Page content

이 문서는 가장 유용한 Ollama 명령어 목록과 예시입니다 (Ollama 명령어 참고서),
저는 이전에 이를 정리했습니다.
이 문서가 여러분에게 도움이 되기를 바랍니다.

ollama cheatsheet

이 Ollama 참고서는 CLI 명령어, 모델 관리 및 커스터마이징에 초점을 맞추고 있습니다.

설치

  • 옵션 1: 웹사이트에서 다운로드
    • ollama.com에 방문하여 사용 중인 운영체제(Mac, Linux 또는 Windows)에 맞는 설치 프로그램을 다운로드합니다.
  • 옵션 2: 명령줄을 통해 설치
    • Mac 및 Linux 사용자는 다음 명령을 사용합니다:
      curl https://ollama.ai/install.sh | sh
      
    • 화면에 표시된 지시사항을 따르고, 필요 시 비밀번호를 입력합니다[3].

시스템 요구 사항

  • 운영체제: Mac 또는 Linux (Windows 버전은 개발 중)
  • 메모리 (RAM): 최소 8GB, 16GB 이상 권장
  • 저장 공간: 최소 약 10GB의 여유 공간
  • 프로세서: 최근 5년 이내의 비교적 현대적인 CPU[3].

기본 Ollama CLI 명령어

명령어 설명
ollama serve 로컬 시스템에서 Ollama를 시작합니다.
ollama create <new_model> 기존 모델에서 새로운 모델을 생성하여 커스터마이징 또는 훈련에 사용합니다.
ollama show <model> 특정 모델의 구성 및 출시일과 같은 정보를 표시합니다.
ollama run <model> 지정된 모델을 실행하여 상호작용이 가능하도록 합니다.
ollama pull <model> 지정된 모델을 시스템으로 다운로드합니다.
ollama list 다운로드된 모든 모델을 나열합니다.
ollama ps 현재 실행 중인 모델을 표시합니다.
ollama stop <model> 지정된 실행 중인 모델을 중지합니다.
ollama rm <model> 지정된 모델을 시스템에서 제거합니다.
ollama help 어떤 명령에 대한 도움을 제공합니다.

모델 관리

  • 모델 다운로드:

    ollama pull mistral-nemo:12b-instruct-2407-q6_K
    

    이 명령어는 지정된 모델(예: Gemma 2B)을 시스템으로 다운로드합니다.

  • 모델 실행:

    ollama run qwen2.5:32b-instruct-q3_K_S
    

    이 명령어는 지정된 모델을 실행하고 상호작용을 위한 인터랙티브 REPL을 열어줍니다.

  • 모델 목록 보기:

    ollama list
    

    이 명령어는 시스템에 다운로드된 모든 모델을 나열합니다.

  • 모델 중지:

    ollama stop llama3.1:8b-instruct-q8_0
    

    이 명령어는 지정된 실행 중인 모델을 중지합니다.

모델 커스터마이징

  • 시스템 프롬프트 설정: Ollama REPL 내에서 모델의 행동을 커스터마이징하기 위해 시스템 프롬프트를 설정할 수 있습니다:

    >>> /set system 모든 질문에 대해 가능한 한 기술 용어를 피하고 일반 영어로 답변하세요
    >>> /save ipe
    >>> /bye
    

    그런 다음 커스터마이징된 모델을 실행합니다:

    ollama run ipe
    

    이 명령어는 시스템 프롬프트를 설정하고 모델을 향후 사용을 위해 저장합니다.

  • 커스터마이징된 모델 파일 생성: 다음 구조를 가진 텍스트 파일(예: custom_model.txt)을 생성합니다:

    FROM llama3.1
    SYSTEM [여기서 커스터마이징된 지시사항을 입력하세요]
    

    그런 다음 다음 명령을 실행합니다:

    ollama create mymodel -f custom_model.txt
    ollama run mymodel
    

    이 명령어는 파일에 포함된 지시사항을 바탕으로 커스터마이징된 모델을 생성합니다[3].

파일과 함께 Ollama 사용

  • 파일의 텍스트 요약:

    ollama run llama3.2 "이 파일의 내용을 50단어로 요약해주세요." < input.txt
    

    이 명령어는 지정된 모델을 사용하여 input.txt의 내용을 요약합니다.

  • 모델 응답을 파일에 기록:

    ollama run llama3.2 "재생 가능한 에너지에 대해 말해주세요." > output.txt
    

    이 명령어는 모델의 응답을 output.txt에 저장합니다.

일반적인 사용 사례

  • 텍스트 생성:

    • 대규모 텍스트 파일 요약:
      ollama run llama3.2 "다음 텍스트를 요약해주세요:" < long-document.txt
      
    • 콘텐츠 생성:
      ollama run llama3.2 "의료 분야에서 AI 사용의 이점을 다룬 짧은 기사를 작성해주세요." > article.txt
      
    • 특정 질문에 답변:
      ollama run llama3.2 "AI의 최신 트렌드는 무엇이며, 이는 의료 분야에 어떤 영향을 미칠까요?"
      

    .

  • 데이터 처리 및 분석:

    • 텍스트를 긍정, 부정, 중립 감정으로 분류:
      ollama run llama3.2 "이 고객 리뷰의 감정을 분석해주세요: '제품은 훌륭하지만 배송이 느렸습니다.'"
      
    • 사전 정의된 범주로 텍스트 분류: 유사한 명령어를 사용하여 사전 정의된 기준에 따라 텍스트를 분류하거나 범주화할 수 있습니다.

Python과 함께 Ollama 사용

  • Ollama Python 라이브러리 설치:
    pip install ollama
    
  • Python을 사용한 텍스트 생성:
    import ollama
    
    response = ollama.generate(model='gemma:2b', prompt='큐비트란 무엇인가요?')
    print(response['response'])
    
    이 코드 스니펫은 지정된 모델과 프롬프트를 사용하여 텍스트를 생성합니다.

유용한 링크