Projects/Personal GPT

[Personal GPT] MacOS Ollama 설치 방법

Chuuu_DevCamp:) 2025. 6. 16. 22:45
반응형

최근 개인 GPT(Personal GPT)를 구축하거나, 로컬 환경에서 LLM(Large Language Model)을 사용하고 싶어하는 분들이 많아지고 있다.

Ollama는 이러한 니즈를 충족시켜주는 훌륭한 도구이며, Ollama를 사용하면 복잡한 설정 없이 몇 번의 명령어로 다양한 LLM을 로컬 환경에서 실행할 수 있다. 이 글에서는 MacOS 환경에서 Ollama를 설치하고 사용하는 방법을 자세히 안내하고자 한다.

1. Ollama란 무엇인가?

Ollama는 LLM을 로컬 환경에서 쉽게 실행하고 관리할 수 있도록 해주는 오픈소스 프레임워크이다. Docker와 유사하게 LLM을 컨테이너로 관리하며, 모델 다운로드, 실행, API 제공 등을 간편하게 처리한다. Ollama를 사용하면 다음과 같은 장점을 얻을 수 있다.

  • 간편한 설치 및 사용: 복잡한 설정 없이 몇 번의 명령어로 LLM을 실행할 수 있다.
  • 다양한 모델 지원: Llama 2, Mistral, Falcon 등 다양한 모델을 지원한다.
  • 로컬 환경 실행: 인터넷 연결 없이도 LLM을 사용할 수 있다.
  • 개인 정보 보호: 데이터가 로컬에 저장되므로 개인 정보 보호에 유리하다.

2. MacOS Ollama 설치 방법

Ollama 설치는 매우 간단하다.

  • Homebrew 설치 확인: Homebrew는 MacOS 패키지 관리자이다. 터미널을 열고 다음 명령어를 실행하여 Homebrew가 설치되어 있는지 확인하자.
brew --version

만약 설치되어 있지 않다면, 다음 명령어를 사용하여 Homebrew를 설치하자.

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  • Ollama 설치: Homebrew를 사용하여 Ollama를 설치한다.
brew install ollama
  • Ollama 실행: 설치가 완료되면 다음 명령어를 실행하여 Ollama를 실행한다.
ollama serve

Ollama가 백그라운드에서 실행되며, 터미널에 로그 메시지가 표시된다. 이 메시지는 Ollama가 정상적으로 실행되고 있는지 확인하는 데 도움이 된다.

3. Ollama 사용 방법

Ollama가 실행되면 이제 LLM을 다운로드하고 사용할 수 있다.

  • 모델 다운로드: ollama pull 명령어를 사용하여 원하는 모델을 다운로드한다. 예를 들어, Llama 2 7B 모델을 다운로드하려면 다음 명령어를 실행한다.
ollama pull llama2

다운로드되는 모델의 크기에 따라 시간이 다소 소요될 수 있다.

  • 모델 실행: ollama run 명령어를 사용하여 다운로드한 모델을 실행한다. 예를 들어, Llama 2 7B 모델을 실행하려면 다음 명령어를 실행할 수 있다.
ollama run llama2

모델이 실행되면 프롬프트가 표시된다. 프롬프트에 질문이나 명령어를 입력하고 Enter 키를 누르면 모델이 응답을 생성한다.

  • 모델 설정 변경: ollama run 명령어에 다양한 옵션을 추가하여 모델 설정을 변경할 수 있다. 예를 들어, 모델의 최대 토큰 수를 제한하거나, 시스템 프롬프트를 변경할 수 있다. 자세한 내용은 Ollama 공식 문서를 참조 부탁드린다.

4. Ollama 고급 사용법

  • API 서버 실행: Ollama는 API 서버를 제공하여 다른 애플리케이션에서 LLM을 사용할 수 있도록 한다. ollama serve --host 0.0.0.0 명령어를 사용하여 API 서버를 실행할 수 있다.
  • 모델 공유: Ollama는 모델을 공유하는 기능을 제공한다. ollama share 명령어를 사용하여 모델을 공유할 수 있다. (이 기능은 안써봐서 정확히 모르겠다.)
  • 모델 관리: ollama list 명령어를 사용하여 다운로드한 모델 목록을 확인하고, ollama rm 명령어를 사용하여 모델을 삭제할 수 있다.

Ollama는 MacOS 환경에서 LLM을 쉽게 사용할 수 있도록 해주는 강력한 도구이다.

이 글에서 안내한 설치 및 사용 방법을 따라 Ollama를 설치하고 사용해보며 많은 도움이 되길 바란다.