2025/06 3

[Personal GPT] 개인 GPT 서버 구축

본인은 평소 OpenAI의 Chat GPT서비스를 굉장히 많이 사용하며, GPT 서비스 이용에 비용을 꽤나 지불하고 있다.그리고 여러 회사들에서 다양한 LLM 모델들이 개발되고 있으며, 이를 무료로 배포하고 있다.이러한 문제점과 상황들을 종합해본 결과, 무료로 배포 된 LMM 모델을 이용하여 Private GPT 서비스를 개발해 보고, GPT서비스를 이용해보자고 생각했다. Local LLM 모델 설치Private GPT 서비스를 위해 Local LLM 설치하는 방법에 대해 정리했다.설치 방법은 아래 글을 참고 바란다. [Personal GPT] MacOS Ollama 설치 방법최근 개인 GPT(Personal GPT)를 구축하거나, 로컬 환경에서 LLM(Large Language Model)을 사용하고 ..

[Personal GPT] Open WebUI: 로컬 LLM을 웹 인터페이스로 제공

최근 로컬 LLM(Large Language Model)을 활용하는 사람들이 늘어나면서, 모델을 더욱 편리하게 사용하기 위한 웹 인터페이스에 대한 수요도 높아지고 있다. Open WebUI는 이러한 니즈를 충족시켜주는 훌륭한 도구이다. 이 글에서는 Open WebUI를 설치하고 사용하는 방법을 자세히 안내한다.1. Open WebUI란 무엇인가?Open WebUI는 로컬 LLM을 웹 브라우저를 통해 쉽게 사용할 수 있도록 해주는 오픈소스 프로젝트이다. 복잡한 명령어를 입력하는 대신, 웹 인터페이스를 통해 모델을 실행하고 프롬프트를 입력하며, 결과를 확인할 수 있다. 다양한 모델을 지원하며, 사용자 정의 가능한 기능들을 제공한다.2. Open WebUI 설치 방법Open WebUI는 Python 환경에서 ..

[Personal GPT] MacOS Ollama 설치 방법

최근 개인 GPT(Personal GPT)를 구축하거나, 로컬 환경에서 LLM(Large Language Model)을 사용하고 싶어하는 분들이 많아지고 있다.Ollama는 이러한 니즈를 충족시켜주는 훌륭한 도구이며, Ollama를 사용하면 복잡한 설정 없이 몇 번의 명령어로 다양한 LLM을 로컬 환경에서 실행할 수 있다. 이 글에서는 MacOS 환경에서 Ollama를 설치하고 사용하는 방법을 자세히 안내하고자 한다.1. Ollama란 무엇인가?Ollama는 LLM을 로컬 환경에서 쉽게 실행하고 관리할 수 있도록 해주는 오픈소스 프레임워크이다. Docker와 유사하게 LLM을 컨테이너로 관리하며, 모델 다운로드, 실행, API 제공 등을 간편하게 처리한다. Ollama를 사용하면 다음과 같은 장점을 얻을..