Projects/Personal GPT 4

[Personal GPT] 개인 GPT 서버 구축

본인은 평소 OpenAI의 Chat GPT서비스를 굉장히 많이 사용하며, GPT 서비스 이용에 비용을 꽤나 지불하고 있다.그리고 여러 회사들에서 다양한 LLM 모델들이 개발되고 있으며, 이를 무료로 배포하고 있다.이러한 문제점과 상황들을 종합해본 결과, 무료로 배포 된 LMM 모델을 이용하여 Private GPT 서비스를 개발해 보고, GPT서비스를 이용해보자고 생각했다. Local LLM 모델 설치Private GPT 서비스를 위해 Local LLM 설치하는 방법에 대해 정리했다.설치 방법은 아래 글을 참고 바란다. [Personal GPT] MacOS Ollama 설치 방법최근 개인 GPT(Personal GPT)를 구축하거나, 로컬 환경에서 LLM(Large Language Model)을 사용하고 ..

[Personal GPT] Open WebUI: 로컬 LLM을 웹 인터페이스로 제공

최근 로컬 LLM(Large Language Model)을 활용하는 사람들이 늘어나면서, 모델을 더욱 편리하게 사용하기 위한 웹 인터페이스에 대한 수요도 높아지고 있다. Open WebUI는 이러한 니즈를 충족시켜주는 훌륭한 도구이다. 이 글에서는 Open WebUI를 설치하고 사용하는 방법을 자세히 안내한다.1. Open WebUI란 무엇인가?Open WebUI는 로컬 LLM을 웹 브라우저를 통해 쉽게 사용할 수 있도록 해주는 오픈소스 프로젝트이다. 복잡한 명령어를 입력하는 대신, 웹 인터페이스를 통해 모델을 실행하고 프롬프트를 입력하며, 결과를 확인할 수 있다. 다양한 모델을 지원하며, 사용자 정의 가능한 기능들을 제공한다.2. Open WebUI 설치 방법Open WebUI는 Python 환경에서 ..

[Personal GPT] MacOS Ollama 설치 방법

최근 개인 GPT(Personal GPT)를 구축하거나, 로컬 환경에서 LLM(Large Language Model)을 사용하고 싶어하는 분들이 많아지고 있다.Ollama는 이러한 니즈를 충족시켜주는 훌륭한 도구이며, Ollama를 사용하면 복잡한 설정 없이 몇 번의 명령어로 다양한 LLM을 로컬 환경에서 실행할 수 있다. 이 글에서는 MacOS 환경에서 Ollama를 설치하고 사용하는 방법을 자세히 안내하고자 한다.1. Ollama란 무엇인가?Ollama는 LLM을 로컬 환경에서 쉽게 실행하고 관리할 수 있도록 해주는 오픈소스 프레임워크이다. Docker와 유사하게 LLM을 컨테이너로 관리하며, 모델 다운로드, 실행, API 제공 등을 간편하게 처리한다. Ollama를 사용하면 다음과 같은 장점을 얻을..

[Personal GPT] 터미널 생산성을 높이는 tmux 사용법 완벽 정리

터미널에서 여러 작업을 동시에 실행하고 싶으신가요?tmux를 활용하면 하나의 터미널에서 여러 개의 세션, 창, 패널을 관리할 수 있습니다.이번 포스팅에서는 tmux의 기본적인 사용법부터 고급 기능까지 자세히 설명해 드리겠습니다.🟢tmux란?tmux는 터미널을 분할하고 여러 작업을 동시에 실행할 수 있는 터미널 멀티플렉서(Terminal Multiplexer)입니다.주요 기능은 다음과 같습니다.✅ 세션(Session) 관리 → 터미널을 종료해도 실행 중인 작업을 유지✅ 창(Window) 관리 → 여러 개의 탭을 만들고 전환✅ 패널(Pane) 관리 → 한 화면을 여러 개로 분할하여 작업✅ 멀티유저 지원 → 여러 사용자가 한 세션을 공유 가능🟢 유용한 tmux 설정기본적인 tmux 단축키를 변경하거나, 더..