지난 포스팅에서 Deepseek-R1 을 Local에서 실행하는 방법(LINK)을 알려줬는데요, 이번에는 LLM model을 쉽고 간편하게 관리하는 방법을 알려드릴게요. ollama만으로는 기존 채팅 이력을 찾기도 힘들고, 모델을 관리하기도 힘들 거에요. 기존 채팅 이력이나, 모델을 관리하는 데는 OpenWebUI 라는 프로그램을 쓰면 아주 편리하답니다. 설치하는 방법은 어렵지 않습니다. 아래 방법대로 따라오세요!
STEP 1. Docker 설치
Docker 사이트(LINK)에 접속해서, 'Download Docker Desktop'을 클릭하고, 운영체제에 맞는 설치 파일을 다운로드하고 설치해 주세요.

아래처럼 Docker 프로그램이 실행되면 정상적으로 설치된 것입니다. 저는 open-webui까지 미리 세팅해 놓아서 Containters에 보이는데 원래는 아무것도 없는 것이 정상입니다.

STEP 2. OpenWebUI 설치하기
github 페이지를 통해서 OpenWebUI를 설치할 겁니다. 이 LINK에서 밑으로 쭉 내려가면 아래처럼 Installation 방법이 있는데 저희는 ollama가 설치되어 있기 때문에 첫 번째 방법으로 진행할 겁니다. 오른쪽의 복사 버튼을 누르시고, 명령 프롬프트를 열어서 복사한 code를 붙여 넣고 실행해주세요.

이후에 자동으로 설치가 진행될 텐데, 저는 이미 설치를 진행했기 때문에, 아래 화면처럼 나오네요. 처음 설치하신다면 완료될 때 까지 기다려 주시면 됩니다.

STEP 3. OpenWebUI 실행하기
다시 docker로 되돌아가면 아래처럼 Containers에 OpenWebUI가 생겼을 텐데 Port에서 '3000:8080'을 클릭하면 아래처럼 새로운 브라우저 창이 뜨면서 OpenWebUI가 실행됩니다.

이제 끝이 다 왔습니다. 새로운 페이지가 뜨면 회원가입도 해주시고, 로그인까지 하면 ChatGPT와 매우 유사한 인터페이스가 보입니다. 실제 사용 방법도 유사합니다. 왼쪽에선 기존 채팅 이력을 볼 수 있고, 위쪽에서는 LLM model을 선택하고, 가운데에서 채팅을 진행하면 됩니다. 테스트로 deepseek-r1(14b)와 대화를 나눠봤는데 정상적으로 실행되네요.

FINAL. 마무리
사용하면서 느낀 거지만 local로 LLM을 돌리기 위해선 컴퓨터 사양이 매우 중요한 것 같습니다. 제 컴퓨터 사양이 그렇게 좋지 못하여, 14b model 쓰면 답변에 30~60초 가량 걸려 좀 답답하더라고요. 그렇다고 더 낮은 model을 쓰기엔 답변이 맘에 들지 않고 참 난감합니다. 이번에 5000번 대 그래픽카드가 나온다고 하는데, 한 번 업그레이드를 고려해 봐야겠습니다.
'LLM' 카테고리의 다른 글
| LLM 모델 직접 Fine-tuning 하기: 초보자를 위한 로컬 튜토리얼 (0) | 2025.02.05 |
|---|---|
| DeepSeek R-1 local 설치 가이드: 처음부터 끝까지 완벽한 튜토리얼 (0) | 2025.01.29 |