Windows에 DeepSeek-R1을 설치하는 방법: 단계별 가이드
Windows에 DeepSeek-R1을 설치하면 AI 모델을 로컬에서 실행하여 개인정보 보호, 오프라인 액세스 및 사용자 지정을 보장할 수 있습니다. DeepSeek-R1을 애플리케이션에 통합하려는 개발자든 클라우드 종속성 없이 AI 지원을 원하는 일반 사용자든 이 가이드는 설치 및 설정 과정을 안내해 드립니다.

파트 1: 올라마 설치(DeepSeek-R1 실행을 위한 전제 조건)
Windows에서 DeepSeek-R1을 실행하려면 먼저 대형 언어 모델(LLM)을 로컬에서 실행하는 것을 간소화하는 도구인 Ollama를 설치해야 합니다.
스텝 1: 올라마 다운로드 및 설치
1. macOS에서 Ollama를 다운로드하고 Windows 실행 파일을 가져옵니다.
2. .exe 파일을 두 번 클릭하고 설정 프롬프트를 따라 설치 프로그램을 실행합니다.
3. 명령 프롬프트를 열고 실행하여 설치를 확인합니다:
- 올라마 --버전
버전 번호가 나타나면 Ollama가 성공적으로 설치됩니다.
스텝 2: Linux(WSL)용 Windows 하위 시스템 사용(선택 사항이지만 권장)
더 나은 성능을 위해 Linux용 Windows 하위 시스템(WSL 2)을 활성화하는 것을 고려해 보세요:
1. 제어판 > 프로그램 > Windows 기능 켜기/끄기로 이동합니다.
2. Linux용 Windows 하위 시스템을 활성화하고 컴퓨터를 재시작합니다.
3. 실행하여 WSL 업데이트:
- wsl --업데이트
파트 2: 딥시크-R1 모델 다운로드
DeepSeek-R1은 다양한 하드웨어 기능에 맞는 다양한 모델 크기를 제공합니다. 시스템의 RAM과 GPU 성능을 기준으로 선택할 수 있습니다.
딥시크-R1 모델 옵션
모델 크기 | RAM 요구 사항 | 디스크 공간 |
---|---|---|
1.5B | 8GB+ RAM | 1.5GB |
7B | 16GB+ RAM | 4.7GB |
14B | 32GB+ RAM | 9GB |
70B | 64GB+ RAM | 43GB |
스텝 1: 딥시크-R1 모델 살펴보기
1. 명령 프롬프트를 열고 실행합니다:
- 올라마 풀 딥시크-R1:[MODEL_SIZE]
[MODEL_SIZE]를 선택한 항목(예: 1.5b, 7b, 14b)으로 대체합니다.
7B 모델의 예제 명령어:
- 올라마 풀 딥시크-r1:7b
2. 다운로드가 완료될 때까지 기다립니다. 인터넷 속도에 따라 프로세스가 몇 분 정도 걸릴 수 있습니다.
파트 3: 명령줄을 통해 DeepSeek-R1 실행
다운로드가 완료되면 명령줄에서 직접 DeepSeek-R1을 시작할 수 있습니다.
스텝 1: 딥시크-R1 출시
다음 명령을 실행하여 AI 모델을 시작합니다:
- 올라마 런 딥시크-R1:[MODEL_SIZE]
7B 모델 실행 예시:
- 올라마 런 딥시크-r1:7b
스텝 2: 프롬프트로 DeepSeek-R1 테스트
샘플 프롬프트를 입력하여 AI와 상호 작용할 수 있습니다:
- echo "Explain quantum computing in simple terms" | ollama run deepseek-r1:7b
참고: 기본적으로 명령줄 사용은 채팅 기록을 저장하지 않습니다. 지속적인 채팅 로그가 필요한 경우 그래픽 인터페이스 설정을 고려해 보세요.
파트 4: DeepSeek-R1용 그래픽 사용자 인터페이스(GUI) 설정
보다 사용자 친화적인 AI 경험을 위해 Open WebUI 또는 Chatbox AI와 같은 웹 기반 GUI를 사용하세요.
옵션 1: 도커를 통해 WebUI 열기
1. Docker Desktop을 설치하고 로그인합니다.
2. Command Prompt에서 다음 명령을 실행하여 Open WebUI를 설정합니다:
- docker run -d -p 3000:8080
--add-host=host.docker.internal:host-gateway -v
open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
3. 브라우저를 열고 방문하여 UI에 액세스하세요:
- http://localhost:3000
옵션 2: 채팅박스 AI
1. 채팅박스 AI는 Prompt.io Texting Platform에서 다운로드하세요.
2. 채팅박스 AI를 열고 설정으로 이동합니다.
3. DeepSeek API를 선택하고 API 키를 입력합니다(로컬 사용 옵션).
파트 5: 딥시크-R1을 파이썬 애플리케이션에 통합하기
개발자의 경우, DeepSeek-R1을 고급 AI 기반 워크플로우를 위한 파이썬 애플리케이션에 통합할 수 있습니다.
스텝 1:필수 라이브러리 설치
- 핍 설치 올라마
스텝 2: 파이썬 스크립트 만들기
import ollama response = ollama.chat( model='deepseek-r1:7b', messages=[{'role': 'user', 'content': 'Write a Python function for Fibonacci numbers.'}] ) print(response['message']['content'])
이 스크립트는 DeepSeek-R1에 프롬프트를 보내고 응답을 출력합니다.
파트 6: 일반적인 문제 해결
모델을 찾을 수 없음
Ollama가 실행되어 실행되고 있는지 확인합니다:
- 올라마 서브
메모리 부족 오류
RAM 사용량이 너무 많으면 더 작은 모델로 전환하세요(예: 7B 대신 1.5B를 사용하세요).
WSL 오류
wsl --업데이트를 실행하여 Linux용 Windows 하위 시스템이 최신 상태인지 확인합니다.
API 주요 문제(GUI 사용자용)
Chatbox AI의 경우 API 키 없이 DeepSeek-R1을 로컬에서 사용할 수 있습니다.
파트 7: DeepSeek-R1을 로컬에 설치하는 이유?
Windows에 DeepSeek-R1을 설치하면 여러 가지 장점이 있습니다:
사생활
- 민감한 데이터를 기기에 보관하면서 AI 모델을 로컬에서 실행하세요.
비용 절감
- 비싼 API 수수료를 피하세요(DeepSeek의 백만 토큰당 0.55달러는 OpenAI의 백만 토큰당 1,500달러보다 훨씬 저렴합니다).
오프라인 액세스
- 설치 후 인터넷 연결이 필요 없습니다.
마무리
이 가이드를 따르면 Windows에 DeepSeek-R1을 성공적으로 설치하고 코딩 지원부터 연구 애플리케이션에 이르기까지 다양한 AI 기반 작업에 사용할 수 있습니다.
GPU 가속 또는 미세 조정과 같은 고급 구성에 대해서는 Ollama의 문서를 참조하거나 Docker 기반 설정을 살펴보세요.
이제 Windows에서 DeepSeek-R1을 실행하고 있으니 지금 바로 그 기능과 AI 잠재력을 살펴보세요!
이 문서 공유하기:
제품 등급을 선택하세요:
김희준
편집장
프리랜서로 5년 이상 일해왔습니다. 새로운 것들과 최신 지식을 발견할 때마다 항상 감탄합니다. 인생은 무한하다고 생각하지만, 제 자신은 한계를 모릅니다.
모든 기사 보기댓글 남기기
HitPaw 기사에 대한 리뷰 작성하기