macOS에 DeepSeek-R1을 설치하는 궁극의 가이드
DeepSeek-R1의 획기적인 추론 능력(MATH-500 벤치마크에서 97.3% 정확도) 덕분에 Mac 사용자들은 점점 더 로컬에서 이 기능을 활용하고자 합니다. 이 가이드는 Apple 실리콘 칩, 스토리지 관리 및 UI 구성에 최적화된 설치 과정을 안내합니다.

파트 1: 하드웨어 요구 사항 및 모델 선택
주요 의사 결정 요인
- M1/M2/M3 Mac: 7B 모델의 경우 최소 16GB 통합 메모리, 32B 버전의 경우 32GB 이상 권장
- 저장 알림: 전체 671B 모델은 404GB 공간이 필요하며, 제한된 저장 공간을 위해 양자화된 1.5B(1.1GB) 또는 7B(4.7GB) 사용
- 성능 절충점: 7B 모델: 4.7GB, 캐주얼 Q&A(지연 ≈ 2.3초) 32B 모델: 20GB, 코딩/수학에 이상적임 (MMLU 정확도=88.5%)
파트 2: Ollama를 통한 단계별 설치
1. 올라마 프레임워크 설치
- Ollama 공식 사이트에서 다운로드
# 설치 확인 $ 올라마 --버전 ollama version 0.5.2 (a8c2669)
2. DeepSeek-R1 모델 다운로드
- M1/M2 Macs을 위해
$ 올라마 런 딥시크-R1:7b # 밸런스 옵션 $ Ollama는 deepseek-r1:1.5b # 저장 공간이 제한된 장치 실행
3. 문제 해결 팁
- 다운로드가 중지되는 경우: Ctrl+C → --insecure 플래그로 다시 시도
- GPU 할당: 올라마 PS로 확인하기 → 30% 이상의 GPU 사용 보장
파트 3: 비주얼 인터페이스 설정
옵션 1: 채팅박스 AI(초보자 친화적)
1. 채팅박스 다운로드 → 애플리케이션으로 끌기
2. 구성:API 유형: Ollama
- 모델: 딥시크-R1:[버전]
- 엔드포인트: http://localhost:11434
옵션 2: LM 스튜디오(고급 기능)
- 동시 모델 실행 지원
- 직접 포옹 얼굴 통합: "deepseek-r1-7b-q4_k_m" 검색
파트 4: 최적화 기법
메모리 관리:
# VRAM 사용량 제한(M1 Max 예제) $ OLLAMA_GPU_LAYER=50 ollama run deepseek-r1:7b
속도 대 정확도:
사실적인 작업에는 온도 0.3을 사용하고 창의성에는 온도 1.0 사용
마무리
Mac에 DeepSeek-R1을 설치하려면 모델 크기(1.5B→32B)와 하드웨어 기능의 균형을 맞춰야 합니다. Ollama-Chatbox 콤보는 가장 부드러운 경험을 제공하며, LM Studio는 고급 사용자 지정 기능을 제공합니다. 실시간 애플리케이션의 경우 7B 모델 + DUO 가속기를 고려하세요.
이 문서 공유하기:
제품 등급을 선택하세요:
김희준
편집장
프리랜서로 5년 이상 일해왔습니다. 새로운 것들과 최신 지식을 발견할 때마다 항상 감탄합니다. 인생은 무한하다고 생각하지만, 제 자신은 한계를 모릅니다.
모든 기사 보기댓글 남기기
HitPaw 기사에 대한 리뷰 작성하기