Kendi Bilgisayarınıza LLM Kurulumu: Pratik Rehber

Kendi Bilgisayarınıza LLM Kurulumu: Pratik Rehber

Yerel LLM Çalıştırarak Gizlilik, Hız ve Maliyet Avantajı Elde Edin (2026)

Yapay zekâ modelleri artık bulutla sınırlı değil.

2026 itibarıyla birçok kişi ve ekip, büyük dil modellerini (LLM) kendi bilgisayarında çalıştırmaya başladı.

Neden?

  • Gizlilik

  • Tam kontrol

  • İnternet gereksizliği

  • Düşük maliyet

  • Yüksek hız (özellikle SLM modellerde)

Bu rehber, bilgisayarınıza LLM kurmak ve kullanmak için en pratik adımları anlatıyor.

Teknik bilgin az olsa bile rahatlıkla uygulayabilirsin.

1. Bilgisayarda LLM Çalıştırmak Mümkün mü?

Evet — hem de çok kolay.

Artık GPT benzeri modelleri:

  • Laptop

  • Mac M1/M2/M3

  • Windows PC

  • Mini PC

  • GPU’lu masaüstü

üzerinde çalıştırabilirsin.

SLM (Small Language Model) yapısı sayesinde:

  • 1B – 8B parametreli modeller

  • 4bit / 8bit quantize edilmiş sürümler

  • 4–8 GB RAM ile çalışabiliyor.

2. Hangi Modelleri Kendi Bilgisayarında Çalıştırabilirsin?

Aşağıdaki modeller yerel kullanım için en popüler olanlardır:

Llama 3.2 / Llama 3.1 / Llama 2

Meta modelleri; güçlü, stabil, çok destekli.

Mistral / Mixtral

Hız odaklı, küçük boyutlu ama çok verimli modeller.

Phi-3 / Phi-2

Microsoft’un en hafif ve en hızlı SLM ailesi.

Gemma / Gemma 2

Google’ın açık kaynak modelleri, düşük donanımda bile mükemmel.

Qwen / Qwen2

Çok dilli destek → Türkçe performansı yüksek.

DeepSeek R1 / R1 Distill

Tümevarımsal düşünmede çok iyi (reasoning-first).

3. Minimum Sistem Gereksinimleri

Hafif Modeller (1B–4B)

  • 4–8 GB RAM

  • CPU yeterli

  • GPU gerekmiyor (AMA hız artar)

Orta Modeller (7B–14B)

  • 16 GB RAM

  • 4–6 GB VRAM GPU (opsiyonel)

  • Apple Silicon → harika performans

Büyük Modeller (30B–70B)

  • 64 GB RAM

  • 16–24 GB VRAM GPU

  • Profesyonel iş istasyonları

4. En Kolay Kurulum Yöntemi: OLLAMA

Ollama, yerel LLM çalıştırmanın en rahat yolu.

Tek komutla model indirip çalıştırabiliyorsun.

1) Kurulum

macOS

Terminalde:

brew install ollama

Windows

Resmi installer:

ollama.com/download

Linux

curl -fsSL https://ollama.com/install.sh | sh

2) Model İndirme

Örnek:

ollama run llama3

Türkçe iyi model:

ollama run qwen2

Hafif ve hızlı:

ollama run phi3

3) Chat Başlatma

Model indiğinde direkt karşılık verir:

>> Türkiye’nin en iyi hosting firmalarını listele.

Hepsi yerelde, internet olmadan çalışır.

5. Web Arayüzü (OpenWebUI) ile Kullanma

Komut satırı kullanmak istemiyorsan OpenWebUI mükemmel.

Kurulum

pip install open-webui

open-webui serve

Ardından tarayıcıdan:

http://localhost:8080

Bu arayüzle:

  • Chat ekranı

  • Prompt kayıtları

  • Model değiştirme

  • Dosya yükleme

  • Görsel analizi

gibi özelliklere sahip olursun.

6. Modelleri Hızlandırmak İçin Quantization (4bit / 8bit)

Yerel LLM’lerin sırrı:

  • 4bit quantization → çok hızlı

  • 8bit quantization → daha kaliteli + hızlı

  • FP16 → en kaliteli, daha ağır

Örnek komut

ollama pull llama3:8b-instruct-q4

7. Kendi Verinizi Eklemek: RAG Kurulumu

Yerel LLM’i daha kullanışlı hale getirmenin yolu:

RAG (Retrieval Augmented Generation)

Yani:

  • PDF ekle

  • Word dokümanı ekle

  • Şirket bilgilerini yükle

  • LLM’e kendi verini öğret

OpenWebUI bunun için hazır destek sunuyor.

8. Yerel LLM’in Avantajları

Gizlilik

Veri bilgisayarınızdan çıkmaz.

İnternet gerektirmez

Uçak, dağ, offline çalışma → sıkıntı yok.

Hız

SLM modellerde yanıt milisaniyeye iner.

Düşük Maliyet

API kullanımı yok → sınırsız kullanım.

Özel eğitim

Kendi verinle eğitebilirsin.

9. Kime Uygun?

  • Yazılımcılar

  • UI/UX tasarımcılar

  • Araştırmacılar

  • Öğrenciler

  • Kurumsal ekipler

  • Veri güvenliği hassas olan sektörler

  • Frekanslı AI kullanımında API maliyetinden kaçınmak isteyenler