Mit Open-Source-KI-Modellen wie Deepseek kannst du deine eigene Sprach-KI auf einem Server betreiben. Aber wie gut funktioniert das wirklich? Und wie viel Leistung brauchst du?
In diesem Beitrag richten wir einen virtuellen Linux-Server ein, installieren Ollama und testen Deepseek. So kannst du herausfinden, welche Modelle dein Server schafft und ob es sich lohnt, größere Modelle zu probieren.
🖥️ Schritt 1: Linux-Server vorbereiten
1️⃣ Server einrichten:
- Du kannst einen lokalen Proxmox-Server oder einen Cloud-Server (z. B. Hetzner, AWS, DigitalOcean) nutzen.
- Empfohlene Mindestanforderungen:
- 8 GB RAM für kleine Modelle
- 16+ GB RAM für größere Modelle
- GPU (optional), aber hilft bei großen Modellen
2️⃣ System aktualisieren:
sudo apt update && sudo apt upgrade -y
3️⃣ Ollama installieren:
curl -fsSL https://ollama.ai/install.sh | bash
Mit diesem Tool kannst du KI-Modelle einfach laden und testen.
🤖 Schritt 2: Deepseek installieren und testen
Deepseek gibt es in mehreren Versionen – von kleinen Modellen für schwache Server bis hin zu riesigen KI-Varianten für High-End-Hardware.
Deepseek 1.3B (leicht & schnell, ab 8 GB RAM)
Perfekt für erste Tests, da es mit normalen Servern läuft. Installation:
ollama pull deepseek-ai/deepseek-coder:1.3b
Jetzt kannst du Deepseek starten:
ollama run deepseek-coder:1.3b
💡 Hinweis: Dieses Modell braucht mindestens 8 GB RAM, sonst kann es nicht geladen werden.
📌 Alle DeepSeek-Varianten im Überblick
Modell | Empfohlener RAM | Einsatzgebiet |
---|---|---|
Deepseek 1.3B | 8 GB | Schnelle Tests, einfache KI-Aufgaben |
Deepseek 7B | 16 GB | Mittlere Anwendungen, komplexere Analysen |
Deepseek 33B | 64 GB+ | Große Modelle für tiefere KI-Tests |
Deepseek LLM 67B | 128 GB+ (GPU empfohlen) | Vergleichbar mit GPT-4, sehr leistungsstark |
Falls dein Server leistungsstark genug ist, kannst du einfach das gewünschte Modell ziehen:
ollama pull deepseek-ai/deepseek-coder:1.3b
Das gleiche gilt für alle anderen Varianten.
🎮 Fazit: Coole Spielerei mit KI aber mehr Leistung nötig für echte GPT-Alternativen
Deepseek ist eine spannende Open-Source-Alternative zu ChatGPT. Für Tests und kleinere Anwendungen reicht 1.3B, aber sobald du eine echte GPT-Alternative willst, brauchst du viel mehr RAM & GPU-Power.
💡 Trotzdem macht es Spaß, die verschiedenen Modelle auszuprobieren und eigene KI-Experimente auf dem Server zu starten. 🚀