Loading...

Self-hosting von OpenWebUI mit Ollama - ganz einfach

Jonas Scholz - Co-Founder von sliplane.ioJonas Scholz
4 min

OpenWebUI in Kombination mit Ollama bietet dir eine leistungsstarke ChatGPT-ähnliche Oberfläche mit lokalen Sprachmodellen - vollständig privat und unter deiner Kontrolle. Keine sensiblen Daten mehr an OpenAI senden oder pro Token bezahlen! In diesem Tutorial richten wir OpenWebUI mit Ollama auf Sliplane ein, ab nur 9 Euro pro Monat!

Warum OpenWebUI selbst hosten?

  • Vollständige Privatsphäre: Deine Unterhaltungen verlassen niemals deinen Server
  • Keine Nutzungslimits: Führe so viele Anfragen aus, wie dein Server verarbeiten kann
  • Wähle deine Modelle: Nutze jedes Ollama-kompatible Modell (Llama, Mistral, Phi, etc.)
  • Kosteneffizient: Feste 9€/Monat vs. Pay-per-Token Preismodell
  • Volle Kontrolle: Anpassen und erweitern nach Bedarf

Einrichtung

  1. Registrierung bei sliplane.io, die Anmeldung ist kostenlos und du kannst dich mit deinem Github Account einloggen.
  2. Server erstellen: Wenn du dich gerade angemeldet hast, solltest du bereits einen Trial-Server haben, den du 48 Stunden lang kostenlos nutzen kannst. Falls nicht, gehe zu > Servers und klicke dann auf > Create Server
  3. Service erstellen: Gehe zu deinen Projekten (erstelle ein neues oder nutze das Standard-Projekt) und klicke auf > Deploy Service (oben rechts)
    • Wähle das OpenWebUI Preset
  4. Klicke auf Deploy, warte bis der Service läuft und öffne dann die von Sliplane bereitgestellte Domain. Du findest diese in den Service-Einstellungen, sie sollte service-name.sliplane.app lauten
  5. Ersten Account erstellen: Wenn du zum ersten Mal auf OpenWebUI zugreifst, wirst du aufgefordert, einen Admin-Account zu erstellen. Dies wird dein Hauptaccount mit vollen Admin-Rechten sein.
  6. Modell herunterladen:
    • Gehe zu Admin Panel → Connections → Ollama
    • Klicke auf das Download-Symbol
    • Gib einen Modellnamen ein (z.B. llama3.2 für das neueste Llama-Modell)
    • Durchsuche verfügbare Modelle auf ollama.ai/library

  1. Starte mit dem Chatten mit deiner privaten KI!

Den richtigen Server und das richtige Modell wählen

Der Server, den du wählst, hängt davon ab, ob du Modelle lokal ausführen oder externe APIs nutzen möchtest:

Externe APIs nutzen (9€/Monat)

Der Base Server (9€/Monat) ist perfekt, wenn du OpenWebUI mit externen API-Anbietern wie OpenAI, Anthropic oder Google nutzen möchtest. Obwohl dies nicht die vollen Privatsphäre-Vorteile lokaler Modelle bietet, erhältst du trotzdem eine bessere Oberfläche und Multi-User-Support für einen Bruchteil der Kosten von Team-Abonnements.

Lokale Modelle ausführen

Für echte Privatsphäre mit lokalen Modellen benötigst du leistungsstärkere Server:

Server-TypPreisRAMEmpfohlene ModelleAnwendungsfall
Base9€2GBNur externe APIsOpenWebUI-Oberfläche mit Cloud-Anbietern
Dedicated Base49€8GBllama3.2:3b, mistral:7bKleine lokale Modelle, einfacher Chat
Dedicated Medium98€16GBllama3.2:7b, mixtral:8x7bMittlere Modelle, bessere Qualität
Dedicated Large196€32GBllama3.3:70b, qwen:32bGroße 20B+ Modelle, beste Leistung

Warum Self-Hosting für viele die einzige Option ist

Für Unternehmen und Personen, die mit sensiblen Daten arbeiten, sind Cloud-KI-Services nicht nur teuer - sie sind oft gar keine Option:

  • Compliance-Anforderungen: DSGVO, HIPAA und andere Vorschriften verbieten oft das Senden von Daten an US-basierte Services
  • Das Patriot Act Problem: US-Cloud-Services sind gezwungen, Daten auf Anfrage an Behörden weiterzugeben
  • Firmengeheimnisse: Viele Unternehmen können ihr geistiges Eigentum einfach nicht auf externen Servern riskieren
  • Unbegrenzter Team-Zugang: Eine OpenWebUI-Instanz kann dein gesamtes Team bedienen ohne Pro-Nutzer-Preise

Kostenvergleich für Teams

Service5 Nutzer10 Nutzer20 NutzerPrivatsphäreCompliance
ChatGPT Team$150/Monat$300/Monat$600/Monat❌ US-Server❌ Patriot Act
Claude Team$125/Monat$250/Monat$500/Monat❌ US-Server❌ Patriot Act
Self-hosted OpenWebUI9-196€/Monat9-196€/Monat9-196€/Monat✅ Deine Server✅ Volle Kontrolle

Der wahre Wert liegt nicht nur in der Kostenersparnis - es geht darum, eine KI-Lösung zu haben, die du tatsächlich für sensible Arbeiten nutzen kannst.

FAQ

Welche Modelle kann ich nutzen?

Jedes Modell, das in der Ollama-Bibliothek verfügbar ist, einschließlich Llama, Mistral, Phi, Gemma und vielen mehr. Regelmäßig werden neue Modelle hinzugefügt.

Wie viel RAM brauche ich für verschiedene Modelle?

  • 3B Parameter Modelle: ~4GB RAM (Dedicated Base minimum)
  • 7B Parameter Modelle: ~8GB RAM (Dedicated Base minimum)
  • 13B Parameter Modelle: ~16GB RAM (Dedicated Medium empfohlen)
  • 20B+ Parameter Modelle: ~32GB RAM (Dedicated Large empfohlen)

Hinweis: Der 9€ Base Server kann keine lokalen Modelle ausführen. Nutze ihn mit externen API-Anbietern oder upgrade auf einen Dedicated Server für lokales Model-Hosting.

Kann ich mehrere Modelle nutzen?

Ja! Du kannst mehrere Modelle herunterladen und zwischen ihnen wechseln. OpenWebUI lässt dich für jede Unterhaltung auswählen, welches Modell du nutzen möchtest.

Ist es wirklich privat?

Ja! Die gesamte Verarbeitung findet auf deinem Server statt. Es werden keine Daten an externe APIs gesendet, es sei denn, du konfigurierst diese explizit.

Wie aktualisiere ich Modelle oder OpenWebUI?

Deploye den Service in Sliplane einfach neu, um die neueste Version zu erhalten. Für Modelle kannst du neue Versionen über die OpenWebUI-Oberfläche herunterladen.

Willkommen in der Container-Cloud

Sliplane macht es einfach, Container in der Cloud zu deployen und bei Bedarf zu skalieren. Probier es jetzt aus!