Ollama ist eine Software-Plattform, mit der sich moderne KI-Sprachmodelle (sogenannte „Large Language Models“ wie Llama 3, Mistral, Deepseek und viele mehr) ganz einfach lokal auf dem eigenen Rechner installieren und betreiben lassen – ohne Cloud und ohne Datenübertragung ins Internet.
Was ist Ollama?
- Lokale KI:
Die Verarbeitung läuft komplett auf dem eigenen PC, Mac oder Linux-System.
Es werden keine Nutzerdaten an externe Server geschickt. - Modell-Auswahl:
Ollama unterstützt viele Open-Source-KI-Modelle, z. B. Llama 3, Mistral, Gemma, Deepseek, Phi, Qwen, und weitere. Neue Modelle können einfach per Befehl nachgeladen werden. - Einfache Bedienung:
Installation erfolgt mit wenigen Klicks oder einem einfachen Befehl im Terminal.
Modelle werden über den Befehlollama run <modellname>gestartet (z. B.ollama run llama3). - Sicherheit & Datenschutz:
Da die KI lokal arbeitet, verbleiben alle Daten auf dem eigenen Gerät – besonders interessant für Unternehmen, Organisationen oder Privatpersonen mit hohen Datenschutzanforderungen. - Integration:
Ollama stellt eine API bereit, sodass eigene Anwendungen, Chatbots oder Office-Tools auf die lokal laufende KI zugreifen können. - Systemvoraussetzungen:
Moderne Hardware wird empfohlen funktioniert auf Windows, macOS und Linux.