Ollama

Ollama ist eine Software-Plattform, mit der sich moderne KI-Sprachmodelle (sogenannte „Large Language Models“ wie Llama 3, Mistral, Deepseek und viele mehr) ganz einfach lokal auf dem eigenen Rechner installieren und betreiben lassen – ohne Cloud und ohne Datenübertragung ins Internet.

Was ist Ollama?

  • Lokale KI:
    Die Verarbeitung läuft komplett auf dem eigenen PC, Mac oder Linux-System.
    Es werden keine Nutzerdaten an externe Server geschickt.
  • Modell-Auswahl:
    Ollama unterstützt viele Open-Source-KI-Modelle, z. B. Llama 3, Mistral, Gemma, Deepseek, Phi, Qwen, und weitere. Neue Modelle können einfach per Befehl nachgeladen werden.
  • Einfache Bedienung:
    Installation erfolgt mit wenigen Klicks oder einem einfachen Befehl im Terminal.
    Modelle werden über den Befehl ollama run <modellname> gestartet (z. B. ollama run llama3).
  • Sicherheit & Datenschutz:
    Da die KI lokal arbeitet, verbleiben alle Daten auf dem eigenen Gerät – besonders interessant für Unternehmen, Organisationen oder Privatpersonen mit hohen Datenschutzanforderungen.
  • Integration:
    Ollama stellt eine API bereit, sodass eigene Anwendungen, Chatbots oder Office-Tools auf die lokal laufende KI zugreifen können.
  • Systemvoraussetzungen:
    Moderne Hardware wird empfohlen funktioniert auf Windows, macOS und Linux.
Warenkorb