Locaia Logo
Modellkatalog

KI-Modelle für jeden Workload

Vergleichen Sie lokale Open-Source-LLMs und proprietäre Cloud-Modelle. Filtern Sie nach Bereitstellung, Größe und technischen Eigenschaften, um den perfekten Fit für Ihre Teams zu finden.

Bereitstellung
Klasse
Fokus

Zeige 1–9 von 22 Modellen (gesamt 48).

Meta Logo
Llama 4 Behemoth
Meta
Lokal (On-Prem)Ultra320B ParameterQ4_K_S128k Kontext160 GB VRAMOpen-SourceReasoning

Extrem leistungsstarkes Open-Source-Modell für anspruchsvolle Generative-AI-Pipelines mit Fokus auf Planung und Agenten.

  • Bestwerte auf aktuellen Vellum-Reasoning-Benchmarks
  • Skaliert effizient auf 128 GB VRAM Dual-Knoten
  • Offene Lizenz mit Freiraum für Sicherheits-Audits
Bereitstellung: On-PremiseZur Anbieter-Seite
Meta Logo
Llama 4 Maverick
Meta
Lokal (On-Prem)Ultra70B ParameterQ4_K_M64k Kontext120 GB VRAMOpen-SourceMultilingual

Hochqualitatives Mittelklassemodell – optimiert für mehrsprachige Wissensarbeit und RAG-Workloads.

  • Sehr gute Balance aus Qualität und Inferenzkosten
  • Starke Tool-Aufruf-Fähigkeiten laut Vellum Utility Score
  • Läuft stabil in Locaia Studio Pro Konfigurationen
Bereitstellung: On-PremiseZur Anbieter-Seite
Meta Logo
Llama 4 Scout
Meta
Lokal (On-Prem)lite8B ParameterQ4_K_M8k Kontext48 GB VRAMOpen-SourceNiedrige Latenz

Kompakte Variante für Edge und Assistenz – ideal für Chatbots, Support und Workflow-Automatisierung.

  • Sehr niedrige Latenz auf 64 GB VRAM Nodes
  • Starke Zero-Shot-Fähigkeit in deutschsprachigen Anfragen
  • Offene Gewichte erlauben schnelle Domänenanpassung
Bereitstellung: On-PremiseZur Anbieter-Seite
Meta Logo
Llama 3.3 70B
Meta
Lokal (On-Prem)Ultra70B ParameterQ4_K_M16k Kontext112 GB VRAMOpen-SourceCoding

Weiterentwickelte 70B-Version mit Fokus auf Konsistenz und Codegenerierung für Enterprise-Teams.

  • Exzellente Ergebnisse bei Code- und Tool-Benchmarks
  • Mehrsprachige Trainingsdaten mit Fokus auf DACH
  • Unterstützt strukturierten Output für Prüfprozesse
Bereitstellung: On-PremiseZur Anbieter-Seite
Meta Logo
Llama 3.1 405B
Meta
Lokal (On-Prem)Ultra405B ParameterQ4_K_S128k Kontext192 GB VRAMOpen-SourceLangkontext

Maximaler Open-Source-Durchsatz für komplexe Planung, lange Kontexte und Agenten-Architekturen.

  • Top-Ergebnisse bei langen Kontexten und RAG-Pipelines
  • Skalierbar über Tensor Parallel auf mehrere Server
  • Sicherheits-Feintuning via offene Checkpoints
Bereitstellung: On-PremiseZur Anbieter-Seite
Meta Logo
Llama 3.2 Vision 11B
Meta
Lokal (On-Prem)lite11B ParameterQ4_K_M32k Kontext64 GB VRAMOpen-SourceVision

Vision-Language-Modell für multimodale Assistenten, das Bilder und Text lokal verarbeitet.

  • Unterstützt Bildverständnis und detaillierte Captioning-Aufgaben
  • Optimiert für 64 GB VRAM-Hosts mit TensorRT-LLM
  • Kompatibel mit Locaia Vision-Pipelines für On-Prem RAG
Bereitstellung: On-PremiseZur Anbieter-Seite
Meta Logo
Llama 3.2 Vision 90B
Meta
Lokal (On-Prem)Ultra90B ParameterQ4_K_S64k Kontext160 GB VRAMOpen-SourceVision

High-End Vision-Language-Modell mit starker Multimodalität und ausführlichen Antworten.

  • Lieferte Top-Ergebnisse in Vision-Benchmarks mit langen Antworten
  • Skaliert zuverlässig über Tensor Parallel in Locaia Studio Pro
  • Geeignet für multimodale RAG-Szenarien mit Sicherheitsanforderungen
Bereitstellung: On-PremiseZur Anbieter-Seite
OpenAI Logo
GPT-oss 120B
OpenAI
Lokal (On-Prem)Ultra120B ParameterQ4_K_M32k Kontext128 GB VRAMOpen-SourceReasoning

Open-Source-Release von OpenAI für lokale High-End-Reasoning-Stacks mit hohem Qualitätsanspruch.

  • Benchmark-Leader bei strukturierten Argumentationsaufgaben
  • Kompatibel mit bestehenden GPT-4 Toolchains
  • Offene Lizenz ermöglicht Audit und Red-Team-Testing
Bereitstellung: On-PremiseZur Anbieter-Seite
OpenAI Logo
GPT-oss 20B
OpenAI
Lokal (On-Prem)lite20B ParameterAWQ INT416k Kontext48 GB VRAMOpen-Source

Kompakter OpenAI-Release für lokale Assistenten, Wissensdatenbanken und Domänen-Experten.

  • Sehr gute Qualität pro Watt auf 64 GB VRAM Hardware
  • Einfaches Finetuning mit LoRA & QLoRA
  • Kompatibel mit GPT-4 Prompt-Vorlagen
Bereitstellung: On-PremiseZur Anbieter-Seite

Starten Sie Ihre lokale KI – ganz einfach.

Ihre Daten. Ihre Infrastruktur.

Locaia liefert schlüsselfertige LLM-Serverlösungen – lokal, sicher und sofort einsatzbereit. Keine Cloud. Keine Kompromisse.