KI auf dem Rechner LM Studio der "KI-AlleskÜnner" mit frischer Oberfläche und neuen Funktionen
LM Studio 0.4.0
bringt eine Ăźberarbeitete Oberfläche, einen neuen ServerâKern und zusätzliche EntwicklerâFeatures, bleibt aber weiterhin ein kostenloses Schweizer Taschenmesser fĂźr lokale KIâModelle.
Neuer Kern: Daemon-Modus und Parallelbetrieb
Der bisher an die GUI gekoppelte Kern läuft jetzt als eigener Hintergrunddienst (âllmsterâ), den du ohne Oberfläche auf Servern, in CIâPipelines oder HeadlessâSetups nutzen kannst.
Anfragen an dasselbe Modell kĂśnnen parallel verarbeitet werden; LM Studio bĂźndelt Rechenoperationen (âcontinuous batchingâ), sodass mehrere Chats/Clients effizienter auf ein Modell zugreifen.
Neue REST-API und Entwickler-Tools
Eine zustandsbehaftete RESTâAPI erlaubt längere Dialoge, ohne jedes Mal den kompletten Verlauf zu senden; sie liefert zudem Tokenâ und LatenzâStatistiken fĂźr Monitoring und Tuning.
Zugriffe auf den lokalen LLMâServer lassen sich per APIâKey absichern; ein Developer Mode in der App bĂźndelt alle PowerâUserâOptionen und zeigt LiveâStatus der geladenen Modelle.
Frischere Oberfläche und bessere Bedienung
Die UI wurde modernisiert: Chats lassen sich exportieren, mehrere Gespräche nebeneinander anzeigen, und die ModellâSuche (inkl. Filter nach Format/GrĂśĂe) wurde Ăźberarbeitet.
Eine integrierte âDeveloper DocsââSektion erklärt Befehle, RESTâEndpunkte und Workflows direkt in der Anwendung, was den Einstieg in eigene Integrationen erleichtert.
Einordnung fĂźr deinen Workflow
LM Studio bleibt eine kostenlose, plattformĂźbergreifende LĂśsung (macOS, Windows, Linux), mit der du HuggingâFaceâModelle wie Gemma, Qwen, DeepSeek & Co. lokal mit GUI oder headless betreiben kannst â ideal fĂźr datensensible Projekte oder OfflineâEinsatz.
Hier findest du weiterfĂźhrende Informationen: Imstudio.ai