Changelog
Wir arbeiten ständig an neuen Funktionen und Verbesserungen. Entdecke hier, was es Neues gibt:
Neue Modelle verfügbar!
o3 und GPT-4.1 mini
Wir freuen uns, bekannt zu geben, dass o3 und GPT-4.1 mini jetzt in Langdock verfügbar sind! 🚀

o3 ist OpenAIs leistungsstärkstes Reasoning-Modell, das neue Standards bei Programmierung, Mathematik, Wissenschaft und visueller Problemlösung setzt. Es zeichnet sich bei technischem Schreiben, der Befolgung von Anweisungen und der Bewältigung komplexer mehrstufiger Probleme aus. o3 ist perfekt für Strategie-, Forschungs- und Programmieraufgaben geeignet, die anspruchsvolle Problemlösungsfähigkeiten erfordern.
GPT-4.1 mini ist die kleinere, schnellere Version von GPT-4.1, entwickelt für alltägliche Aufgaben mit deutlich schnelleren Antworten. Dieses effiziente Modell liefert eine Leistung, die mit GPT-4o konkurrenzfähig ist, während es die Latenz um fast die Hälfte reduziert. GPT-4.1 mini eignet sich hervorragend für große Aufgaben, Echtzeitanwendungen und schnelle Inhaltserstellung. Das Sprachmodell war zuvor als globale Bereitstellung verfügbar und ist nun in der EU verfügbar.
Beide Modelle sind jetzt live. Wähle o3 für fortgeschrittenes Reasoning und Intelligenz oder GPT-4.1 mini für Geschwindigkeit und Effizienz!
Wichtiger Hinweis: Wir werden GPT-4.5, o1 (Preview), o1 mini und Gemini 1.5 Pro am 11. Juli außer Betrieb nehmen. Diese Modelle werden ab diesem Datum nicht mehr auf Langdock verfügbar sein. Wir empfehlen, auf die neueren Versionen dieser Modelle umzusteigen.
Neu in Langdock
Verbessertes Canvas
Wir freuen uns, dass Canvas nun aus der Beta-Phase ist und allen Langdock-Nutzern zur Verfügung steht! 🎉
Canvas ist unsere interaktive Bearbeitungsoberfläche um eure Schreib- und Programmieraufgaben zu vereinfachen. Mit Canvas könnt ihr Texte und Code direkt bearbeiten und dabei Vorschläge von der KI erhalten.
Diese Version enthält einige wichtige Updates, die auf eurem Feedback seit dem Start der Beta-Phase basieren. Vielen Dank an alle, die mit ihren Ideen und Vorschlägen zur Entwicklung der Canvas-Funktion beigetragen haben.
Highlights dieser Version:
- Optimierte Benutzeroberfläche: Wir haben die Nutzeroberfläche übersichtlicher gestaltet, um eure Arbeitsabläufe reibungsloser und intuitiver zu gestalten.
- Integrierte Codierungswerkzeuge: Ihr könnt nun Code direkt über das integrierte Terminal in Canvas generieren und ausführen.
- Als Datei herunterladen: Du kannst dein Canvas jetzt als PDF-, Word- und Markdown-Dokument herunterladen.
- Vereinfachte Modellauswahl: Es ist nicht mehr erforderlich, ein separates Canvas-Modell auszuwählen; alles funktioniert nahtlos mit den Hauptmodellen, die ihr bereits täglich verwendet.
Ihr könnt das Modell auffordern, Canvas zu verwenden, oder alternativ den Canvas-Modus durch Klicken auf die Schaltfläche im Chatfeld aktivieren.
Wir sindständig bemüht, Canvas zu verbessern, und freuen uns auf euer Feedback.
- Verbesserte „Neuer Chat“ und „Suche“ Buttons: Wir haben das Design der Buttons in der Navigationsleiste verbessert, um einen neuen Chat zu öffnen und die Befehlsleiste zu öffnen.
- Aktionsberechtigungen: Adminis können jetzt Zugriffsberechtigungen für einzelne Aktionen definieren, indem sie einzelnen Benutzern und/oder Gruppen Zugriff gewähren. Sie können zur Integration gehen, die verwaltet werden soll, und dort die Berechtigungen für einzelne Aktionen einstellen.
- Neue Integrationen: Wir haben Integrationen zu Monday und Google Meet (zum Abrufen von Transkripten) hinzugefügt
- Neue Dateiformate: Die Dateiformate .dotx, .rtf, .kml, .gml, .dxf, .gpx, .shp, .shx, .dbf und .prj werden jetzt unterstützt.
- Verbesserter Upload von Dokumenten: Wir haben das Upload-Verhalten von Dateien verbessert, insbesondere für größere Mengen an Dateien.
- Mermaid-Diagramme: Mermaid-Flussdiagramme können jetzt auch als Bilder heruntergeladen werden.
Neues Modell verfügbar!
Gemini 2.5 Flash and Gemini 2.5 Pro
Wir freuen uns, euch mitteilen zu können, dass Gemini 2.5 Flash und Gemini 2.5 Pro jetzt bei Langdock erhältlich sind! 🚀

Gemini 2.5 Flash ist das schnellere und effizientere Modell der Version 2.5, das für Echtzeit-Aufgaben mit hohem Datenvolumen entwickelt wurde. Es liefert schnelle Antworten, unterstützt bis zu 1 Million Kontext-Token und eignet sich ideal für sofortiges Schreiben, Zusammenfassen und Fragen und Antworten.
Perfekt für Assistenten und Chats, bei denen Geschwindigkeit und Effizienz am wichtigsten sind.
Gemini 2.5 Pro ist das fortschrittlichste Modell von Google für komplexe Schlussfolgerungen, Codierung und multimodale Aufgaben. Vergleichbar mit den Modellen „Claude Sonnet“ und „o“ von OpenAI ist Gemini 2.5 Pro ideal für Strategie-, Recherche- und Programmieraufgaben, die fortgeschrittene Problemlösungsfähigkeiten erfordern.
Beide Modelle sind jetzt verfügbar – wählt Flash für Schnelligkeit und Effizienz oder Pro für Intelligence und Tiefe.
Workspace-Administratoren können diese Modelle in den Workspace-Einstellungen unter der Registerkarte „Modelle” aktivieren.
GPT-4.1 and o4 Mini
Wir freuen uns, bekannt zu geben, dass GPT-4.1 und o4 Mini jetzt in der EU gehostet und in Langdock verfügbar sind. 🙌

GPT-4.1 ist die neueste Version der GPT-4-Serie und bietet bessere Leistung in Geschwindigkeit und Qualität als die vorherige Version. Wir haben GPT-4.1 als Standardmodell für alle neuen Workspaces auf Langdock festgelegt. Zusätzlich wurden alle Workspaces, die zuvor auf GPT-4o, GPT-4o Mini oder GPT-4 eingestellt waren, auf GPT-4.1 als Standardmodell migriert.
Außerdem freuen wir uns, o4 Mini als neues Modell für Langdock vorzustellen. o4 Mini wurde für schnelles, effizientes Denken entwickelt und ist hervorragend geeignet, komplexe Anweisungen, Programmierung und strategische Aufgaben zu bewältigen. Ähnlich wie o3 Mini bietet es eine starke Balance zwischen Geschwindigkeit und Genauigkeit.
- Einstellung von GPT-4: Wie im letzten Changelog mitgeteilt, wird GPT-4 bis Ende dieser Woche auf Langdock vollständig eingestellt, nachdem Microsoft Azure die Unterstützung dafür eingestellt hat. Assistenten, die zuvor GPT-4 verwendet haben, verwenden nun automatisch das Standardmodell des Workspaces oder GPT-4.1.
Claude Sonnet 4
Wir haben die neue Claude-Version in Langdock integriert! 🚀

Claude Sonnet 4 ist der Nachfolger von Sonnet 3.7, ein Modell, das von vielen unserer Nutzer für Texterstellung, Programmierung und Problemlösungsaufgaben bevorzugt wird.
Wie bei Sonnet 3.7 bietet auch Sonnet 4 die Möglichkeit, für komplexe Aufgaben Reasoning zu nutzen. Aus diesem Grund haben wir die Modi als zwei separate Modelle hinzugefügt: Claude Sonnet 4 (Preview) und Claude 4 (Reasoning Preview).
Die neuen Funktionen von Claude Sonnet 4 umfassen:
- Texterstellung: Wie frühere Sonnet-Versionen behält Claude Sonnet 4 seine Stärke bei der Erstellung natürlicher, menschenähnlicher Texte für Schreibaufgaben bei, darunter E-Mails, Übersetzungen und Content-Erstellung.
- Verbesserte Programmierleistung: Sonnet 4 überzeugt bei Programmieraufgaben, von der Generierung von Lösungen bis hin zur Navigation durch komplexe Codebasen mit nahezu null Fehlern.
- Verbesserte Steuerbarkeit: Das Modell bietet mehr Kontrolle über sein Verhalten und ermöglicht es Ihnen, seine Antworten an Ihre spezifischen Bedürfnisse anzupassen.
- Optimierte Effizienz: Sonnet 4 wurde entwickelt, um Leistungsfähigkeit und Praktikabilität in Balance zu halten und ist ideal für Assistenten, die sowohl Geschwindigkeit als auch Tiefe erfordern.
- Einstellung von GPT-4 Turbo: Am 8. Juni wird GPT-4 Turbo in Langdock eingestellt. Microsoft Azure beendet die Unterstützung für dieses Modell, und die neueren Modelle GPT-4o und GPT-4.1 bieten verbesserte Leistung und Geschwindigkeit. Assistenten, die GPT-4 Turbo verwenden, werden auf das Standard-Modell des Arbeitsbereichs umgestellt.
- Export von Assistenten-Feedback: Assistenten-Editoren können jetzt das Feedback aus den Nutzungseinblicken als CSV-Datei exportieren.
Mobile App
Die Langdock Mobile Apps sind jetzt live! Du kannst Langdock jetzt als Android- oder iOS-App herunterladen und KI direkt von deinem Handy aus nutzen.

Ab jetzt kannst du Langdock überall verwenden. Du kannst zwischen deinen Modellen wählen, den Chat nutzen und deine Assistenten verwenden.
Außerdem haben wir eine stark nachgefragt neue Funktion hinzugefügt: Du kannst jetzt deine Stimme als Eingabe verwenden, Langdock wird sie transkribieren und als Prompt abschicken. Achte auf das Mikrofon-Symbol im Eingabefeld!
Um die App herunterzuladen, gehe in den Apple App Store hier oder den Google Play Store hier.
- Spracheingabe im Browser: Neben der Spracheingabe in der mobilen App kannst du diese Funktion jetzt auch nutzen, wenn du Langdock im Browser verwendest.
- Assistenten Management: Admins haben jetzt mehr Möglichkeiten, Assistenten im Workspace zu verwalten. Admins können bestimmte Assistenten verifizieren, um sie in der Assistentenliste hervorzuheben, und können den Owner eines Assistenten neu zuzuweisen, falls der vorherige Owner das Unternehmen verlassen hat. Siehe Workspace-Einstellungen.
- Neue Integrationen: Wir haben neue Integrationen hinzugefügt, darunter Salesforce, GitHub, Slack, Airtable, Zendesk, Snowflake und DeepL.
- Erhöhtes Zeichenlimit für Textdateien: Wir haben das Limit für Textdateien von 2M auf 4M Zeichen erhöht.
- Admin Modus für Integrationen: Admins können jetzt alle Integrationen testen, bevor sie für den gesamten Workspace freigeschaltet werden. Der Zugriff auf Integrationen kann in den Workspace-Einstellungen verwaltet werden.
Neue GPT-4o Version
Die neueste Version von GPT-4o ist jetzt auf der Plattform verfügbar und bringt verbesserte Antwortqualität sowie schnellere Reaktionszeiten mit sich! 🚀
Zur Vereinfachung wurden die bisher getrennten Versionen "GPT-4o (latest)" und das reguläre "GPT-4o" zusammengeführt. Bei der Auswahl von "GPT-4o" wird nun automatisch die aktuellste Version bereitgestellt.
Die GPT-4o Bildgenerierungsfunktion, die vor einigen Tagen angekündigt wurde, ist aktuell noch nicht auf EU-Servern verfügbar. Wir werden diese Funktionalität hinzufügen, sobald dies der Fall ist.
Darüber hinaus wurden folgende oft gewünschte Verbesserungen vorgenommen:
- Formatierung beim Kopieren: Beim manuellen Kopieren von Textpassagen aus Chat-Antworten und Assistenten bleibt die Formatierung nun erhalten – genau wie beim Verwenden der Kopier-Funktion
- Native Mermaid-Diagrammunterstützung: Mermaid-Diagramme können nun direkt in unserem Chat erstellt werden. Dazu zählen Flussdiagramme, Sequenzdiagramme und viele mehr
- o3 mini via API: OpenAI's o3 Mini Reasoning-Modell ist jetzt über unsere API verfügbar
- Tabellenformatierung: Wir haben die Formatierung von Tabellen im Chat verbessert. Dies umfasst das Erscheinungsbild, das Kopierverhalten und die Möglichkeit, eine CSV der generierten Tabellen herunterzuladen
Neue Integrationen
Wir haben unsere neuen Integrationen gelauncht! Es ist jetzt viel einfacher, andere Software-Tools in Langdock zu integrieren, um Information abzurufen und Aktionen auszuführen. Das Update besteht aus drei Hauptteilen:
- 20+ native Integrationen sind ab sofort in Langdock verfügbar
- Integrationen für eure eigenen Tools können jetzt viel einfacher erstellt werden
- Verbesserungen bestehender Integrationen und Wissensordner

Neue Integrationen und Aktionen
Wir haben die Integration externer Tools in eure Assistenten erleichtert und viele neue Integrationen für die Tools gebaut, die unsere Kunden nutzen. Zum Beispiel könnt ihr jetztdie folgenden Integrationen nutzen: Jira, HubSpot, Google Sheets, Excel, Outlook, Google Kalender und Google Mail.
Damit könnt ihr Aktionen hinzufügen, die eure Assistenten ausführen können. Zum Beispiel:
- Schreiben von E-Mail-Entwürfen und Senden an Google Mail oder Outlook
- Erstellen oder Aktualisieren von Deals in HubSpot
- Schreiben und Aktualisieren von Tickets in Jira
- Einen Eintrag in ein Google Sheet oder ein Excel Sheet hinzufügen
- Eine Nachricht in einem Microsoft Teams-Chat senden
- Und viele mehr...
Hier findet ihr weitere Details zur Nutzung. Wenn euch eine Integration oder eine spezifische Aktion fehlt, lasst es uns gerne wissen!
Eigene Tools integrieren
Das Langdock-Team wird in den kommenden Wochen Integrationen zu allen Standardsoftware-Tools erstellen. Wenn wir (noch) keine Integration haben oder ihr ein internes Tool integrieren möchtet, könnt ihr eure eigenen Integrationen erstellen.
Wir haben die vorherigen OpenAPI-Schema-basierten Integrationen mit einem einfacheren Integrations-Builder ersetzt. Dieser ermöglicht es auch, eigenes JavaScript zu schreiben, um alle Arten von Sonderfällen abzudecken. Die Integrationen/Aktionen leben jetzt außerhalb der Assistenten, sodass ihr sie in mehreren Assistenten teilen und wiederverwenden könnt. Ihr könnt diesem Guide folgen, um eure eigenen REST-API-basierten Integrationen einzurichten.
Verbesserungen bestehender Integrationen und Wissensquellen
Wir haben auch die Oberfläche und das Nutzung bestehender Integrationen verbessert. Hier sind die wichtigsten Änderungen:
- Wenn ihr ein Dokument von einer Integration (z.B. SharePoint oder Google Drive) als Assistentenwissen anhängt, aktualisieren wir jetzt den Inhalt des Dokuments alle 24 Stunden. Dies stellt sicher, dass ihr immer mit der neuesten Version des Dokuments in euren Langdock-Assistenten arbeitet. Ihr könnt ein Dokument auch jederzeit manuell aktualisieren.
- Wissensordner können jetzt mit Nutzern, Gruppen und dem Workspace geteilt werden (ähnlich wie Assistenten). Die Wissensordner wurden von den Kontoeinstellungen in das Integrationsmenü verschoben, um sie sichtbarer zu machen.
- Wenn ihr bereits eigene Aktionen in einem Assistenten erstellt habt, sind diese weiterhin für einige Zeit verfügbar. Diese sind als read-only markiert, da sie am 30. April eingestellt werden. Wir empfehlen, eure bestehenden Aktionen auf unsere neuen, verbesserten Aktionen zu migrieren. Wenn eure Aktion noch nicht sofort verfügbar ist, lasst es uns wissen, wenn ihr Hilfe bei der Migration benötigt.
- Vektordatenbanken wurden ebenfalls von individuellen Assistenten in das Integrationsmenü verschoben, um die Wiederverwendung von Verbindungen zu diesen zu erleichtern. Assistenten mit bestehenden Vektordatenbanken wurden entsprechend migriert, um sicherzustellen, dass sie wie zuvor funktionieren.
Zusätzliche Informationen für Workspace-Admins:
- Standardmäßig sind alle Integrationen aktiviert. Ihr könnt hier konfigurieren, welche Integrationen in eurem Workspace aktiviert werden sollen.
- Workspace-weite Integrationen (Google Drive & Confluence über Service Accounts) sind jetzt zugunsten der neuen Integrationen eingestellt. Bitte informiert eure Nutzer, damit sie die Integrationen manuell konfigurieren können. Die Funktionen und Berechtigungen sind komplett über die neuen Integrationen abgedeckt.
- Die Berechtigungen pro Nutzerrolle haben sich geändert, um das neue Integrations-Framework abzubilden: Die Berechtigungen „Vektordatenbanken verbinden“ und „Aktionen verbinden“ wurden entfernt, und die neuen Berechtigungen sind „Wissensordner teilen“ und „Integrationen erstellen“.
Diese neuen Integrationen werden viele weitere Use Cases in Langdock ermöglichen, und dieses Update ist erst der Start. In den kommenden Wochen werden wir viele weitere Funktionen hinzufügen, um mit allen möglichen Arten von Daten in Langdock zu arbeiten. Mehr dazu bald!
Geschwindigkeitsverbesserungen
Wir haben umfangreiche Geschwindigkeitsverbesserungen auf unserer gesamten Plattform erreicht! Während wir kontinuierlich an der Antwortgeschwindigkeit der Modelle arbeiten, haben wir jetzt dafür gesorgt, dass alles andere auch viel schneller läuft. Außerdem haben wir einige oft angefragte Verbesserungen an unserer Chat-Eingabe und API veröffentlicht.
- Embedding Modelle in der API: Das OpenAI ada-002 Embedding Modell ist jetzt über unsere API verfügbar und kann für die Personalisierung, Empfehlung und Suche von Inhalten verwendet werden
- Wissensordner + Assistenten-API: Wissensordner sind jetzt vollständig auch mit der Assistenten-API nutzbar
- Anzeige der Zeichenzahl: Das Texteingabefeld bietet jetzt bei Überschreitung der Zeichengrenzen eine visuelle Rückmeldung, die die Zeichenzahl anzeigt und das Feld rot einfärbt
Claude 3.7 Sonnet, o3 Mini und Gemini 2.0
Wir haben drei leistungsstarke neue Modelle zu Langdock hinzugefügt: Claude 3.7 Sonnet, OpenAI's o3 Mini und Gemini 2.0 Flash.

Claude 3.7 Sonnet
Claude 3.7 Sonnet ist der Nachfolger von 3.5, einem der meistgenutzten Modelle in unserer Plattform. Die vorherige Version 3.5 wird bereits von vielen Nutzern für Schreibaufgaben wie E-Mails oder Übersetzungen und für Programmierung verwendet.
Die Besonderheit des Modells sind zwei verschiedene Modi, die als verschiedene Modelle in der Modellauswahl wählbar sind:
- Der erste Modus ermöglicht es Nutzern, das Modell als reguläres LLM agieren und für einfachere Aufgaben sofort die Antwort zu generieren (zum Beispiel E-Mails schreiben oder Texte zu übersetzen).
- Der Reasoning Modus kann vom Modell genutzt werden, um vor der Antwortgenerierung zu reflektieren, um eine bessere und tiefere Antwort für komplexe Probleme zu finden (zum Beispiel Strategie oder Mathematik).
Wir haben die Modi als zwei separate Modelle hinzugefügt(Claude 3.7 Sonnet und Claude 3.7 Reasoning).
o3 Mini
o3 Mini ist das neueste und effizienteste Modell der Reasoning-Serie von OpenAI.
Es verwendet wie o1, r1 von DeepSeek oder das oben erwähnte Claude 3.7 Sonnet Modell Chain-of-Thought-Denken, um eine Aufgabe in mehrere Schritte zu unterteilen. Dies macht die Modelle nützlich für komplexe Aufgaben wie Mathematik, Physik, komplexe Anweisungen, Programmierung oder komplexe strategische Aufgaben.
o3 Mini ist das neueste und effizienteste von OpenAls Reasoning Serie. o1 ist das generellere Reasoning Modell und o3 Mini st schneller im Vergleich dazu. Da o3 Mini es ermöglicht, den Reasoning Aufwand zu kontrollieren, haben wir sowohl den Standard als auch den erweiterten Reasoning Modus als zwei verschiedene Modelle hinzugefügt (o3 Mini and o3 Mini High).
Gemini 2.0 Flash
Wir haben auch das neue Gemini 2.0 Flash Modell hinzugefügt, das jetzt auch in der EU verfügbar ist. Das Flash-Modell der vorherigen Gemini 1.5 Generation war das schnellere, kleinere Modell im Vergleich zum größeren und fortschrittlicheren Gemini 1.5 Pro. Das neue Gemini 2.0 Flash übertrifft Gemini 1.5 Pro bei wichtigen Benchmarks und ist dabei doppelt so schnell.
Assistenten-Formulare
Wir führen eine neue Art der Interaktion mit Assistenten bei Langdock ein: Assistenten-Formulare. Beim Erstellen eines Assistenten können Assistentenersteller jetzt die neue Eingabemethode über Formulare wählen, bei der sie die Eingabefelder definieren können, die den Nutzern angezeigt werden.
Ihr könnt ein Interface erstellen, um die Nutzereingaben zu strukturieren, um qualitativ hochwertige Ergebnisse zu erhalten - ähnlich wie bei Umfrageformularen. Wenn Benutzer einen Assistenten mit der neuen Eingabemethode verwenden, wird ihnen das Formular angezeigt, das der Assistentenersteller konfiguriert hat. Ihr könnt Eingaben verwenden, die ihr von anderen Tools kennt, wie:
- Einzeiliger Text
- Checkboxen
- Datei-Upload
- Dropdown-Auswahl
- Zahlen
- Datum
Dies gibt den Erstellern von Assistenten mehr Flexibilität bei der Erstellung von Assistenten und ermöglicht es ihnen, die Eingabestruktur auf Ihre spezifischen Bedürfnisse zuzuschneiden, während es für andere Benutzer einfacher wird, den Assistenten zu verwenden.
Erinnerung
Das Erinnerungs-Feature ermöglicht eine tiefere Personalisierung der Modellantworten, da Informationen aus früheren Interaktionen in der Applikation gespeichert werden können.

Wenn du Erinnerungen verwendest, kannst du das Modell anweisen, bestimmte Informationen über dich, deine Arbeit oder deine Präferenzen in der Applikation zu speichern. Du kannst zum Beispiel anweisen:
- Sich an bestimmte Aufgaben deines Jobs zu erinnern
- Sich eine Vorliebe für einen bestimmten Schreibstil merken.
- Sich deinen Namen und andere persönliche Informationen merken
Das Erinnerungs-Feature ist standardmäßig deaktiviert. Um es zu verwenden, gehe zu den Präferenzen in den Einstellungen. Dort kannst du die Funktion im Abschnitt „Fähigkeiten“ aktivieren.
Alle Erinnerungen werden in deinem Profil gespeichert und stehen dann in allen Chats (nicht in Chats mit Assistenten) zur Verfügung. Sie sind für andere Nutzer in deinem Workspace nicht zugänglich.
- OpenAI o3 mini: Wir haben das neue OpenAI o3 mini Modell hinzugefügt. Admins können es in den Einstellungen konfigurieren. Wir beziehen das Modell von Microsoft Azure (global Standard).
- Erhöhung der Passwortanforderungen: Wir haben die Mindestanzahl an Zeichen erhöht, die ein Passwort haben muss. Wir empfehlen die Verwendung eines Passwort-Managers, den Magic-Email-Link-Login oder den Login über SSO.
- Langfuse Integration: Wir haben eine Langfuse-Integration hinzugefügt, die es technischen Nutzern ermöglicht, die Performance von Assistenten zu analysieren.
- Prompt-Variablen: Wir unterstützen jetzt die mehrfache Verwendung derselben Variable in Prompts.
DeepSeek R1

Langdock unterstützt jetzt das neue R1-Modell des chinesischen KI-Unternehmens DeepSeek hinzugefügt. R1 hat viel Aufmerksamkeit in den Medien für die starke Leistung erhalten. Das Modell ist vergleichbar mit der o1-Serie des Konkurrenten OpenAI.
Das R1-Modell ist in verschiedenen Versionen verfügbar. Wir hosten die 32B-Version auf unseren eigenen Servern in der EU und nutzen die volle 671B-Version von Microsoft Azure in den USA. Da das Modell noch sehr jung ist und sich auf Reasoning fokussiert, haben wir Tools wie Dokumentenupload, Websuche und Datenanalyse aktuell deaktiviert.
Admins können das Modell in den Einstellungen konfigurieren.
Audio & Video im Chat
Wir freuen uns, dass ihr ab sofort direkt im Chat mit Audio- und Videodateien arbeiten könnt.

Lade deine Aufnahmen (bis zu 200MB) hoch, und unser System transkribiert sie automatisch, sodass du Gespräche über den Inhalt führen kannst.
Allen gängigen Formaten wie MP4, MP3, WAV und MPEG können hochgeladen werden. Egal ob du ein Team-Meeting nachbereiten möchtest, ein Kundengespräch analysieren oder eine Sprachnotiz verarbeiten möchtest - lad einfach die Datei hoch und stelle deine Fragen zum Inhalt.
- Llama 3.3 Modell: Wir haben das neue Llama 3.3 70B Modell hinzugefügt.
- OpenAI o1: Langdock unterstützt jetzt das o1-Modell von OpenAI. Allerdings ist es nur als Global Deployment verfügbar, weshalb Anfragen potenziell auch außerhalb der EU verarbeitet werden können. Das Modell ist standardmäßig ausgeschaltet, Admins können es aber in den Modelleinstellungen aktivieren.
- Amazon Nova Modelle: Wir haben die Nova Modelle von Amazon hinzugefügt. Aktuell sind diese nur in den USA verfügbar.
- Gemini als Backbone Modell: Admins können Gemini Modelle als Backbone Modell festlegen. Das Backbone Model definiert Aufgaben im Hintergrund für einige Modelle.
Web Modus
Langdock bietet jetzt einen verbesserten Web Modus, der schnelle und aktuelle Antworten mit Links zu relevanten Quellen im Internet bietet.
Wenn in deinem Workspace Web Suche aktiviert ist, kannst du die Web Suche im neu designten Chatfeld auswählen. Dies zwingt das Modell, im Internet nach aktuellen Informationen und Neuigkeiten zu suchen.
- Kopieren einer Antwort: Nutzer können jetzt Antworten kopieren, während sie noch generiert werden.
- API Limits: Admins können in den API Einstellungen Ausgabenlimits festlegen.
- Prompt Bibliothek: Das Layout der Prompt Bibliothek wurde verbessert, um mehr Inhalte der gespeicherten Prompts zu zeigen.
- Lange Chats: Das Verhalten und Rendering von Nachrichten wurde verbessert, was zu einem besseren Verhalten in langen Chats führt.
- Datenanalyst: Wir haben einige größere Verbesserungen für den Datenanalysten gemacht, die dessen Performance verbessern.
- Hochladen von Python, HTML, CSS, JS, PHP: Du kannst jetzt weitere Dateitypen hochladen.