Jetzt anmelden zur OC3 2025! Sei live in Berlin oder online Teil der Konferenz für Confidential Computing & AI am 27. März.
Privatemode
Privatemode bietet Ihnen Zugriff auf leistungsstarke Large-Language-Modelle (LLMs) mit bestmöglicher Datensicherheit, abgesichert durch modernste Confidential-Computing-Technologie.
Privatemode ist ein Dienst für generative KI wie ChatGPT. Der große Unterschied: Privatemode schützt Ihre Daten. Dafür setzt Privatemode auf Confidential Computing. Ihre Daten werden schon auf Ihrem Gerät verschlüsselt und bleiben durchgehend geschützt – selbst während der Verarbeitung.
In einer sicheren Umgebung betreibt Privatemode modernste LLMs wie Meta Llama 3.1 oder Modelle von Mistral, und bald auch Deepseek R1.
Der Continuum-Service bietet eine intuitive API, die nahtlos als Ersatz für die OpenAI-API verwendet werden kann. Die API ermöglicht die automatisierte Verarbeitung großer Mengen sensibler Daten. Zusätzlich gibt es eine browserbasierte Version mit einer vertrauten Chatbot-Oberfläche.
Continuum hält Ihre Daten immer verschlüsselt und schützt sie vor den Cloud- und Service-Anbietern.
Continuum bietet eine OpenAI-kompatible API. Sie müssen lediglich einen einfachen Proxy für die Datenverschlüsselung und Attestierung ausführen. Alternativ steht ein SDK zur Verfügung.
Continuum ist schnell und bietet eine Auswahl modernster Open-Source-LLMs, wie Meta Llama 3.1.
Continuum wird in der EU, den USA und bald auch in anderen Regionen gehostet. Wir setzen auf Azure und andere hochwertige Infrastruktur-Anbieter.
Kosten senken
Nutzen Sie sichere, cloudbasierte KI, anstatt eigene Kapazitäten vor Ort aufzubauen.
Potenzial freisetzen
Verarbeiten Sie auch die sensibelsten Daten Ihrer Organisation mit Hilfe von KI.
Produktivität steigern
Bieten Sie Ihren Mitarbeitenden einen vertrauenswürdigen und konformen KI-Assistenten.
Vertrauen stärken
Schützen Sie die Daten Ihrer Kunden, während Sie modernste KI-basierte Services anbieten.
In Privatemode sind Ihre Daten vollständig vor externem Zugriff geschützt. Anfragen („Prompts“) werden clientseitig mit AES-256 verschlüsselt und nur innerhalb der Confidential-Computing-Umgebung von Privatemode entschlüsselt. Diese Umgebung wird durch Intel- und AMD-CPUs sowie Nvidia H100-GPUs gesichert. Während der Verarbeitung bleiben die Daten stets verschlüsselt, sodass sie niemals im Klartext im Hauptspeicher erscheinen.
Die CPUs und GPUs, die die Confidential- Computing-Umgebung von Privatemode absichern, stellen kryptografische Zertifikate für alle laufenden Softwareprozesse aus. Damit kann die Integrität des gesamten Privatemode-Backends verifiziert werden. Bevor Daten freigegeben werden, erfolgt die Verifizierung auf der Nutzerseite über den Privatemode-Proxy oder das SDK.
Privatemode ist so konzipiert, dass auf Nutzerdaten weder vom Infrastrukturanbieter (z. B. Azure), noch vom Serviceanbieter (Edgeless Systems) oder Anderen (z. B. dem Anbieter des KI-Modells, wie Meta) zugegriffen werden kann. Confidential-Computing-Mechanismen verhindern den Zugriff von außen, während Sandboxing-Mechanismen und Ende-zu-Ende Remote Attestation vor Datenlecks von innen schützen.
Kann ich meine eigene KI-Anwendung mit Privatemode erstellen?
Wo wird Privatemode gehostet?
Welche KI-Modelle (LLMs) können mit Privatemode genutzt werden?
Wie kann ich Privatemode testen?
Welche API stellt Privatemode bereit?
Kann ich Dateien in Privatemode hochladen?
Muss ich Edgeless Systems vertrauen?
Haben Sie Fragen zu Privatemode? Hinterlassen Sie Ihre Kontaktdaten und wir melden uns umgehend bei Ihnen.
The form failed to load. Please send an email to contact@edgeless.systems. Loading likely fails because you are using privacy settings or ad blocks.