Jetzt anmelden zur OC3 2025! Sei live in Berlin oder online Teil der Konferenz für Confidential Computing & AI am 27. März.
Continuum
Continuum bietet Ihnen Zugriff auf leistungsstarke Large-Language-Modelle (LLMs) mit bestmöglicher Datensicherheit, abgesichert durch modernste Confidential-Computing-Technologie.
Continuum ist ein Dienst für generative KI wie ChatGPT. Der große Unterschied: Continuum schützt Ihre Daten. Dafür setzt Continuum auf Confidential Computing. Ihre Daten werden schon auf Ihrem Gerät verschlüsselt und bleiben durchgehend geschützt – selbst während der Verarbeitung.
In einer sicheren Umgebung betreibt Continuum modernste LLMs wie Meta Llama 3.1 oder Modelle von Mistral.
Der Continuum-Service bietet eine intuitive API, die nahtlos als Ersatz für die OpenAI-API verwendet werden kann. Die API ermöglicht die automatisierte Verarbeitung großer Mengen sensibler Daten. Zusätzlich gibt es eine browserbasierte Version mit einer vertrauten Chatbot-Oberfläche.
Continuum hält Ihre Daten immer verschlüsselt und schützt sie vor den Cloud- und Service-Anbietern.
Continuum bietet eine OpenAI-kompatible API. Sie müssen lediglich einen einfachen Proxy für die Datenverschlüsselung und Attestierung ausführen. Alternativ steht ein SDK zur Verfügung.
Continuum ist schnell und bietet eine Auswahl modernster Open-Source-LLMs, wie Meta Llama 3.1.
Continuum wird in der EU, den USA und bald auch in anderen Regionen gehostet. Wir setzen auf Azure und andere hochwertige Infrastruktur-Anbieter.
Enterprise
Kundenspezifische Integration
Individuelle Modelle
Support via E-Mail, Chat und Telefon
Kosten senken
Nutzen Sie sichere, cloudbasierte KI, anstatt eigene Kapazitäten vor Ort aufzubauen.
Potenzial freisetzen
Verarbeiten Sie auch die sensibelsten Daten Ihrer Organisation mit Hilfe von KI.
Produktivität steigern
Bieten Sie Ihren Mitarbeitenden einen vertrauenswürdigen und konformen KI-Assistenten.
Vertrauen stärken
Schützen Sie die Daten Ihrer Kunden, während Sie modernste KI-basierte Services anbieten.
In Continuum sind Ihre Daten vollständig vor externem Zugriff geschützt. Anfragen („Prompts“) werden clientseitig mit AES-256 verschlüsselt und nur innerhalb der Confidential-Computing-Umgebung von Continuum entschlüsselt. Diese Umgebung wird durch Intel- und AMD-CPUs sowie Nvidia H100-GPUs gesichert. Während der Verarbeitung bleiben die Daten stets verschlüsselt, sodass sie niemals im Klartext im Hauptspeicher erscheinen.
Die CPUs und GPUs, die die Confidential- Computing-Umgebung von Continuum absichern, stellen kryptografische Zertifikate für alle laufenden Softwareprozesse aus. Damit kann die Integrität des gesamten Continuum-Backends verifiziert werden. Bevor Daten freigegeben werden, erfolgt die Verifizierung auf der Nutzerseite über den Continuum-Proxy oder das SDK.
Continuum ist so konzipiert, dass auf Nutzerdaten weder vom Infrastrukturanbieter (z. B. Azure), noch vom Serviceanbieter (Edgeless Systems) oder Anderen (z. B. dem Anbieter des KI-Modells, wie Meta) zugegriffen werden kann. Confidential-Computing-Mechanismen verhindern den Zugriff von außen, während Sandboxing-Mechanismen und Ende-zu-Ende Remote Attestation vor Datenlecks von innen schützen.
Sep. 30, 2024
Securing AI With Confidential Computing
"This architecture allows the Continuum service to lock itself out of the confidential computing environment, preventing AI code from leaking data. In combination with end-to-end remote attestation, this ensures robust protection for user prompts."
Sep. 24, 2024
General Availability: Azure confidential VMs with NVIDIA H100 Tensor Core GPUs
"With Continuum AI, we've created a framework for the end-to-end confidential serving of LLMs that ensures the highest level of data privacy, setting a new standard in AI inference solutions."
Jul. 2, 2024
Advancing Security for Large Language Models with NVIDIA GPUs and Edgeless Systems
"Edgeless Systems introduced Continuum AI, the first generative AI framework that keeps prompts encrypted at all times with confidential computing by combining confidential VMs with NVIDIA H100 GPUs and secure sandboxing."
Kann ich meine eigene KI-Anwendung mit Continuum erstellen?
Wo wird Continuum gehostet?
Welche KI-Modelle (LLMs) können mit Continuum genutzt werden?
Wie kann ich Continuum testen?
Welche API stellt Continuum bereit?
Kann ich Dateien in Continuum hochladen?
Muss ich Edgeless Systems vertrauen?
Haben Sie Fragen zu Continuum? Hinterlassen Sie Ihre Kontaktdaten und wir melden uns umgehend bei Ihnen.
The form failed to load. Please send an email to contact@edgeless.systems. Loading likely fails because you are using privacy settings or ad blocks.