Souveräne KI, Verantwortungsvolle KI

KI Muss Sicher Eingesetzt Werden.

  • Jeder ungesicherte KI-Einsatz in der öffentlichen Verwaltung ist ein Compliance-Risiko, das sich materialisieren wird.
  • Governance ist nicht optional — sie ist das Compliance-Fundament für jeden Schweizer und europäischen KI-Einsatz.
  • vlinq.ai wurde speziell für den Schweizer und europäischen öffentlichen Sektor entwickelt: souveräne Infrastruktur, DSG/DSGVO-konform, prüfbereit.
VLinq AI Governance Platform screenshot

Governance kann nicht in Dokumentation leben

Statische Richtlinien versagen in dynamischen KI-Umgebungen. Sie benötigen aktive Durchsetzung an jedem Knoten.

Statische Dokumentation

  • Manuelle Compliance-Prüfungen und jährliche Audits
  • Veraltete PDFs und Tabellenkalkulationen
  • Reaktive Incident-Response nach erfolgtem Schaden

vlinq.ai Laufzeit-Durchsetzung

  • Aktives Monitoring und Policy-Injektion unter einer Millisekunde
  • Echtzeit-Blockierung von Halluzinationen und Daten-Redaktion
  • Unveränderliche Audit-Logs für jede einzelne KI-Interaktion

Die Interceptor-Schicht: Sechs Module

Jede verwaltete Anfrage durchläuft diesen Stack — ohne Ausnahmen

FAKTIZITÄTSWÄCHTER

Halluzinationserkennung

Denken-Beobachten-Handeln-Schleifen überprüfen jede LLM-Aussage gegen verifizierte Unternehmensdaten, bevor sie Nutzer erreichen. Fängt Halluzinationen an der Quelle ab — nicht im Sitzungssaal.

PII / PHI SCHWÄRZUNG

Datenmaskierung

Zentrale PII- und PHI-Schwärzung bei jeder Anfrage und Antwort. DSGVO-Konformität wird auf Infrastrukturebene durchgesetzt — ohne benutzerdefinierte Middleware pro Anwendung.

NIST AI RMF KONFORM

Leitplanken & Richtlinien

Ausführbare Regeln mit menschlichen Auslösern für risikoreiche Aktionen. Richtlinienänderungen werden in Sekunden über den gesamten KI-Bestand ausgerollt — ohne Anwendungscode zu berühren.

ADVERSARIELLER SCHUTZ

Missbrauchsprävention

Erkennt Prompt-Injection, Jailbreak-Versuche und richtlinienwidrige Anfragen in Echtzeit. Verhaltensanalyse meldet Missbrauch, bevor er das Modell erreicht.

DYNAMISCHE AUSHANDLUNG

Skill- / Tool-Registry

Verwaltet den vollständigen Lebenszyklus von KI-Tools und -Skills: Erkennung, Autorisierung, Versionskontrolle und Veraltung. Native Unterstützung für MCP und Agent-zu-Agent (A2A) Protokolle.

KAUSALE GÜLTIGKEIT

Neuro-Symbolische Engine

Abduktive Logikprogrammierung testet vorgeschlagene Aktionen gegen konkurrierende Hypothesen. Verschiebt KI-Entscheidungen von lexikalischer Korrektheit zu kausaler Solidität — überprüfbar und erklärbar.

Zero-Trust-Funktionen

Jede Schicht des agentischen Stacks ist abgesichert – von Zugangsdaten bis zur menschlichen Kontrolle.

Dynamisches Credential Vaulting

Einzigartige Anmeldedaten für jeden Nutzer, Agenten und Sub-Agenten (NHIs), sicher in einem dynamischen Vault gespeichert – keine statischen API-Keys im Code.

Just-in-Time-Privilegien

Zugriffsrechte werden nur bei Bedarf erteilt und sofort danach entzogen, unter Wahrung des Least-Privilege-Prinzips mit RBAC und starker Authentifizierung.

Verifizierte Tool-Registry

Eine kuratierte Registry geprüfter APIs, Datenquellen und Tools stellt sicher, dass der KI-Agent nur mit vertrauenswürdigen, sicheren Ressourcen arbeitet.

KI-Firewall / Gateway

Eine übergeordnete Inspektionsschicht überwacht alle Eingaben und Ausgaben und blockiert in Echtzeit Prompt-Injektionen, Datenlecks und unzulässige Systemaufrufe.

Unveränderliches Logging

Manipulationssichere Logs, die Angreifer weder ändern noch löschen können, gewährleisten vollständige Rückverfolgbarkeit jeder Agentenaktion.

Durchgängiges Scanning

Kontinuierliches Scannen auf Netzwerk-, Endpunkt- und KI-Modellebene, um latente Schwachstellen aufzudecken, bevor sie ausgenutzt werden können.

Human-in-the-Loop-Leitplanken

Kill-Switches zum Stoppen unkontrollierter Agenten, Aktivitätsdrosseln zur Begrenzung schädlicher Aktionen und Canary-Deployments zur Verhaltensvalidierung.

Neuro-Symbolische Integration

Wir kombinieren die Schlussfolgerkraft von Large Language Models (LLMs) mit der absoluten Präzision von Knowledge Graphs. Unser Motor injiziert symbolische Logik in neuronale Workflows, um konforme Ergebnisse zu garantieren.

Enthält bewährte Verfahren für eine sichere und verantwortungsvolle KI

Für öffentliche Verwaltungen entwickelt

Massgeschneidert für die Governance-, Rechenschafts- und Compliance-Anforderungen öffentlicher Institutionen — in der Schweiz und in der EU.

Schweizer öffentlicher Sektor

Schweizer öffentliche Verwaltung

Für Kantone, Gemeinden, Bundesstellen und öffentliche Institutionen, die eine souveräne KI-Governance gemäss Schweizer Recht und Datenspeicheranforderungen suchen.

  • Souveräne Bereitstellung — Daten verbleiben in der Schweiz
  • Konform mit dem Schweizer Datenschutzgesetz (revDSG)
  • Erklärbare KI-Entscheidungen mit vollständigen Audit-Trails
Schweizer Demo anfragen
EU Öffentlicher Sektor

EU Öffentliche Verwaltung

Für EU-Behörden, die den KI-Act und die DSGVO navigieren. Entwickelt für Transparenz, Rechenschaftspflicht und compliance-fähige KI-Governance in EU-Mitgliedstaaten.

  • EU KI-Act-konforme Governance-Schicht
  • DSGVO-konforme Datenverarbeitung und -speicherung
  • Prüfbare KI-Entscheidungsprotokolle für Behörden
EU Demo anfragen

Bereit, loszulegen?

Kontaktieren Sie uns, um zu besprechen, wie vlinq.ai auf die spezifischen Anforderungen Ihrer Institution zugeschnitten werden kann.

Demo anfragen

Single-Box Docker

In Minuten auf Ihrer Infrastruktur deployen. Laufzeitumgebung ohne Abhängigkeiten.

Swiss-Made Sicherheit

Entwickelt mit Schweizer Präzision und Privacy-first-Prinzipien.

Cloud-Agnostisch

Kein Vendor-Lock-in. Funktioniert auf AWS, Azure, GCP oder air-gapped On-Premise-Systemen.

Open Source im Kern

Wir glauben, dass die beste Software offen entwickelt wird. Open Source ist keine Strategie — es ist unsere Arbeitsweise.

Nutzung

Gebaut auf Open Source

vlinq.ai basiert auf erstklassigen Open-Source-Projekten. Von unserer Laufzeitumgebung bis zu unseren Sicherheitsprimitiven stützen wir uns auf die kollektive Intelligenz der Open-Source-Gemeinschaft, um ein robustes, nachprüfbares und frei einsehbares Produkt zu liefern. Wir sind transparent über unsere Abhängigkeiten und prüfen jede eingesetzte Bibliothek sorgfältig.

  • Core-Runtime auf Open-Source-Komponenten aufgebaut
  • Alle Abhängigkeiten öffentlich offengelegt
  • Reproduzierbare Builds für vollständige Supply-Chain-Nachvollziehbarkeit
Beitragen

Zurückgeben

Wir leisten aktiv Upstream-Beiträge zu den Projekten, von denen wir abhängig sind. Fehlerbehebungen, Dokumentationsverbesserungen, Sicherheitspatches — wenn wir etwas finden, das der Gemeinschaft nützt, geben wir es zurück. Unsere Ingenieure werden ermutigt, die Pflege von Open Source als Teil ihrer regulären Arbeit zu betreiben.

  • Regelmässige Upstream-Fehlerbehebungen und Patches
  • Sicherheitsmeldungen folgen verantwortungsvollen Prozessen
  • Ingenieure tragen während der Arbeitszeit bei
Veröffentlichen

Eigene Arbeit publizieren

Wo es sinnvoll ist, veröffentlichen wir eigene Tools und Bibliotheken als Open Source. Wir glauben, dass Werkzeuge rund um KI-Governance, Beobachtbarkeit und Sicherheit ein öffentliches Gut sein sollten. Die Veröffentlichung unserer Arbeit ermöglicht es der breiteren Gemeinschaft, zu prüfen, zu erweitern und darauf aufzubauen.

  • KI-Governance-Tooling öffentlich veröffentlicht
  • Community-gesteuerte Roadmap für offene Komponenten
  • Permissive Lizenzen wo immer möglich
en-CHde-CHfr-CHit-CHen-AEen-NZ