— COMPLIANCE
EU AI Act — Unsere Position
MERIDIAN entwickelt und betreibt KI-Systeme für Enterprise-Kunden in der EU. Diese Seite skizziert unsere Compliance-Position zur Verordnung (EU) 2024/1689 (EU AI Act).
Risiko-Klassifizierung
Jedes Engagement startet mit einem Risiko-Audit nach Art. 6 EU AI Act. Wir klassifizieren AI-Systeme in:
- Verbotene Praktiken (Art. 5) — wir bauen sie nicht.
- Hochrisiko-Systeme (Annex III) — vollständige Konformitätsbewertung, technische Dokumentation, Risk-Management-System, menschliche Aufsicht.
- Begrenztes Risiko — Transparenzpflichten (z. B. Chatbot-Hinweise, AI-Generated-Labels).
- Minimales Risiko — freiwillige Best Practices.
Technische Dokumentation (Art. 11)
Für jedes ausgelieferte System pflegen wir:
- System-Architektur und Datenflüsse
- Trainings-, Validierungs- und Testdaten-Beschreibung
- Performance-Metriken, Limitationen, bekannte Bias-Risiken
- Monitoring-Setup und Incident-Response-Plan
Menschliche Aufsicht (Art. 14)
Hochrisiko-Systeme werden niemals ohne klar definierte Eskalations-Pfade ausgeliefert. Default ist Human-in-the-Loop für Entscheidungen mit signifikanter individueller Auswirkung.
Daten-Governance (Art. 10)
Trainingsdaten werden auf Repräsentativität, Vollständigkeit und Bias geprüft. Wir dokumentieren Datenherkunft und Verarbeitungsschritte. PII wird grundsätzlich nicht in Trainings-Pipelines genutzt, ohne dass Pseudonymisierung oder synthetische Augmentierung greift.
General-Purpose-AI (Art. 51 ff.)
Wir nutzen GPAI-Modelle (OpenAI, Anthropic, Mistral, Llama) als Bausteine. Für jedes Engagement dokumentieren wir die verwendete Modell-Version, Provider und vertragliche Schutzklauseln.
Inkrafttreten
Wesentliche Regelungen sind seit August 2024 (Verbote: Februar 2025; GPAI: August 2025; Hochrisiko: August 2026) in Kraft. Unsere Roadmap ist auf vollständige Konformität bis Q3/2026 ausgelegt.
Kontakt für Compliance-Fragen
Hinweis: Diese Seite ist Teil einer fiktiven Demo-Webseite und stellt keine Rechtsberatung dar.