
Certified Responsible AI Governance and Ethics (CRAGE)
Ziele der Schulung
In dieser 3-tägigen Schulung "Certified Responsible AI Governance and Ethics (CRAGE)" lernen Sie, AI-Governance über Teams hinweg effektiv zu leiten und umzusetzen. Sie erwerben praxisnahe Fähigkeiten zum Aufbau und Management regulatorisch konformer AI-Programme. Sie werden befähigt, AI-Systeme systematisch zu testen, zu validieren und zu auditieren. Sie lernen, AI-Risiken zu identifizieren, zu bewerten und Drittanbieter-Risiken sicher zu managen. Die Schulung vermittelt die Entwicklung und Umsetzung einer unternehmensweiten AI-Strategie mit klaren Verantwortlichkeiten. Die Teilnehmer können ethische Standards, Compliance-Vorgaben und Richtlinien für verantwortungsvolle AI in der Praxis anwenden. Nach Abschluss sind sie auf Rollen wie Chief AI Officer, AI Compliance Manager oder AI Governance Lead vorbereitet.
Der Certified Responsible AI Governance and Ethics (CRAGE) wird von einem zertifizierten und erfahrenen EC-Council Trainer durchgeführt. Die Prüfungsgebühr ist im Preis enthalten.
Zielgruppe Seminar
- GRC (Governance, Risk & Compliance) Teams
- Legal & Datenschutz Profis (DPOs)
- Führungskräfte / Vorstände
- AI Governance Leads
Voraussetzungen
- Mehrjährige Berufserfahrung in Governance, Compliance, Risiko-Management, IT-Audit, Datenschutz oder verwandten Bereichen.
- Grundkenntnisse in KI/ML, DataOps/MLOps oder IT-Systemarchitektur, um die technischen Module nachvollziehen zu können.
- Erfahrung mit regulatorischen Anforderungen, ethischen Richtlinien und Risikomanagement in Unternehmen.
- Fähigkeit zur funktionsübergreifenden Zusammenarbeit zwischen IT, Legal, Security, Management und Operations.
Lernmethodik
Die Schulung bietet Ihnen eine ausgewogene Mischung aus Theorie und Praxis in einer erstklassigen Lernumgebung. Profitieren Sie vom direkten Austausch mit unseren projekterfahrenen Trainern und anderen Teilnehmern, um Ihren Lernerfolg zu maximieren.
Seminarinhalt
Modul 1: AI Foundations and Technology Ecosystem
- Grundlagen und Kernkomponenten von Künstlicher Intelligenz
- Maschinelles Lernen und Deep Learning
- Computer Vision und Natural Language Processing (NLP)
- Generative AI und Large Language Models (LLMs)
- Anwendungen von KI in verschiedenen Branchen
- AI-Projektlebenszyklus: MLOps, DataOps, Deployment
- AI-Technologie-Stack, Infrastruktur und Integration
Modul 2: AI Concerns, Ethical Principles, and Responsible AI
- Herausforderungen, Risiken und ethische Bedenken bei KI
- Grundprinzipien der KI-Ethik
- Globale Standards und Frameworks für verantwortungsvolle KI (OECD, UNESCO, IEEE, DoD)
- Praktische Umsetzung verantwortungsvoller KI im Unternehmen
- Integration von Responsible AI in den KI-Entwicklungszyklus
Modul 3: AI Strategy and Planning
- Bedeutung und Komponenten der KI-Strategie
- Entwicklung einer klaren AI-Vision und Bewertung der organisatorischen Reife
- Identifikation und Priorisierung von KI-Anwendungsfällen
- Modernisierung von Daten- und AI-Infrastrukturen
- Durchführung und Bewertung von KI-Pilotprojekten
- Governance, ethische Prinzipien, Risikomanagement
- Skalierung von KI-Lösungen und organisatorischer Wandel
- Performance-Monitoring, Budgetierung und Ressourcenplanung
Modul 4: AI Governance and Frameworks
- Einführung in AI-Governance und Rollenmodelle
- Aufbau von Governance-Strukturen, Richtlinien und Entscheidungskompetenzen
- Vergleich verschiedener Governance-Modelle
- Globale Governance-Frameworks und deren Prinzipien
- Governance entlang des gesamten KI-Lebenszyklus
- Verwaltung von AI-Assets und Dokumentation
- Menschliche Aufsicht und Eskalationsprozesse
- Tools und Plattformen zur Unterstützung der AI-Governance
Modul 5: AI Regulatory Compliance
- Bedeutung von KI-Compliance und organisatorische Vorteile
- Globale und regionale AI-Regelwerke (z. B. EU AI Act, US Guidelines)
- Compliance-Anforderungen in kritischen Branchen (Healthcare, Finance, Justice, etc.)
- Verantwortlichkeiten, Haftung und Nutzungsrechte
- Operative Compliance-Anforderungen und kontinuierliche Überwachung
- Management von rechtlichen Risiken, Versicherung, Streitbeilegung
Modul 6: AI Risk and Threat Management
- Risiken, Bedrohungen und Schwachstellen von KI-Systemen
- AI-Risikobewertungstechniken und Analyse-Tools
- AI-Risikomanagement-Frameworks (NIST, ISO/IEC, OECD)
- Bedrohungsmodellierung und Angriffssurface-Analyse
Modul 7: Third-Party AI Risk Management and Supply Chain Security
- Risiken durch Drittanbieter und Lieferketten
- TPRM-Framework zur Bewertung von Drittanbietern
- Rechtliche und regulatorische Anforderungen bei Drittanbieter-KI
- End-to-End-Beschaffungsprozess und Due-Diligence
- Erstellung von AI-Verträgen, SLAs und Haftungsregelungen
- Kontinuierliche Überwachung und Lifecycle-Management von Drittanbietern
- Fallstudien zu Governance- und Compliance-Lücken
Modul 8: AI Security Architecture and Controls
- Prinzipien der AI-Sicherheitsarchitektur
- Frameworks zur Sicherung von Modellen, Daten und Infrastruktur
- Sichere Designprinzipien und Defense-in-Depth-Strategien
- Sichere Entwicklung, Code-Management und Modell-Security
- Sicherheitskontrollen bei Deployment und Betrieb
Modul 9: Building Privacy, Trust, and Safety in AI Systems
- Datenschutztechniken und Privacy by Design
- Bewertung und Minderung von Datenschutzrisiken
- Transparenz, Vertrauensbildung und Sicherheit in KI-Systemen
- Nutzerzentrierte Interaktionen, ethische Leitlinien und Fairness
- Monitoring und Audits zur Vertrauenssicherung
Modul 10: AI Incident Response and Business Continuity
- Aufbau von KI-spezifischen Incident-Response-Strategien
- Lebenszyklus der KI-Vorfallerkennung, Containment und Recovery
- Kommunikation, regulatorische Meldungen und Kundeninformation
- Business-Continuity-Strategien und Disaster-Recovery für KI
Modul 11: AI Assurance, Testing, and Auditing
- Prinzipien, Mechanismen und Frameworks der AI-Absicherung
- Teststrategien für Daten, Modelle, Performance und Sicherheit
- Pre-Deployment- und Post-Deployment-Validierung
- Bewertung von Bias, Fairness, Transparenz und Sicherheitslücken
- Durchführung von KI-Audits und Risiko-basierten Prüfungen
- Überwachung von Emerging Technologies und regulatorischen Entwicklungen
Hinweise
Prüfung und Zertifizierung
- Prüfungstitel: Certified Responsible AI Governance and Ethics Professional (C|RAGE)
- Prüfungsdauer: 3 Stunden
- Anzahl der Fragen: 100
- Prüfungsformat: Multiple-Choice-Fragen
- Benötigte Punktzahl: 70%
Open Badge für dieses Seminar - Ihr digitaler Kompetenznachweis

Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erhalten Sie zusätzlich zu Ihrem Teilnehmerzertifikat ein digitales Open Badge (Zertifikat) – Ihren modernen Nachweis für erworbene Kompetenzen.
Ihr Open Badge ist jederzeit in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com-Konto verfügbar. Mit wenigen Klicks können Sie diesen digitalen Nachweis in sozialen Netzwerken teilen, um Ihre Expertise sichtbar zu machen und Ihr berufliches Profil gezielt zu stärken.
Übersicht: EC-Council Schulungen Portfolio
Seminare kurz vor der Durchführung
| 27.04. - 29.04.2026 | Hamburg | ||
| 18.05. - 20.05.2026 | Köln | ||
| 22.06. - 24.06.2026 | Köln | ||
| 08.07. - 10.07.2026 | Nürnberg |



