Header Background
 
 
 
seminar logo

Certified Responsible AI Governance and Ethics (CRAGE)

Seminardauer: 3 Tage

Ziele der Schulung

In dieser 3-tägigen Schulung "Certified Responsible AI Governance and Ethics (CRAGE)" lernen Sie, AI-Governance über Teams hinweg effektiv zu leiten und umzusetzen. Sie erwerben praxisnahe Fähigkeiten zum Aufbau und Management regulatorisch konformer AI-Programme. Sie werden befähigt, AI-Systeme systematisch zu testen, zu validieren und zu auditieren. Sie lernen, AI-Risiken zu identifizieren, zu bewerten und Drittanbieter-Risiken sicher zu managen. Die Schulung vermittelt die Entwicklung und Umsetzung einer unternehmensweiten AI-Strategie mit klaren Verantwortlichkeiten. Die Teilnehmer können ethische Standards, Compliance-Vorgaben und Richtlinien für verantwortungsvolle AI in der Praxis anwenden. Nach Abschluss sind sie auf Rollen wie Chief AI Officer, AI Compliance Manager oder AI Governance Lead vorbereitet.

Der Certified Responsible AI Governance and Ethics (CRAGE) wird von einem zertifizierten und erfahrenen EC-Council Trainer durchgeführt. Die Prüfungsgebühr ist im Preis enthalten.

Zielgruppe Seminar

  • GRC (Governance, Risk & Compliance) Teams
  • Legal & Datenschutz Profis (DPOs)
  • Führungskräfte / Vorstände
  • AI Governance Leads

Voraussetzungen

  • Mehrjährige Berufserfahrung in Governance, Compliance, Risiko-Management, IT-Audit, Datenschutz oder verwandten Bereichen.
  • Grundkenntnisse in KI/ML, DataOps/MLOps oder IT-Systemarchitektur, um die technischen Module nachvollziehen zu können.
  • Erfahrung mit regulatorischen Anforderungen, ethischen Richtlinien und Risikomanagement in Unternehmen.
  • Fähigkeit zur funktionsübergreifenden Zusammenarbeit zwischen IT, Legal, Security, Management und Operations.

Lernmethodik

Die Schulung bietet Ihnen eine ausgewogene Mischung aus Theorie und Praxis in einer erstklassigen Lernumgebung. Profitieren Sie vom direkten Austausch mit unseren projekterfahrenen Trainern und anderen Teilnehmern, um Ihren Lernerfolg zu maximieren.

Seminarinhalt

Modul 1: AI Foundations and Technology Ecosystem

  • Grundlagen und Kernkomponenten von Künstlicher Intelligenz
  • Maschinelles Lernen und Deep Learning
  • Computer Vision und Natural Language Processing (NLP)
  • Generative AI und Large Language Models (LLMs)
  • Anwendungen von KI in verschiedenen Branchen
  • AI-Projektlebenszyklus: MLOps, DataOps, Deployment
  • AI-Technologie-Stack, Infrastruktur und Integration

Modul 2: AI Concerns, Ethical Principles, and Responsible AI

  • Herausforderungen, Risiken und ethische Bedenken bei KI
  • Grundprinzipien der KI-Ethik
  • Globale Standards und Frameworks für verantwortungsvolle KI (OECD, UNESCO, IEEE, DoD)
  • Praktische Umsetzung verantwortungsvoller KI im Unternehmen
  • Integration von Responsible AI in den KI-Entwicklungszyklus

Modul 3: AI Strategy and Planning

  • Bedeutung und Komponenten der KI-Strategie
  • Entwicklung einer klaren AI-Vision und Bewertung der organisatorischen Reife
  • Identifikation und Priorisierung von KI-Anwendungsfällen
  • Modernisierung von Daten- und AI-Infrastrukturen
  • Durchführung und Bewertung von KI-Pilotprojekten
  • Governance, ethische Prinzipien, Risikomanagement
  • Skalierung von KI-Lösungen und organisatorischer Wandel
  • Performance-Monitoring, Budgetierung und Ressourcenplanung

Modul 4: AI Governance and Frameworks

  • Einführung in AI-Governance und Rollenmodelle
  • Aufbau von Governance-Strukturen, Richtlinien und Entscheidungskompetenzen
  • Vergleich verschiedener Governance-Modelle
  • Globale Governance-Frameworks und deren Prinzipien
  • Governance entlang des gesamten KI-Lebenszyklus
  • Verwaltung von AI-Assets und Dokumentation
  • Menschliche Aufsicht und Eskalationsprozesse
  • Tools und Plattformen zur Unterstützung der AI-Governance

Modul 5: AI Regulatory Compliance

  • Bedeutung von KI-Compliance und organisatorische Vorteile
  • Globale und regionale AI-Regelwerke (z. B. EU AI Act, US Guidelines)
  • Compliance-Anforderungen in kritischen Branchen (Healthcare, Finance, Justice, etc.)
  • Verantwortlichkeiten, Haftung und Nutzungsrechte
  • Operative Compliance-Anforderungen und kontinuierliche Überwachung
  • Management von rechtlichen Risiken, Versicherung, Streitbeilegung

Modul 6: AI Risk and Threat Management

  • Risiken, Bedrohungen und Schwachstellen von KI-Systemen
  • AI-Risikobewertungstechniken und Analyse-Tools
  • AI-Risikomanagement-Frameworks (NIST, ISO/IEC, OECD)
  • Bedrohungsmodellierung und Angriffssurface-Analyse

Modul 7: Third-Party AI Risk Management and Supply Chain Security

  • Risiken durch Drittanbieter und Lieferketten
  • TPRM-Framework zur Bewertung von Drittanbietern
  • Rechtliche und regulatorische Anforderungen bei Drittanbieter-KI
  • End-to-End-Beschaffungsprozess und Due-Diligence
  • Erstellung von AI-Verträgen, SLAs und Haftungsregelungen
  • Kontinuierliche Überwachung und Lifecycle-Management von Drittanbietern
  • Fallstudien zu Governance- und Compliance-Lücken

Modul 8: AI Security Architecture and Controls

  • Prinzipien der AI-Sicherheitsarchitektur
  • Frameworks zur Sicherung von Modellen, Daten und Infrastruktur
  • Sichere Designprinzipien und Defense-in-Depth-Strategien
  • Sichere Entwicklung, Code-Management und Modell-Security
  • Sicherheitskontrollen bei Deployment und Betrieb

Modul 9: Building Privacy, Trust, and Safety in AI Systems

  • Datenschutztechniken und Privacy by Design
  • Bewertung und Minderung von Datenschutzrisiken
  • Transparenz, Vertrauensbildung und Sicherheit in KI-Systemen
  • Nutzerzentrierte Interaktionen, ethische Leitlinien und Fairness
  • Monitoring und Audits zur Vertrauenssicherung

Modul 10: AI Incident Response and Business Continuity

  • Aufbau von KI-spezifischen Incident-Response-Strategien
  • Lebenszyklus der KI-Vorfallerkennung, Containment und Recovery
  • Kommunikation, regulatorische Meldungen und Kundeninformation
  • Business-Continuity-Strategien und Disaster-Recovery für KI

Modul 11: AI Assurance, Testing, and Auditing

  • Prinzipien, Mechanismen und Frameworks der AI-Absicherung
  • Teststrategien für Daten, Modelle, Performance und Sicherheit
  • Pre-Deployment- und Post-Deployment-Validierung
  • Bewertung von Bias, Fairness, Transparenz und Sicherheitslücken
  • Durchführung von KI-Audits und Risiko-basierten Prüfungen
  • Überwachung von Emerging Technologies und regulatorischen Entwicklungen

Hinweise

Prüfung und Zertifizierung

  • Prüfungstitel: Certified Responsible AI Governance and Ethics Professional (C|RAGE)
  • Prüfungsdauer: 3 Stunden
  • Anzahl der Fragen: 100
  • Prüfungsformat: Multiple-Choice-Fragen
  • Benötigte Punktzahl: 70%

Open Badge für dieses Seminar - Ihr digitaler Kompetenznachweis

Digital Skills Open Badges

Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erhalten Sie zusätzlich zu Ihrem Teilnehmerzertifikat ein digitales Open Badge (Zertifikat) – Ihren modernen Nachweis für erworbene Kompetenzen.

Ihr Open Badge ist jederzeit in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com-Konto verfügbar. Mit wenigen Klicks können Sie diesen digitalen Nachweis in sozialen Netzwerken teilen, um Ihre Expertise sichtbar zu machen und Ihr berufliches Profil gezielt zu stärken.

Übersicht: EC-Council Schulungen Portfolio

Mehr zu den Vorteilen von Badges

Seminare kurz vor der Durchführung

       
27.04. - 29.04.2026 Hamburg Anfragen
18.05. - 20.05.2026 Köln Anfragen
22.06. - 24.06.2026 Köln Anfragen
08.07. - 10.07.2026 Nürnberg Anfragen
 
1.) Wählen Sie den Seminartyp:


2.) Wählen Sie Ort und Datum:
2.950,00 € Preis pro Personspacing line3.510,50 € inkl. 19% MwSt
all incl.
zzgl. Verpflegung 30,00 €/Tag bei Präsenz
zzgl. Prüfungsvoucher, auf Wunsch separat erhältlich

Anfragen Buchen Merkzettel
 
Diese Seite weiterempfehlen:
0
Merkzettel öffnen
0
Besuchsverlauf ansehen
IT-Schulungen.com Control Panel