Die Risiken der KI verstehen
Wie bei jeder neuen Technologie müssen wir uns der Risiken bewusst sein, die mit der Einführung innovativer Prozesse verbunden sind. Daher ist eine wirksame Governance eine wichtige Komponente jeder KI-Strategie. Wenn Sie jetzt planen, wie Sie mit KI-Risiken umgehen, können Sie sich auf die Zukunft vorbereiten.
Hier sind drei ethische Bedenken im Zusammenhang mit der aufkommenden generativen KI, die interne Revisionsteams berücksichtigen müssen:
Vorurteile und Diskriminierung
Obwohl KI selbst keine Vorurteile hat, kann sie implizite oder explizite Vorurteile in ihren Trainingsdaten übernehmen, einschließlich solcher, die mit Ethnie, Geschlecht, Alter, Religion, geografischer Lage und weiteren Aspekten zusammenhängen. KI kann andere Perspektiven nicht verstehen, weil sie ihnen nicht ausgesetzt war. Das Training einer KI mit verschiedenen Datensätzen ist daher von entscheidender Bedeutung und kann dazu beitragen, das Risiko der Erstellung eines voreingenommenen Algorithmus zu verringern.
Um Risiken von Voreingenommenheit und Diskriminierung weiter zu minimieren und die Vorteile der Einbindung von KI zu maximieren, gibt es mehrere Ansätze und Kriterien, die Organisationen berücksichtigen sollten:
- Die Voreingenommenheit der KI resultiert aus den Trainingsdaten, die Menschen bereitstellen. Unternehmen begegnen dieser Herausforderung mit gezielten Schulungen. Die Ausweitung bestehender Schulungs- und Sensibilisierungsinitiativen für Mitarbeiterinnen und Mitarbeiter zu den potenziellen Auswirkungen von KI könnte einen großen Beitrag zur Verhinderung von KI-Vorurteilen leisten.
- Routinemäßige Tests von Datenquellen und Trainingsmodulen können helfen, unentdeckte Muster zu erkennen, die zu KI-Voreingenommenheit führen könnten.
- Es gibt keine Lösung, die man einfach einstellen und vergessen kann. KI-Verzerrungen können zu jedem Zeitpunkt des Erstellungs- oder Integrationsprozesses auftreten. Unternehmen müssen einen regelmäßigen Überprüfungsrhythmus einrichten, insbesondere wenn Modelle aktualisiert werden und sich Eingaben ändern.
Verantwortung und Rechenschaftspflicht
Wenn Sie KI einsetzen, um Entscheidungen für Ihr Unternehmen zu treffen, wer ist dann verantwortlich, wenn etwas schiefgeht? Mit anderen Worten: Ist die Person, die die KI trainiert hat, für die Entscheidungen verantwortlich, die diese trifft? Das interne Revisionsteam der Zukunft wird sich zwangsläufig mit diesen Fragen auseinandersetzen müssen.
Überlegungen zur Rechenschaftspflicht beinhalten die Gründe für die Entscheidungen einer KI. Generative LLMs produzieren häufig, "Halluzinationen", d. h. falsche oder unsinnige Behauptungen oder erfundene Informationen.
Interne Revisionsteams sollten diese Fragen proaktiv angehen, indem sie klare Regeln dafür aufstellen, wer für die Handlungen der KI im Rahmen des internen Revisionsprozesses verantwortlich ist. Die Implementierung eines KI-Governance-Frameworks, das die Rollen und Verantwortlichkeiten aller Beteiligten definiert, trägt zu transparenten, rechenschaftspflichtigen Systemen bei. Teams sollten bei der Gestaltung ihres Governance-Frameworks unter Berücksichtigung folgender Schlüsselbereiche der verantwortungsvollen KI im Auge behalten:
- Fairness
- Voreingenommenheit
- Wirksamkeit
- Robustheit
Datenschutz und Datensicherheit
Da für die Integration von KI enorme Mengen an Benutzerdaten erforderlich sind, werden vielfach Bedenken hinsichtlich der Sicherheit von Benutzerdaten geäußert. Interne Revisionsteams müssen robuste Sicherheitsmaßnahmen festlegen, die verhindern, dass sensible personenbezogene Daten in die falschen Hände geraten.
Durch eine von Anfang an erfolgende Integration von Datenschutzmaßnahmen in den KI-Entwicklungsprozess können Sie Ihre Daten in jeder Phase besser schützen. Diese Vorsichtsmaßnahme ist besonders wichtig für Anwendungen wie Gehaltsabrechnungen, bei denen Benutzerdaten nicht anonymisiert werden können.
Durch die Nutzung eines sicheren internen GPT-Systems arbeiten Sie innerhalb Ihrer bestehenden, sicheren Unternehmens-IT-Umgebung und tragen so zum Schutz vor Risiken bei. Einige Unternehmen könnten auch in Erwägung ziehen, separate LLMs nach Abteilungen oder Bereichen zu erstellen, um die Vertraulichkeit von Daten zu wahren.