Kasperackerackerweg 15, 90482 Nürnberg, Germany
+49 (176) 62650675
info@bertramgeck.de

Mehr Sicherheit bei KI durch mehr Nachvollziehbarkeit und Datenethik

Blog für Gesellschaft und Digitalisierung

Mehr Sicherheit bei KI durch mehr Nachvollziehbarkeit und Datenethik

KI durchdringt unvermeidbar unseren Alltag. Sie bietet immense Vorteile, aber auch Nachteile. Einer der Nachteile ist die mangelnde Nachvollziehbarkeit der Entscheidungswege der Algorithmen, die wiederum das Risiko ethischer Verfehlungen in den Ergebnissen erhöht.

Um nicht jede einzelne Entscheidung und Empfehlung, die von einer KI-Lösung kommt, nach ethischen Vorgaben prüfen zu müssen, ist es erforderlich sicherzustellen, dass die Prozesse der Entscheidungsfindung nachvollziehbar ethischen Vorgaben entsprechen. Um die Prozesse der Entscheidungsfindung auf ethische Korrektheit zu prüfen sind die folgende Voraussetzungen erforderlich

  • Die Bereitstellung von Datenethik-Kriterien, die speziell auf KI-Lösungen angewendet werden.
  • Die Schaffung von Werkzeugen, um die umsetzende Einheiten in die Lage zu versetzen, diese Kriterien eigenverantwortlich zu prüfen.

Die Organisation kann sich sodann entscheiden, ob die Überprüfung der Einhaltung der Kriterien zur Datenethik über eine zentrale Kontrollinstanz oder dezentral über das Subsidiaritätsprinzip erfolgt.

In beiden Fällen sind Werkzeuge und Methoden erforderlich um Transparenz und Nachvollziehbarkeit von Entscheidungen der KI-Lösung für die Prüfung bereitzustellen. Diese Nachvollziehbarkeit verständlich herzustellen ist eine große Herausforderung. Zum Beispiel kann man die Quellen, welche die KI zugrunde legt, einschränken, eventuell identifizieren und dokumentieren. Dagegen ist ee komplexer die Algorithmen und Analytik, welche auf die Quellen angewandt vollständig zu dokumentieren. Die Ergebnisse müssen auch einem Personenkreis ohne technischem Detailwissen verständlich gemacht werden.

Die Anwendung dieser Methoden beginnt nicht erst nach der Implementierung sondern bereits in der Designphase.

Verschiedene Lösungen, die notwendige Transparenz zur Überprüfung der Entscheidungsfindung herzustellen, entwicklen sich derzeit am Markt. Eine davon ist, von dem Unternehmen ATOS mit dem Begriff „Simplified Explainable AI“ bietet ein Framework, diesen Prozess der Nachvollziehbarkeit zu unterstützen.

Durch die Nutzung von Methoden eines Explainable AI Frameworks wird es leichter die Akzeptanz gegenüber, sowie das Vertrauen in KI-Lösungen zu stärken.

Quellen:

  • https://research.aimultiple.com/xai/
  • https://atos.net/en/portfolio/drive-digital-transformation-leveraging-ai-and-ml

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert