Vertrauensbasis für Künstliche Intelligenz Was sich bei KI bereits zertifizieren lässt

Anbieter zum Thema

Die Anwendungsbereiche für Künstliche Intelligenz (KI) sind zunehmend sensibel und potenziell folgenschwer. KI-Einsätze in der Medizin sind nur ein Beispiel dafür. Entsprechend hoch ist der Wunsch nach einer geprüften KI-Lösung, denn wer will schon einer Blackbox vertrauen? Inzwischen gibt es zahlreiche Ansätze für KI-Zertifizierungen. Wir geben einen Überblick.

Künstliche Intelligenz erobert verstärkt auch sensible Anwendungsbereiche. Entsprechend hoch ist der Wunsch nach zertifizierten Lösungen.
Künstliche Intelligenz erobert verstärkt auch sensible Anwendungsbereiche. Entsprechend hoch ist der Wunsch nach zertifizierten Lösungen.
(Bild: © Olivier Le Moal - stock.adobe.com)

Rund drei Viertel der Bundesbürgerinnen und Bundesbürger (73 Prozent) sind inzwischen der Meinung, dass KI eine Chance ist, so der Digitalverband Bitkom. Eine breite Mehrheit (88 Prozent, 2020: 85 Prozent) wünscht sich aber zugleich, dass KI-Software in Deutschland besonders gründlich geprüft und erst nach Zulassung in Geräten genutzt werden sollte.

Bei Unternehmen scheint das auf den ersten Blick anders zu sein: Eine neue Studie von Rackspace Technology zeigt, wie sich die Einstellung zu KI/ML ändert, da Unternehmen beginnen, deren Vorteile zu nutzen. Demnach nimmt das Vertrauen in KI in Deutschland zu: 68 Prozent der Unternehmen geben an, dass sie den Erkenntnissen von KI- und ML-Plattformen immer vertrauen würden.

Die Mehrheit der IT-Führungskräfte hält eine strenge menschliche Aufsicht über KI/ML nicht mehr für notwendig. Nur noch ein Viertel (26 Prozent) ist der Meinung, dass KI/ML stets von Menschen interpretiert werden muss. Das sind rund dreimal weniger (75 Prozent) als im Jahr 2022.

Ist eine unabhängige Zertifizierung von KI also nicht mehr nötig? Wenn man sich die Anwendungsbereiche ansieht, in die KI immer mehr vordringt, dann kann man das nur verneinen. Das zeigt eine Reihe von Beispielen aus der Medizin.

KI in der Medizin betrifft Leib und Leben

Bei welchem Patienten könnte sich in Kürze eine schwere Infektion entwickeln? Welche Patientin ist besonders gefährdet für eine ernste Sturzverletzung, bei wem ist ein Druckgeschwür zu befürchten? Künftig könnten individuelle Risiken wie diese genauer vorhergesagt werden. In einem Pilotprojekt am Universitätsklinikum Schleswig-Holstein (UKSH) soll erstmalig ein auf Künstlicher Intelligenz beruhendes System zur Früherkennung von Komplikationen und Krankheiten implementiert werden.

„Künstliche Intelligenz bietet das Potenzial, die Medizin nachhaltig zu verbessern, medizinische Maßnahmen können zielgenauer greifen, die Zahl der Komplikationen und die Behandlungsdauer kann sich verringern“, sagte Projektleiter Prof. Dr. Kai Wehkamp, Geschäftsführender Oberarzt der Klinik für Innere Medizin I des UKSH, Campus Kiel. „Neben den eher technischen und prozessbezogenen Herausforderungen gilt es dabei auch ethische, gesellschaftliche und rechtliche Anforderungen zu moderieren, denn nur so kann Vertrauen in die KI-gestützte Medizin gewährleistet werden. Wir wollen ein System, dass die Medizin dabei unterstützt, der einzelnen Patientin, dem einzelnen Patienten noch besser gerecht zu werden und so auch eine menschliche Medizin fördert.“

Dementsprechend soll sich das System in wissenschaftlichen Studien einer Überprüfung der Genauigkeit und des tatsächlichen Nutzens unterziehen. Die Zertifizierung der KI-basierten Software „MAIA“ als Medizinprodukt ist dabei eine Voraussetzung für den Einsatz im Krankenhaus.

Qure.ai, Anbieter von Software für Künstliche Intelligenz in der medizinischen Bildgebung, teilte mit, dass seine Lösungen die CE-Zertifizierung der Klasse IIb für Medizinprodukte gemäß der EU-Medizinprodukteverordnung EU 2017/745 (EU-MDR) erhalten haben. Mit der MDR-Zertifizierung wird die Sicherheit, Performance und Qualität der KI-Software von Qure.ai anerkannt und bestätigt, dass sie die EU-Vorschriften für Medizinprodukte erfüllt, so der Anbieter. Zudem verschafft die Zertifizierung Gesundheitsfachkräften und Patienten die Gewissheit, dass die KI-Software von Qure.ai einer umfangreichen Prüfung unterzogen wurde und auf den globalen Märkten sicher, effektiv und zuverlässig eingesetzt werden kann, wie Qure.ai erklärt.

Künstliche Intelligenz auf dem Prüfstand

Die Hessische Landesregierung und der VDE haben im House of Logistics & Mobility (HOLM) in Frankfurt den bundesweit ersten AI Quality & Testing Hub (AIQ) eröffnet. Unternehmen haben im AIQ die Möglichkeit, Qualitätseigenschaften von Systemen Künstlicher Intelligenz nachzuweisen und zu verbessern. Dies soll helfen, dass die Nutzerinnen und Nutzer Vertrauen in KI-Anwendungen gewinnen und dass die neuartigen Technologien im Einklang mit der Europäischen Werteordnung sind.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

„Künstliche Intelligenz ist die Schlüsseltechnologie des 21. Jahrhunderts. Mit dem Hub mit Sitz in Frankfurt gibt es ein einzigartiges Joint-Venture zwischen einer Landesregierung und einer der größten Technologieorganisationen Europas“, so Hessens Digitalministerin Prof. Dr. Kristina Sinemus. „Damit sind wir eines der ersten Reallabore Europas im Bereich KI-Qualität“.

Von PwC Deutschland, DEKRA und der Stadt Hamburg geplant ist die Gründung eines Unternehmens für die Prüfung und Zertifizierung von „Artificial Intelligence“-Produkten. Ziel ist es, dem erhöhten Sicherheitsbedürfnis von Herstellern und Nutzern im schnell wachsenden Markt für Künstliche Intelligenz Rechnung zu tragen. Und zwar, indem mit „CertifAI“ ein Unternehmen entstehen soll, dass Firmen dabei unterstützt, Normen und regulatorische Vorgaben für KI-basierte Produkte einzuhalten.

Das Fraunhofer Heinrich-Hertz-Institut (HHI) arbeitet im EU-Projekt TEF-Health (Testing and Experimentation Facility for Health AI and Robotics) daran, eine Testinfrastruktur für Künstliche Intelligenz (KI) und Robotik im Gesundheitswesen aufzubauen. Diese soll innovative Ansätze umfassend sowie schnell prüfen und zur Marktreife bringen. Um diese Testinfrastruktur zu entwickeln, erarbeiten die Projektpartner neue regulatorische und ethische Anforderungen wie standardisierte Testprotokolle und Zertifizierungen für KI-basierte Technologien oder einen bestimmten Verhaltenskodex bei der Anwendung.

Zusätzlich müssen die notwendigen technischen und administrativen Verfahren entwickelt werden. Mit an Bord bei TEF-Health sind daher, neben führenden Krankenhäusern, Universitäten und klinischen Forschungseinrichtungen, auch staatliche Prüforganisationen wie der TÜV, die deutsche Physikalisch-Technische Bundesanstalt und ihr französisches Pendant, das „Laboratoire national de métrologie et d'essais“, mit denen das Fraunhofer HHI in diesem Projekt eng zusammenarbeitet.

KI-Zertifizierung ist schon jetzt möglich

Im Rahmen des Projektes „Sicherheit von KI-Systemen: Grundlagen“ hat zudem das Bundesamt für Sicherheit in der Informationstechnik (BSI) Studien zu diesem Themenkomplex in Auftrag gegeben, die sich an KI-Expertinnen und Experten richten. Die Ergebnisse der Studien dienen dem BSI unter anderem als Grundlage für Beratungsdienstleistungen und die Entwicklung von Prüfkriterien für KI-Systeme.

Es gibt aber nicht nur zahlreiche Beispiele, die aufzeigen, dass KI zertifiziert werden muss und wird, es gibt auch bereits KI-Zertifikate, darunter die Zertifizierung bei TÜV IT.

Munich Re zum Beispiel unterstützt mit dem neuen Prüfservice CertAI die Akzeptanz von Künstlicher Intelligenz und ermöglicht damit einen verantwortungsvollen Einsatz von KI-Anwendungen, so der Anbieter. Gegenstand der Prüfung sind fertig entwickelte oder bereits produktiv eingesetzte KI-Systeme, die entlang von sechs Dimensionen analysiert werden: Fairness, Autonomie und Kontrolle, Transparenz, Robustheit, funktionale und Cyber-Sicherheit sowie Datenschutz.

(ID:49426589)