Der Rechnungshof fordert vertrauenswürdige KI in der Bundesverwaltung: Ethische Standards stärken
20. Juni 2025 – (Presseinformation des Rechnungshofes Österreich) - Die öffentliche Verwaltung trägt eine besondere Verantwortung beim Einsatz von KI, denn sie verfügt über umfangreiche Daten, zu deren Schutz sie verpflichtet ist. Zudem besteht das Risiko von Vertrauens- und Akzeptanzproblemen der Bürgerinnen und Bürger durch mangelhafte Rechenschaftspflichten, Transparenz und Nachvollziehbarkeit beim Einsatz von KI-Systemen. In seinem heute vorgelegten Bericht „Künstliche Intelligenz in der Bundesverwaltung“ hat der Rechnungshof unter anderem die Vorgaben für den Einsatz von KI in der Bundesverwaltung geprüft – und zwar im Bundeskanzleramt, im Finanzministerium, im vormaligen Klimaschutzministerium, im vormaligen Beamtenministerium sowie im Bundesrechenzentrum Gesellschaft mit beschränkter Haftung (BRZ).
Bei bereits im Einsatz befindlichen KI-Anwendungen vermisst der Rechnungshof vielfach entsprechende Risikoklassifikationen und die Anwendung KI-spezifischer Standards. Ein Gesamtüberblick über alle KI-Anwendungen im Bund fehlte. Prüfungszeitraum sind im Wesentlichen die Jahre 2021 bis 2023. Mit Stand Juni 2024 waren 35 KI-Anwendungen und KI-Projekte in den vier überprüften Bundesministerien im Einsatz. Aufgrund der sehr dynamischen Entwicklung von KI werden ihre Anwendungsbereiche zukünftig noch weiter ausgedehnt werden.
Das Bundeskanzleramt nutzte etwa eine KI zur Bildverarbeitung, das Finanzministerium setzte KI vor allem im Bereich „Predictive Analysis“ ein – ein Verfahren, das sich historischer Daten bedient, um zukünftige Ereignisse mittels mathematischer Modelle vorherzusagen. Im vormaligen Klimaschutzministerium kam KI im Zusammenhang mit der Abwicklung des Klimabonus zum Einsatz und das Beamtenministerium startete 2024 in Zusammenarbeit mit dem Sozialministerium das KI-Projekt „Ressort-Chatbot zur erleichterten Informationsbeschaffung“.
Bei den entsprechenden Anwendungsbeschreibungen der Ministerien vermisste der Rechnungshof vielfach Risikoklassifikationen, KI-spezifische Zertifizierungen Presseinformation zum Bericht „Künstliche Intelligenz in der Bundesverwaltung“ vom 20. Juni 2025 beziehungsweise Standards sowie die Berücksichtigung des Beamtenministerium entwickelten Leitfadens „Digitale Verwaltung und Ethik“.
Der Rechnungshof empfiehlt daher, für die Projektierung beziehungsweise Implementierung von KI-Anwendungen die Entwicklung eines Standardvorgehens voranzutreiben und Kooperation zu fördern. Besonders geachtet werden sollte auf KI-spezifische Risikobewertungen, die Etablierung KI-spezifischer Standards und Zertifizierungen, die Anwendung KI-spezifischer Entwicklungs- und Lebenszyklusmodelle sowie die Umsetzung vertrauensschaffender Prinzipien.
Umsetzung des AI Acts rechtzeitig vorbereiten
Dem AI Act der EU kam – auch mangels nationaler Rechtsvorschriften zum Einsatz von KI – hierzulande die größte Bedeutung zu. Er trat im August 2024 in Kraft und war unmittelbar wirksam, wobei einzelne Regelungen zu unterschiedlichen Zeitpunkten Geltung erlangen werden. Der AI Act überträgt Anbietern und Betreibern von KI-Systemen umfangreiche Verpflichtungen. Somit besteht Handlungsbedarf für alle öffentlichen Einrichtungen.
Der Rechnungshof empfiehlt, sich auf die Anforderungen des AI Acts – insbesondere KI-Kompetenz, Risiko- und Qualitätsmanagement, Dokumentationspflichten, Transparenzpflichten, Ausschluss verbotener Praktiken – rechtzeitig vorzubereiten. Um Doppelgleisigkeiten und uneinheitliche Risikobeurteilungen zu vermeiden, sollen die entsprechenden Maßnahmen intensiv koordiniert werden.
Zuständigkeiten klar abgrenzen
Die Digitalisierungssektion im Bundeskanzleramt ist in Österreich für die im AI Act vorgegebenen nationalen Umsetzungsschritte zuständig. So hat beispielsweise jeder Mitgliedstaat bis August 2025 mindestens eine notifizierende Behörde – zur Überprüfung, Notifizierung und Überwachung von Konformitätsbewertungsstellen – eine Marktüberwachungsbehörde zu benennen. Die Marktüberwachungsbehörde soll unter anderem Hochrisiko-KI-Systeme überwachen und die bis August 2026 einzurichtenden KI-Reallabore beaufsichtigen.
Die organisatorischen Strukturen im Zusammenhang mit dem AI Act sind komplex. Bereits bei der Konzeption der entsprechenden Behördenstruktur ist daher Vorsorge für die gesamtstaatliche Koordinierung zu treffen. Wichtig wäre etwa, dass Zuständigkeiten klar abgegrenzt werden.
Die Gefahr von Doppelgleisigkeiten sieht der Rechnungshof im Übrigen auch, weil zwar viele KI-Gremien eingerichtet wurden, eine Gesamtsteuerung auf Bundesebene jedoch bislang fehlte.
Verbindlichkeit des Ethik-Leitfadens stärken
Das Beamtenministerium veröffentlichte 2023 den unverbindlichen Praxis-Leitfaden „Digitale Verwaltung und Ethik“ zur Orientierung bei der Bewertung ethischer Fragestellungen im Zusammenhang mit KI. Der Rechnungshof empfiehlt, diesen Leitfaden nach einer Aktualisierung in den Ministerrat einzubringen. Dort wäre auf einen Beschluss hinzuwirken, wonach sich die Bundesministerien verpflichten, die Grundsätze vertrauenswürdiger KI einzuhalten und umzusetzen.
Vorgaben für Bedienstete zum Einsatz von KI fehlten größtenteils
Neben dem Einsatz interner KI-Anwendungen haben die überprüften Stellen den Umgang der Bediensteten mit frei zugänglichen KI-Anwendungen (etwa ChatGPT, Google Gemini, DeepL) im Dienstbetrieb zu regeln. Für die Bediensteten im Bundeskanzleramt, im Klimaschutzministerium, im Beamtenministerium sowie im BRZ wurden keine verpflichtenden Regelungen zum Umgang mit KI-basierten Anwendungen erlassen. Von den überprüften Stellen wies nur das damalige Klimaschutzministerium seine Mitarbeiterinnen und Mitarbeiter darauf hin, den Einsatz von KI-Anwendungen kenntlich zu machen.
Kompetenzaufbau beim Personal
Speziell für die Bearbeitung von KI-Themen ausgebildetes Personal setzte nur das Finanzministerium ein. Für die zukünftige Personalplanung erachtet der Rechnungshof die Rekrutierung von Mitarbeiterinnen und Mitarbeitern mit den nötigen KI-Fachkenntnissen als zentral, um die Herausforderungen auf diesem Gebiet bewältigen zu können. Zudem empfiehlt er, die Aus- und Weiterbildung der mit KI befassten Bediensteten weiter zu intensivieren und auf die laufend neuen Anforderungen anzupassen.
3. Juli 2025 – (AIT-Pressemitteilung) - Das AIT Austrian Institute of Technology entwickelt gemeinsam mit der TU Wien eine neue Methodik für vertrauenswürdige Generative Künstliche Intelligenz im Rahmen des neuen europäisch geförderten Projekts RobustifAI.
RobustifAI ist ein Horizon Europe Projekt, das darauf abzielt, eine umfassende Design- und Einsatzmethodik für zuverlässige, robuste und vertrauenswürdige generative künstliche Intelligenz (GenAI) zu entwickeln. Das Projekt startete offiziell am 1. Juni 2025 und hat eine Laufzeit von 36 Monaten mit einem Gesamtbudget von 9,3 Mio. €, wovon der österreichische Anteil rund 1,36 Mio. € beträgt. Die Bewilligung der Mittel ist ein großer Erfolg für das Konsortium von RobustifAI, da nur drei der 131 eingereichten Vorschläge den Förderzuschlag erhalten haben. Das Konsortium traf sich am 5. Juni 2025 in den Räumlichkeiten des AIT Austrian Institute of Technology in Wien zu einem offiziellen Kick-off, bei dem die ersten Schritte der Projektarbeit festgelegt wurden.
Österreich spielt eine Schlüsselrolle in RobustifAI, da zwei prominente Institutionen beteiligt sind - das AIT Austrian Institute of Technology und die TU Wien. Das AIT ist im Konsortium durch Priv.-Doz. Dr. Dejan Nickovic vertreten, der als technischer Leiter des Projekts fungiert. Prof. Ezio Bartocci, Professor für "Formal Methods in Cyber-Physical Systems" an der Fakultät für Informatik, vertritt die TU Wien. Das AIT bringt in das Projekt seine renommierte Expertise in der Anwendung formaler Methoden für KI-basierte Systeme und in der Gestaltung zukünftiger KI-Policies ein. Die TU Wien bringt ihre Expertise in der systematischen Entwicklung und Analyse von lernfähigen autonomen Systemen in das Konsortium ein. Die beiden Institutionen haben eine langjährige Zusammenarbeit auf dem Gebiet der Sicherheit von KI-basierten und autonomen Systemen, die sich in den letzten zehn Jahren durch gemeinsame Beiträge in Bereichen wie der Verifizierung von "deep neural networks", der Entwicklung vertrauenswürdiger Systeme und der Laufzeitüberwachung von KI-gesteuerten Technologien auszeichnete.
Ziel des Projekts
GenAI, wie z. B. Basismodelle (Foundation Models), stellt eine leistungsstarke und transformative Klasse der KI dar, die in der Lage ist, Muster aus Daten zu lernen und neue Inhalte zu generieren. GenAI hat jedoch bemerkenswerte Schwächen, die zu Missbrauch führen oder ihre breite Einführung und positive gesellschaftliche und wirtschaftliche Auswirkungen behindern können. Diese Unzulänglichkeiten sind auf drei Schlüsselbereiche zurückzuführen: technische, betriebliche und benutzerbezogene Robustheit. RobustifAI konzentriert sich auf Basismodelle, die im Kontext von sogenannten "Human-Cyber-Physical Systems" (HCPS) eingesetzt werden. Dabei handelt es sich um komplexe Systeme, in denen Computer, Netzwerke, Menschen und physische Prozesse kombiniert werden, um reale Umgebungen zu überwachen und zu steuern, die in vielen Bereichen Anwendung finden können.
CPS repräsentieren die anspruchsvollsten Systeme, wenn es um die Robustheit von GenAI geht, da sie unmittelbare physische Auswirkungen haben, von kritischer Bedeutung sind, in Echtzeit arbeiten und menschliche Interaktion erfordern. Durch die Auseinandersetzung mit der Robustheit von GenAI in HCPS wird RobustifAI Lösungen entwickeln, die in verschiedenen Bereichen anwendbar und letztendlich das volle Potenzial von GenAI freisetzen werden.
Das RobustifAI-Konsortium umfasst achtzehn Partner aus zwölf Ländern, darunter siebzehn europäische Partner und ein Partner aus Indien.
Das ausgewogene Konsortium besteht aus folgenden Partnern:
Sieben Universitäten: University of Liverpool, Chalmers University of Technology, Hebrew University of Jerusalem, Masaryk University, Oldenburg University, TU Wien, and Indian Institute of Technology Kanpur;
Zwei RTOs: AIT Austrian Institute of Technology und German Aerospace Center (DLR);
Fünf KMUs: CSX-AI, L-up, PPM Robotics, CertX, and LOXO.
Fünf große Unternehmen: Collins Aerospace, Siemens, Thales, and Thales SIX GTS FRANCE.
Weitere Informationen: www.robustifai.eu