AI Act soll KI-Einsatz regulieren
In Europa wird aktuell die Regulierung von KI-Techniken verhandelt. Die Politik befindet sich dabei in einem Spannungsfeld zwischen innovationsfreudigen Unternehmen, die Wettbewerbsnachteile fürchten, und dem Verbraucherschutz, der klare Schranken fordert.
Künstliche Intelligenz ist vielen Menschen unheimlich. Mit klaren Regeln will die EU das Vertrauen in derartige Technologien fördern und die Grundrechte der BürgerInnen schützen. In der vergangenen Woche haben sich die für Telekommunikation zuständigen MinisterInnen der EU-Mitgliedsstaaten auf die Grundzüge des sogenannten AI Act geeinigt. Weitere Details müssen nun mit EU-Parlament und -Kommission abgestimmt werden. Die Grundzüge der kommenden Verordnung lassen die Wirtschaft aber bereits jetzt eine Regulierung befürchten, die zu großer Verunsicherung führen und stark in die Entwicklung der Technologie eingreifen könnte.
Inhalte des AI Acts
Der aktuelle Entwurf samt Anhängen ist rund 125 Seiten lang. Er sieht einen risikobasierten Ansatz vor. Das heißt konkret: Die Regeln orientieren sich daran, welches Risiko bei einer bestimmten Technologie angenommen wird (minimal, begrenzt, hoch und inakzeptabel). Der Fokus der Regulierung soll auf Hochrisikoanwendungen liegen, welche nach Einschätzung der Kommission bis 15 Prozent aller KI-Systeme ausmachen. Darunter fallen unter anderem der Betrieb kritischer Infrastrukturen, algorithmisch unterstützte Chirurgie, Risikomodelle von Lebensversicherungen, Bonitätsbewertung im Bankensektor sowie Systeme, die Bewerbungen vorsortieren oder eine Prognose zum Verhalten von Straftätigen stellen.
Für solche Anwendungen müssen Firmen dann ein Risikomanagement für KI einführen, Transparenzpflichten gegenüber den NutzerInnen erfüllen, eine technische Dokumentation mit genauen Angaben zu den verwendeten Daten vorlegen und ihr Programm außerdem zudem in eine EU-Datenbank eintragen.
Kritik am Entwurf
Öffentlich halten sich die meisten Unternehmen mit Kritik zurück. Sie machen stattdessen ihren Einfluss über Verbände geltend, die regelmäßig in Berlin und Brüssel vorstellig werden. In erster Linie zielt die Kritik der Wirtschaft auf die Definitionen ab. Neben „Konzepten des maschinellen Lernens“ bezeichnet der Gesetzentwurf auch statistische Ansätze sowie Such- und Optimierungsverfahren als Künstliche Intelligenz. Darunter könnte nahezu jede moderne Software gefasst werden, wie der KI-Bundesverband montierte.
Auch welche Anwendung ein hohes Risiko mit sich bringt, müsste aus Sicht der Wirtschaft viel genauer definiert werden. Diesbezüglich forderte der Bitkom, konkrete Anwendungen zu klassifizieren statt pauschal Anwendungsfälle.
Ein Dax-Konzern kritisierte außerdem, dass der Entwurf offen lasse, wer bei komplexen Produkten (z.B. Maschinensteuerungen oder Autos) die bürokratischen Pflichten trage. Hier sei durch die Abstimmung zwischen den Herstellern und zahlreichen Zulieferern mit einem „Riesen-Overhead“ zu rechnen.
Weiteren Diskussionsbedarf sieht die Technologiebranche beim Umgang mit Daten. Diese sollen dem Entwurf zufolge „repräsentativ, fehlerfrei und vollständig“ sein, um beispielsweise die Diskriminierung von unterrepräsentierten Bevölkerungsgruppen zu verhindern. Hochwertige Datensätze stünden EntwicklerInnen zufolge jedoch nur sehr begrenzt zur Verfügung, weshalb die Vorgabe daher schwer zu erfüllen sein.
Neben den konkreten Kritikpunkten warnt der Digitalverband Bitkom allgemein vor einer „zu starken Fokussierung auf Risiken“.
Quelle: Handelsblatt
