Regulierung von Künstlicher Intelligenz: Fraunhofer-Experte mahnt zu Augenmaß

(dpa) Peter Liggesmeyer vom Fraunhofer-Institut IESE fordert einen ausgeglichenen Umgang mit der neuen EU-KI-Regulierung. Er warnt vor zu strengen Vorschriften, die das Innovationspotenzial der KI einschränken könnten, und betont die Herausforderungen bei der Gewährleistung der Diskriminierungsfreiheit und des Umgangs mit Restrisiken.

Die EU hat sich kürzlich auf die weltweit ersten Regeln für die Nutzung von KI geeinigt. Manche finden sie zu streng, andere zu lasch. Ein Software-Experte vom Fraunhofer-Institut will nicht nur die Gefahren im Fokus der Debatte sehen und mahnt zu Augenmaß. | Bild: DALL-E
Die EU hat sich kürzlich auf die weltweit ersten Regeln für die Nutzung von KI geeinigt. Manche finden sie zu streng, andere zu lasch. Ein Software-Experte vom Fraunhofer-Institut will nicht nur die Gefahren im Fokus der Debatte sehen und mahnt zu Augenmaß. | Bild: DALL-E
Tobias Schweikl

Die kürzlich von der EU verabschiedeten Regeln zur Nutzung von Künstlicher Intelligenz (KI) lösen unterschiedliche Reaktionen aus. Während einige die Regeln als zu streng empfinden, halten andere sie für zu nachsichtig. Peter Liggesmeyer, ein Software-Experte vom Fraunhofer-Institut für Experimentelles Software Engineering IESE in Kaiserslautern, plädiert für einen ausgewogenen Ansatz in der Regulierung von KI.

„Die Grundhaltung, Regelungen zu KI zu definieren, kann ich nachvollziehen», so Liggesmeyer mit Blick auf die Regulierung auf europäischer Ebene. „Die Frage ist, wie man das vernünftig umsetzt und was die Konsequenzen sind.“

Er versteht die Notwendigkeit, Regelungen zu KI zu definieren, kritisiert aber den starken Fokus auf die Gefahren von KI und mahnt, dass auch das Potenzial der KI, in bestimmten Bereichen leistungsfähiger zu werden, Beachtung finden sollte.

„Das ist ein angstgetriebener Ansatz», betonte der Wissenschaftler.

Es müsse auch darum gehen, KI an bestimmten Stellen leistungsfähiger zu machen, um sie für bestimmte Zwecke besser einsetzen zu können.

Chancen versus Risiken

Die neuen Vorschriften der EU basieren auf den potenziellen Risiken und Auswirkungen der KI. Besonders riskante KI-Anwendungen, wie solche, die ein erhebliches Schadenspotential für Gesundheit, Demokratie, Umwelt oder Sicherheit haben, werden streng reguliert. Komplett verboten werden beispielsweise biometrische Kategorisierungssysteme, die sensible Merkmale wie sexuelle Orientierung oder religiöse Überzeugungen verwenden, sowie das ungezielte Auslesen von Bildern für Gesichtserkennungsdatenbanken.

Organisationen wie der Bundesverband der Deutschen Industrie (BDI) und der Branchenverband Bitkom warnen, dass Europa in der Schlüsseltechnologie KI ins Hintertreffen geraten könnte, während die europäische Verbraucherschutzorganisation Beuc kritisiert, dass sich die EU zu sehr auf die Selbstregulierung der Unternehmen verlässt.

Liggesmeyer warnt vor zu hohen Hürden für diejenigen, die an KI arbeiten, und betont die Wichtigkeit von Augenmaß in der Regulierung. Er weist darauf hin, dass das Erbringen des Nachweises, dass KI-Systeme diskriminierungsfrei sind, eine Herausforderung darstellen kann. Regulierung sollte nicht zu einem erheblichen Problem für die Wirtschaft führen und Innovationen nicht behindern.

Risiken sind unvermeidbar

Er betont auch, dass ein gewisses Restrisiko bei der Nutzung von KI unvermeidlich ist und akzeptiert werden sollte, ähnlich wie bei anderen Technologien wie dem Flugverkehr.

„Man will bei einem Flugzeug, dass von ihm keine übertrieben große Gefahren ausgehen», sagt der Experte. „Aber es wird nicht verlangt, dass das verbleibende Risiko gleich null ist.“

Liggesmeyer sieht weniger Angst in den Stärken von KI als in ihren aktuellen Schwächen und hält es für unwahrscheinlich, dass KI-Systeme in naher Zukunft eine übermäßige Kontrolle übernehmen werden. Abschließend sieht Liggesmeyer die EU-Regulierung als einen ersten Ansatz, der möglicherweise in einigen Jahren überdacht werden muss, da das Wissen über die Technologie noch begrenzt ist.