Regulierung von ChatGPT & Co.: AI Act erfasst auch Basismodelle

0

Der von den EU-Institutionen verabschiedete AI Act ebnet Europa den Weg, weltweit führend in der vertrauenswürdigen und sicheren Nutzung von künstlicher Intelligenz zu werden. Das Ziel besteht darin, die Potenziale von KI-Systemen zu nutzen und gleichzeitig die Risiken einzudämmen. Allerdings gibt es noch einige Herausforderungen, die im Rahmen der aktuellen Verhandlungen angegangen werden müssen, um eine effektive Umsetzung des AI Acts zu gewährleisten.

Sicherheitsrisiko: AI Act vernachlässigt KI-basierte Verbraucherprodukte

Im Rahmen des AI Acts gibt es eine Herausforderung, da hochriskante KI-Systeme nur dann als solche eingestuft werden, wenn die physischen Produkte, in die sie integriert werden, bereits einer verpflichtenden Prüfung unterliegen. Dies führt dazu, dass Verbraucherprodukte wie Spielzeug oder Smart-Home-Geräte nicht unter diese Prüfpflicht fallen. Um die Sicherheitsanforderungen für KI-basierte Verbraucherprodukte zu gewährleisten, ist es erforderlich, diese Regelungslücke zu schließen.

Selbstbewertung von Anbietern führt zu Problemen bei KI-Klassifizierung

Eine Herausforderung besteht in der Klassifizierung von eigenständigen KI-Systemen, die als eigenständige Software auf den Markt gebracht werden. Die Entscheidung darüber, ob ein Produkt als hochrisikobasiert einzustufen ist oder nicht, liegt in der Verantwortung der Anbieter, was zu möglichen Fehleinschätzungen führen kann. Um sicherzustellen, dass die verpflichtenden Anforderungen wirksam umgesetzt werden, sollten klare Klassifizierungskriterien festgelegt werden.

Stärkung des Vertrauens durch unabhängige Kontrollen von KI-Systemen

Um das Vertrauen in KI-Systeme zu stärken, sollten unabhängige Prüfungen bei hochriskanten Systemen durchgeführt werden. Eine verpflichtende Zertifizierung durch benannte Stellen gewährleistet, dass die Technologie den erforderlichen Sicherheitsstandards entspricht. Dies ist besonders wichtig, da hochriskante KI-Systeme erhebliche Gefahren für Nutzer und Umwelt mit sich bringen können. Durch eine solche Zertifizierung wird das Vertrauen der Menschen gestärkt und Europa kann sich als Vorreiter in der vertrauenswürdigen und sicheren Nutzung von künstlicher Intelligenz positionieren.

Sicherheitsanforderungen für KI: Partner in der Entwicklung von Reallaboren

Um die Entwicklung und Nutzung von Reallaboren sicherer zu machen, sollten unabhängige Prüforganisationen als Partner einbezogen werden. Der TÜV-Verband engagiert sich aktiv in der Identifizierung von technischen und regulatorischen Anforderungen an Künstliche Intelligenz sowie in der Entwicklung von Prüfstandards für sicherheitskritische KI-Anwendungen. Um eine ganzheitliche Überprüfung zu gewährleisten, sollten interdisziplinäre „AI Quality & Testing Hubs“ auf Landes- und Bundesebene eingerichtet werden.

Basismodelle und generative KI-Systeme im Fokus des AI Acts

Die letzten Monate haben gezeigt, dass Basismodelle und generative KI-Systeme ein großes Potenzial haben, aber auch erhebliche Risiken mit sich bringen können. Daher ist es zu begrüßen, dass das EU-Parlament plant, diese Technologie direkt im AI Act zu regulieren. Es ist jedoch wichtig, eine genaue Bewertung der Basismodelle vorzunehmen, um festzustellen, welche als hochkritisch einzustufen sind und den Anforderungen des AI Acts, einschließlich unabhängiger Drittprüfungen durch benannte Stellen, gerecht werden sollten.

AI Act: Sicherheit und Qualität für „AI Made in Europe

Der AI Act eröffnet Europa die Möglichkeit, weltweit führend in der vertrauenswürdigen und sicheren Nutzung von künstlicher Intelligenz zu werden. Durch die verpflichtende Prüfung von hochriskanten KI-Systemen durch unabhängige Stellen wird das Vertrauen der Menschen gestärkt und „AI Made in Europe“ kann zu einem echten Qualitätsstandard und einem globalen Wettbewerbsvorteil werden. Es gibt jedoch noch einige Bereiche, die verbessert werden müssen, insbesondere die Einbeziehung von Verbraucherprodukten, die Klassifizierung von KI-Systemen und die Durchführung unabhängiger Prüfungen. Nur durch diese Maßnahmen kann Europa sein volles Potenzial im Bereich der künstlichen Intelligenz ausschöpfen.

Lassen Sie eine Antwort hier