Open-Source-KI und der AI Act
DeepSeek, Europa & Open Source
In den letzten Wochen hat das chinesische KI-Startup DeepSeek für großes Aufsehen gesorgt. Mit seinem neuen Sprachmodell DeepSeek-R1, das leistungsstark und kosteneffizient ist, stellt es eine ernsthafte Konkurrenz für etablierte KI-Anbieter dar. Anders als die großen US-amerikanischen Modelle, die proprietär sind, setzt DeepSeek auf Open Source, was bedeutet, dass der Code öffentlich zugänglich ist und von Entwicklern weltweit genutzt oder weiterentwickelt werden kann.
Bekanntlich mischt Europa im KI-Rennen (derzeit) nicht wirklich mit. Muss das so bleiben? Wohl nicht unbedingt. Könnte Open Source, wie von DeepSeek vorgezeigt, nicht auch für Europa eine Chance darstellen, um zu den großen Playern aus den USA und China aufzuschließen? Womöglich. Doch: Lässt der AI Act das überhaupt zu?
Ausnahmen und Gegenausnahmen im AI Act
Der AI Act sieht Ausnahmen für Open Source vor: Er gilt nicht für KI-Systeme, die unter freien und quelloffenen Lizenzen veröffentlicht werden. Allerdings gibt es Ausnahmen von dieser Ausnahme, die durchaus ins Gewicht fällt. Open-Source-KI fällt nämlich insbesondere dann wieder unter den AI Act, wenn sie entweder verboten oder hochriskant ist.
Verboten sind insbesondere
- KI-Systeme, die manipulative oder täuschende Techniken einsetzen, um das Verhalten einer Person zu verändern und ihre Entscheidungsfähigkeiten zu beeinträchtigen,
- bestimmte Emotions- oder Gesichtserkennungssysteme,
- Sozialkreditsysteme, oder
- Predictive Policing.
Ob ein KI-System in den Hochrisikobereich fällt, ergibt sich vor allem auch aus dem jeweiligen Anwendungsbereich. Bestimmte KI-Systeme, die im Bereich
- der kritischen digitalen Infrastruktur,
- der Biometrie,
- der Bildung,
- zum Kreditscoring oder im
- HR-Bereich
eingesetzt werden, gelten als hochriskant, wenn sie nicht im Einzelfall kein Risiko bergen sollten.
Die Ausnahme zugunsten von Open Source wird damit schon spürbar eingeschränkt. Damit aber nicht genug: Sie entfällt nämlich auch bei
- KI-Systemen, die für die direkte Interaktion mit Menschen bestimmt sind, wie Chatbots,
- Text-, Bild-, Ton- oder Videoinhalte generierende KI-Systemen, und
- KI-Systemen zur Emotionserkennung oder biometrischen Kategorisierung.
Für KI-Modelle mit allgemeinem Verwendungszweck (GPAI-Modelle) gilt die Ausnahme außerdem nur, wenn eine bestimmte Rechenleistung nicht überschritten wird. Auch hier ist es also möglich, dass sich die Gegenausnahme durchsetzt.
Selbst wenn all diese Hürden erfolgreich genommen werden, kann ein KI-System aufgrund eines alternativen Monetarisierungsmodells noch immer aus der Open-Source-Ausnahme hinausfallen. Wird das System zwar nicht gegen einen Preis angeboten, aber durch die Bereitstellung technischer Unterstützung, sonstiger Dienste oder den Bezug personenbezogener Daten monetarisiert, schlägt die Gegenausnahme wieder zu.
Ergebnis
Privilegien für Open-Source-KI sind daher lediglich innerhalb eines sehr engen Rahmens vorgesehen. Der risikobasierte Ansatz des AI Act behält auch bei Open-Source-Projekten die Oberhand. Die praktische Relevanz der Ausnahme ist daher überschaubar. Nicht selten wird Compliance mit dem AI Act trotz Open Source sicherzustellen sein. Wenn das nächste DeepSeek also aus Europa kommt, wird das kaum dem AI Act zu verdanken sein.