mit Video
Neue Regel tritt in Kraft:EU-KI-Verordnung verlangt Daten-Offenheit
von Sven Rieken
|
Die EU möchte Betreiber von KI-Modellen zu mehr Offenheit zwingen. Ab jetzt müssen die Firmen dahinter offenlegen, welche Trainingsdaten für die Systeme verwendet werden.
Thomas Fuchs ist ein vorsichtiger Mensch. Wenn Hamburgs Datenschutzbeauftragter über DeepSeek redet, sieht man ihm die Sorgen im Gesicht an. Bei dem Gedanken an die KI-Anwendung, die im Januar für Schlagzeilen sorgte, kommen ihm viele Datenschutzbedenken.
"Und in der Tat gilt das nicht nur für DeepSeek", erläutert er im ZDFheute Interview, "sondern für alle Apps, die im größeren Umfang personenbezogene Daten nach China übermitteln." Da gebe es ein großes rechtliches Problem, fügt der Datenschützer an.
DeepSeek soll verschwinden
Tatsächlich hat die Berliner Datenschutzbeauftragte Apple und Google angewiesen, die App DeepSeek aus den App-Stores zu verbannen. Das Tool verstoße gegen den Digital Services Act. Der, so die Argumentation, verbiete die Verarbeitung von personenbezogenen Daten europäischer Nutzer auf chinesischen Servern.
Die beiden US-Tech-Konzerne aber kontern, nicht die App sei das Problem, sondern der Datentransfer. Für den aber sei ausschließlich der Anbieter zuständig und nicht der App-Store.
Wem gehört das Wissen der Maschinen?
Eine Kraftprobe, von der es in Zukunft in der EU wohl noch mehr geben wird. Die jetzt in Kraft getretene weitere Stufe der EU-KI-Verordnung gibt Usern, Firmen und Behörden in Europa zum ersten Mal ein generelles Auskunftsrecht gegenüber Betreibern von KI-Modellen. Die müssen nachweisen können, woher die Trainingsdaten der Modelle stammen, sprich: mit welchen auch persönlichen Daten die KI trainiert wurde.
Doch ist das technisch machbar? Die KI packt das Gelernte zu einem komplexen Netz aus Mustern und Wahrscheinlichkeiten zusammen. "Angaben von Quellen können irreführend sein, weil man den Eindruck erweckt, dass das genauso dort stünde", warnt Judith Simon, Professorin für Ethik in der Informationstechnologie. Die scheinbare Genauigkeit sei aber oft nur Fassade.
Urheberrecht im Blindflug
Für die, deren Texte, Aufsätze, Posts eine KI genutzt hat, um zu lernen, heißt das auch: aus dem Trainingsknäuel lässt sich kaum mehr herausfiltern, auf welcher Basis die Antwort erfolgt. Dabei haben die Anbieter längst zugegeben, dass die KI-Modelle auch mit frei zugänglichen, aber urheberrechtlich geschützten Texten trainiert wurden. Vor allem in den USA sind diese Streitigkeiten längst vor Gericht gelandet - Ausgang offen.
Neue Funktionen wie der kurze Überblick von Google bei manchen Suchanfragen verschärfen das Problem. Die KI fasst alle Infos aus den gefundenen Quellen zusammen und gibt dem Nutzer eine fertige Antwort auf Basis der Suchergebnisse. Dirk General-Kuchel, Chefredakteur der "Computer Bild", warnt:
Wenn KI einfach die Inhalte anderer umschreibt und veröffentlicht, verdient der Urheber daran nichts - aber Google kassiert Werbeeinnahmen.
Dirk General-Kuchel, Chefredakteur der "Computer Bild"
Für viele Medienhäuser gehe damit das Geschäftsmodell verloren. Erste Seiten mussten bereits schließen.
Wer passt auf?
Die EU-KI-Verordnung schreibt auch deshalb für jedes Mitgliedsland eine Aufsichtsbehörde vor. Eine Stelle, die bei Streitigkeiten einschreiten kann. Doch die gibt es hierzulande nicht. "Das deutsche Umsetzungsgesetz hätte zum 2. August in Kraft treten müssen", erklärt Datenschützer Thomas Fuchs. Das aber, sagt er mit einem Schulterzucken, sei leider nicht passiert.
Dabei sollten die neuen Regeln der EU ein Signal aussenden, dass die Betreiber der KI-Modelle nicht einfach alles im Netz Verfügbare nutzen können. Technik-Redakteur General-Kuchel malt schon das düstere Bild von einem toten Internet:
Wenn es sich für Menschen nicht mehr lohnt, Inhalte zu erstellen, bleibt irgendwann der Nachschub aus. Dann entwickelt sich nichts mehr.
Dirk General-Kuchel, Chefredakteur der Computer Bild
Doch das ist der letzte Schritt. Erstmal hat jeder Nutzer jetzt das Recht, Anfragen an die KI-Betreiber zu stellen, auf welchem Weg, ist allerdings noch nicht ganz klar. ChatGPT übt sich bei solchen Fragen in Diplomatie.
"Ich denke, dass sich in diesem Bereich noch einiges tun wird und dass der Dialog darüber, wie man fair mit den Rechten der Urheber umgeht, sicherlich weitergeführt wird", schreibt der ChatBot auf die Frage nach einem Honorar für die Kreativen. Und als wäre OpenAI Gründer Sam Altman persönlich am anderen Ende der Chatleitung fügt das System noch hinzu: "Ich hoffe, dass am Ende Lösungen gefunden werden, die für alle Seiten zufriedenstellend sind." Ausweichender hätte man wohl nicht antworten können.
Sven Rieken ist Korrespondent im ZDF-Studio in Hamburg.
Themen
Mehr zum Thema KI
- Interview
Lobo über Grok-Entgleisungen:Wie Musks KI-Chatbot für Kontroversen sorgt
Folgen für die Wirtschaft:KI-Betrug bei Bewertungen: Wenn Sterne lügen
von Dennis Berger- FAQ
"Superdatenbank" für Polizei?:Warum Palantir so umstritten ist
von Oliver Klein und Nils Metzger