Quelle: KI-generiertes Bild von J. Scriba (Dall-E)
Fangen wir mit der letzten Woche an. Da trafen zufällig zwei Dinge zeitlich zusammen, die inhaltlich gut zusammenpassen: Alexandra Lechner machte mich auf eine Veröffentlichung des Bitkom e.V. aufmerksam, die schon Ende Mai erschienen ist. Unter dem Titel „Whitepaper zu Urheberrecht und generativer KI“ möchte der Verein, der laut Selbstdarstellung „die besten Köpfe und Unternehmen der digitalen Welt“ repräsentiert, wie im Vorwort ausgeführt, zur Versachlichung der Diskussion beitragen, denn
„Zuweilen nehmen die Diskussionen rund um generative KI – insbesondere im Verhältnis zu Urhebern und dem Urheberrecht – emotionale Züge an.“
Bitkom e.V.
Dass die Position des Vereins, dessen Mitgliedsfirmen nach eigenen Angaben zusammen rund zwei Millionen ArbeitnehmerInnen beschäftigen, tendenziell an einem geschäftebeflügelndem regulatorischen Umfeld interessiert ist, kann niemanden verwundern. Die Breitbeinigkeit der im Papier vorgetragenen Argumentationslinien verblüffen mich aber doch.
Seit nunmehr gut zwei Jahren erläutern uns in der Fotorat-Arbeitsgruppe Juristen, wie verzwickt die rechtliche Würdigung der Vorgänge rund um das Training von KI-Modellen sind. Wie wenig hilfreich das gegenwärtige Urheberrecht ist, weil historisch gewachsene Definitionen von Nutzungsarten wie Vervielfältigen und Veröffentlichen schwer zu jenen technischen Vorgängen passen, mit denen Daten zum Training von KI-Systemem gesammelt und verarbeitet werden. Wie schwer bis unmöglich die Abgrenzung Datamining zu Forschungszwecken und zur kommerziellen Anwendung in diesem Zusammenhang ist. Wie unklar der Gesetzgeber die Anforderungen an „maschinenlesbare“ Vorbehalte von Website-BetreiberInnen formuliert hat. Gerade dieser Tage diskutierten die Mitglieder der VG Bildkunst höchst kontrovers mögliche Satzungsänderungen, die neuartige Lizensierungsmöglichkeiten für KI-Training bzw. den Widerspruch gegen solche ermöglichen könnten…
Kurzum, man könnte (und tut es vermutlich gerade auch) ganze Bücher zu dem äußerst unübersichtlichen Thema schreiben. Und die Zahl der Personenstunden, die ExpertInnen seit dem ersten Auftauchen der generativen KI-Modelle im öffentlichen Bewusstsein in entsprechenden Roundtables, Workshops, Panels und Seminaren zugebracht haben, erreicht vermutlich eine ähnliche Größenordnung wie die Arbeitsleistung der theoretischen Teilchenphysiker, die im gleichen Zeitraum an mehrdimensionalen Weltmodellen gefeilt haben, um endlich die Gravitation mit der Quantenmechanik unter einen Hut zu bringen (bislang erfolglos).
Das Bitkom-Paper hingegen entstand offenbar auf einer ganz anderen Erkenntnis-Ebene. Dessen AutorenInnen ziehen das schlichte Fazit:
„Der Gesetzgeber [hat] durch die gesetzlichen Regelungen bereits einen sachgerechten Ausgleich zwischen den Interessen der Urheberinnen und Urheber und den Interessen der Gesellschaft und Industrie an Innovation geschaffen. …. Weitere Transparenzvorschriften, für die etwa gar nicht die Datenstrukturen vorliegen, sind also nicht nur nicht zielführend, sondern auch nicht notwendig.“
Bitkom e.V.
Wer als BildautorIn noch darüber rätselt, wie man zum Beispiel in der Praxis mit den Empfehlungen des umfänglichen Freelens-Leitfadens umgeht, den belehrt das Bitkom-Papier, dass das doch alles ganz einfach ist: Man erkläre schlicht seinen Wunsch, dass Bilder von der eigenen Website nicht zum Zwecke des KI-Trainings erfasst werden sollen in der sogenannten „robots.txt“-Datei, die auf jedem Webserver hinterlegt werden kann. Dort, so geben die Bitkom-Erklärer allerdings zu bedenken, müsse man natürlich sorgsam abwägen, welchen Inhalte-Durchforstern man den Zugang verwehre, denn von Suchmaschinen möchte man in der Regel ja doch ganz gerne gefunden werden (schließlich dient die Website meist dem für Freiberufler lebensnotwendigen Selbstmarketing), Bildabsaugern für KI-Generatoren den Zutritt jedoch versperren.
Wie feingliedrig so eine Liste mit Zugangsberechtigungen („Allow“) und Zutrittsverboten („Disallow“) aussehen kann, zeigt dieses Beispiel der New York Times. Schade, wenn man sich noch nicht damit beschäftigt hat, wer und was konkret hinter Bots mit Namen wie „AwarioSmartBot“ oder „peer39_crawler“ steckt. Hinzu kommt, dass üblicherweise die Entwickler von KI-Systemen nicht unter eigenem Namen das Netz durchforsten, sondern auf Datenbestände zurückgreifen, die andere aufgebaut haben. Ebenfalls ist der Respekt vor einem abweisenden Eintrag in die Roboter-Liste bestenfalls eine Absichtserklärung. In irgendeiner Form bindend ist ein so vorgetragener Wunsch keineswegs.
Aber auch da weiß Bitkom simplen Rat: Die Inhaber von Urheberrechten brauchen ja bloß in die Logfiles ihrer Webserver reinzuschauen. Da gibt es schließlich abertausende von Einträgen, von welchen IP-Adressen aus jemand auf die Website zugegriffen hat. Diese Einträge gleiche man einfach mit möglicherweise irgendwo verfügbaren Listen von IP-Adressen und deren mutmaßlichen Besitzern ab, die möglicherweise irgendwann Datenbanken von Bildern erstellt haben. Findet man dann heraus, dass diese Datenbank später von einem KI-Entwickler genutzt wurde (was die allerdings äußerst selten offenlegen), dann weiß man – schwupps – ob jemand gegen diesen Vorbehalt verstoßen hat:
„[So] können die Webseitenbetreiber die notwendige Transparenz für die Urheber schaffen und auch aufgrund der Transparenzvorschriften im AI Act können diese nachvollziehen, ob ihr Nutzungsvorbehalt respektiert wurde und gegen unrechtmäßige Verwendungen ihres geschützten Werkes vorgehen.“
•
Interessanterweise fand just letzte Woche, am 11. Juli, vor dem Landgericht Hamburg die erste Verhandlung eines seit langem betriebenen Verfahrens gegen den Laion e.V. statt, der eben so eine Datenbank mit Links zu Milliarden von Fotos aus dem Internet pflegt und diese dann beispielsweise der Firma Stability.ai zur Verfügung stellt, die damit ihre bildgenerierenden Diffusionsmodelle trainiert. (Der Fotorat hat dazu schon im April eine Stellungnahme verfasst.)
Urheberrechts-Spezialist Sebastian Deubelli versucht am Beispiel eines Fotos von Robert Kneschke genau gegen so eine nach Ansicht des Fotografen unrechtmäßige Verwendung vorzugehen und verlangt die Löschung des Bilds aus der Laion-Datenbank. Ganz ohne IP-Zugriffslisten und andere aufwändige Spurensuche ist in diesem Fall unstrittig, dass das Bild in der Laion Datenbank enthalten ist. Auch ist klar, dass das Bild von der Website von Bigstock stammt und dort vor etwa drei Jahren erfasst wurde, obwohl die Nutzungsbedingungen der Website solches Tun verboten.
Das Hamburger Gericht ließ in der ersten Verhandlung erkennen, dass es keineswegs in der übersichtlichen Bitkom-Welt agiert, sondern will sich bis zum nächsten Termin im September weiterhin den Kopf über zwei Aspekte zerbrechen: Fällt die Tätigkeit des Laion e.V. unter das sogenannte „Text und Datamining“, erlaubt nach Paragraph 44b des Urhebergesetzes? Und genügte der Vorbehalt des Webseiten-Betreibers schon zum Zeitpunkt der Erfassung der schwammigen Anforderung nach „Maschinenlesbarkeit“.
Je nach Standpunkt sehr oder gar nicht verblüffend sind nämlich dieselben Firmen, die gerade dabei sind, multimodale KI-Systeme zu erschaffen, die aus unstrukturiert zusammengeklaubten Daten jeglicher Art und Provenienz profundes Weltwissen destillieren, nach dem man dann seinen digitalen Assistenten im munteren Plauderton befragen kann, gleichzeitig der Meinung, dass ein Nutzungsvorbehalt nur dann zu erkennen sei, wenn er wie zu Zeiten der Lochkartenprogrammierung und höchst spezifisch kodiert ist.
Ich versuche das mal ganz unjuristisch zusammenzufassen:
Habe ich ein Bild im Flur hängen, das sich Besucher meiner Wohnung ab und zu ansehen und schließe nachts die Haustür ab. Und holt sich jemand aus dem Baumarkt einen dort frei erhältlichen Nachschlüssel vom Typ 44b, um damit eines Nachts die Tür zu öffnen und durch den dunklen Flur zu streifen. Dann ist es ihm überlassen, ob er das Licht anmacht und dabei vielleicht einen Zettel sieht, den ich an die Wand geklebt habe. Hat er den Zettel entdeckt, kann er draufschauen und prüfen, ob in grüner Schrift, Times 12pt, der Satz darauf steht „Tigerkralle_889 darf hier nicht rein“. Wenn er danach das Bild mitnimmt, und ich es drei Jahre später im Wohnzimmer von Herbert finde, und der mir verrät, dass er es von Fred hat, und ich irgendwie feststelle, dass Fred auch auf den Namen „Tigerkralle_889“ hört, dann kann ich zu Fred sagen, dass er das nicht durfte. Dann können wir vor Gericht klären, ob er das Bild nur zu Forschungszwecken mitgenommen hat oder irgendwer damit Geld verdienen wollte. Was das dann allerdings für den Wandschmuck bei Herbert heißt, muss in einem anderen Zusammenhang diskutiert werden.
Viel wäre gewonnen, wenn es einen Standard gäbe, der im robots.txt nicht etwa konkrete Datensauger benennen müsste, sondern beispielsweise erlaubte und verbotene Verwendungszwecke spezifizierte, wie „Suchmaschine“, „KI-Training“, „Statistik“ oder so. Und alle Betreiber solcher Dienste verpflichtet wären, den Zweck ihres Tuns offenzulegen und solche Nutzungsvorbehalte zu respektieren. Gibt es aber eben nicht, und so bleibt der Stand der Dinge weiterhin im Fahrradkette-Stadium juristischer Spitzfindigkeiten. Auch wenn die Bitkom-AutorInnen diesen Zustand dreist in „Transparenz“ umlabeln.
Quelle: KI-generiertes Bild von J. Scriba (DeepDream)
In dieser an Papieren und Studien nicht armen Zeit, mag mancher einen Blick auf die 90-seitige Erhebung „KI und Bildende Kunst – Studie zu Chancen und Risiken“ werfen. Auftraggeber sind die kulturpolitischen Schwergewichte Stiftung Kunstfonds und Initiative Urheberrecht. Das Ziel des Unterfangens wird wie folgt beschrieben: „Zur aktuellen Situation von bildender Kunst und KI liegen bisher keine fundierten Erhebungen vor. Die … Studie möchte in einem ersten Schritt diese Daten und Fakten liefern. Ziel ist es, eine zahlenbasierte Momentaufnahme zur Situation in der bildenden Kunst zu bieten und den aktuellen Diskurs zu Kunst und KI zu ergänzen.“
Die aus den einer beeindruckende Menge online von KünstlerInnen ausgefüllten Fragebögen und in Interviews mit ExpertInnen gewonnenen Erkenntnisse gerinnen in zahlreichen Balken- und Tortengrafiken garniert mit Pfeil-gespickten Schaubildern dann aber zu oft recht unterkomplexen Bulletpoints, wie
„Ein hohes Risiko besteht darin, dass der Markt mit KI-generierten Produkten überschwemmt wird und echte menschliche Kunstwerke an Sichtbarkeit, Auffindbarkeit und Wert verlieren.“
Studie „KI und Bildende Kunst“
Vergeblich sucht man nach einer Definition von „echten menschlichen Kunstwerken“, wundert sich über die vermeintliche Gleichsetzung von Bild/Objekt und Kunstwerk und könnte sich als Fotograf fatal an die Diskussionen über den Wert von Fotografie im Vergleich zu echten handgemalten Portraits erinnert fühlen. Hat die Kunstwelt nicht schon vor vielen Jahren entschieden, dass ein Urinal in der Hand von GWS-Fachkräften keine Kunst ist, sondern nur, wenn es von anerkannt Kunstschaffenden signiert in der richtigen Intention zu solcher geadelt wird?
Für einen lustvollen Verriss der Studie durch einen promovierten Kunstwissenschaftler lese man diesen Essay von Doc Baumann.
„Die in der Studie zum Ausdruck kommenden wirtschaftlichen Ängste sind durchaus nachvollziehbar. Nur die Begründungen sind es nicht.“
Doc Baumann
Freuen wir uns über den „ersten Schritt“ und sehen gespannt der weiteren Diskussion entgegen.
Deutlich beunruhigender als die möglicherweise KI-befeuerte Kunst-Schwemme scheint mir dieses wissenschaftliche Paper von KI-Forschern (viele in Diensten verschiedener Google-Laboratorien) zu sein. Statt öffentlichkeitswirksam vor der Versklavung der Menschheit durch fiese Maschinenhirne zu warnen, untersuchten sie 200 Vorfälle, in denen Menschen mit Hilfe von KI-Werkzeugen Zeitgenossen hinters Licht führten. In der Zusammenfassung warnen die Experten vor einem schleichenden Realitätsverlust als Resultat der verhältnismäßig simpel zu kombinierenden Generatoren:
„Während die Furcht vor ausgeklügelten Angriffen die öffentliche Diskussion beherrscht, zeigen unsere Ergebnisse, dass ein breites Spektrum von Akteuren leicht zugänglichen Missbrauch mit geringem technischem Aufwand betreibt, der oft auf finanziellen oder Reputationsgewinn ausgerichtet ist. Diese Missbräuche sind zwar nicht immer offen böswillig, haben aber weitreichende Folgen für das Vertrauen, die Authentizität und die Integrität von Informationsökosystemen.“
Google DeepMind-Studie „Generative AI Misuse“
Bis demnächst
Jürgen