Quelle: KI-generiert von J. Scriba mit Dall-E
Ich bemühe mich, den Kalender wieder einzuholen. Vielleicht klappt es ja nächste Woche…
Wir witzeln ja schon seit Wochen darüber, dass es irgendwann mal passieren wird, und so kam es: Ein Fotograf hat schelmisch ein echtes Foto zu einem Wettbewerb für KI-generierte Bilder eingereicht, errang bei Jury und Publikumsvoting den dritten Platz und wurde disqualifiziert, als der Schwindel aufflog.
Miles Astray hatte die Aufnahme des bizarr und scheinbar kopflos in abstrakter Landschaft stehenden Vogels „Flamingone“ genannt, und damit wohl perfekt den Geschmack der nach origineller Bilderware suchenden Zielgruppe getroffen.
Nun verkauft der Künstler das Bild als „Ikone des KI-Widerstands“ in offener Edition wahlweise als randloser Print, mit weißen Fine-Art-Rand oder gar mit echtem Holzrahmen in seinem Onlineshop.
Quelle: Miles Astray, Online-Shop
Dann haben wir ja jetzt wohl alle Permutation der Täuschungen und Missverständnisse durch: Das KI-Bild als angebliches Foto (Kollege Boris Eldagsen), das Foto als angebliches KI-Bild, und schon vor einiger Zeit, das echte Foto (Suzi Dougherty), das von der Jury für KI-generiert gehalten und daher ausgeschlossen wurde.
Wobei….
Mich macht schon etwas stutzig, dass der Name des Flamingo-Fotografen sich sehr wörtlich übersetzen lässt zu „Meilenweit verirrt“. Sollte am Ende der Fotokünstler ein Avatar sein, der uns jetzt mit einer virtuellen Kamera narrt?
Ansonsten herrscht mal wieder große Aufregung über mutmaßliche Schurkereien von Adobe und Meta, was das Abgreifen von NutzerInnen-Schöpfungen für das Training von KI-Modellen und Bildgeneratoren anbelangt. So sorgten Änderungen in Adobes AGBs für Wellen, in denen sich der Konzern einräumen lässt, auf Daten von Verwendenden der Creative Cloud zuzugreifen.
Daraus zu schließen, man werde sich an den Bildern für Trainingszwecke vergreifen, sei jedoch ein Missverständnis, verkündete Adobe wenig später. Hinter den Änderungen steckten nur juristische Feinheiten, damit der Konzern beispielsweise für die Analyse von Programmfehlern auf Daten zugreifen könne.
Hier kann man dies in Langversion lesen mit diversen Versicherungen, dass Bilder und Copyrights niemals angetastet werden:
https://blog.adobe.com/en/publish/2024/06/10/updating-adobes-terms-of-use
Das Verhältnis zur Fotoszene bleibt jedoch angespannt (wie ja auch schon in meinen Posts verschiedentlich erwähnt). Jüngstes Beispiel ist das Auftauchen von KI-generierten Bildern im Stil von Altmeister Ansel Adams auf der Adobe Stock-Plattform. Nach wütenden Protesten der Nachlassverwalter entfernte Adobe diese. Vermutlich ist dies aber nur ein prominenter Einzelfall und die Wirkung der Entfernung eher symbolisch. Die Nutzung von Stil-Referenzen ist ja inzwischen auch in den Firefly-basierten Tools implementiert, und so kann natürlich jede AnwenderIn beliebig ähnliche Meisterwerke generieren lassen, wenn ErSie sich ganz so doof anstellen, diese unter Nennung der Plagiierten irgendwo verkaufen zu wollen.
Quelle: Petapixel/Adobe Stock
Auch Facebook/Insta-Mutter Meta hat Trouble mit den Geschäftsbedingungen. Mark Zuckerberg hat ja schon vor einiger Zeit durchblicken lassen, dass sein Konzern im Rennen um die besten KI-Modelle einen enormen Vorteil gegenüber Konkurrenten habe: Die NutzerInnen seiner Plattformen liefern potentielles Trainingsmaterial in kaum überschaubarer Menge frei Haus, während andere sich das Material mühsam aus dem Netz zusammensaugen müssen.
Da war es eigentlich nur folgerichtig, diesen Rollgriff in den Contentspeicher auch irgendwann in den AGB auszubuchstabieren. Dank der zwischenzeitlichen Sensibilisierung der Öffentlichkeit löste der Versuch aber einen veritablen Shitstorm aus, so dass Meta nun leicht schmollend einige KI-basierte Dienste in der EU nicht anbieten will. Nachzulesen beispielsweise hier:
Eine Anleitung der Verbraucherzentrale für einen vorbeugenden Widerspruch als NutzerIn gegen die Verwertung von eingespeistem Content für KI-Training gibt es hier:
Eine Gruppe von FotografInnen um Daniel Etter wirbt indessen um Unterschriften unter einen offenen Brief an Meta, in dem Sie außerdem dazu auffordert, die Meta-KI generell nicht mit authentischen Pressefotos zu trainieren, da allzu ähnlich generiertes Material nicht nur die berufliche Zukunft der real Fotografierenden, sondern auch die Demokratie an sich bedrohe. Wer unterzeichnen mag, findet die Möglichkeit hier:
https://anopenlettertowpp.medium.com/opt-out-an-open-letter-to-meta-ee7d818e9ba3
Quelle: medium.com
Apple hat ja inzwischen das seit Wochen geleakte Geheimnis gelüftet, dass die Leute aus Cupertino nur scheinbar KI-mäßig hinterherhinken, sondern schon ganz bald ganz tolle ungemein nützliche Funktionen in Ihre Geräte integrieren werden. Von den versprochenen Assistenzfunktionen zum automatischen Beantworten von emails und endlich auf Anhieb verstehenden Siri-Hilfen habt Ihr sicherlich schon anderswo gelesen. Wer tiefer einsteigen mag, findet hier ein längliches Technik-Papier, in dem Apple erklärt, was seine Foundation-Models von anderen Ansätzen unterscheidet, insbesondere das angeblich von vornherein implementierte Bemühen, Stereotype in den generativen Erzeugnissen zu vermeiden und die Privatsphäre der Benutzer zu schützen durch eine Kombination von lokaler Datenverarbeitung ohne Datenverkehr zu Apple-Servern oder eine spezielle Verschlüsselung der Daten in den Cloud-basierten Rechenzentren.
https://machinelearning.apple.com/research/introducing-apple-foundation-models
Schau’n wir mal, wie sich das in der Praxis auswirkt. Dieses Jahr wird es allerdings die meisten Funktionen nur für NutzerInnen von englischsprachigen Betriebssystemen geben, und so ganz zufällig wird es auch nicht sein, dass die lokale KI sich so richtig nur auf allerneuesten Endgeräten heimisch fühlt.
Im generierenden Bildbereich soll ein „Image Playground“ mit Werkzeugen wie dem „Zauberstab“ zu Diensten sein, mit der eine krakelige Handskizze zur gekonnten Zeichnung wird (Haben woll! – Muss ich dann doch nicht mehr ganz so neidisch sein auf die von Architekten scheinbar mühelos auf Papierservietten gekritzelten Bauphantasien):
Quelle: Youtube, Apple
Dabei finde ich interessant, dass anscheinend von vornherein diverse Stile von Skizzen und Illustrationen angeboten werden, nicht aber fotorealistische Bilderzeugung. Damit ließe sich elegant jegliches Kennzeichnungs-Dilemma umschiffen und beim Betrachter auch ohne solche Label Missverständnise über die Nicht-Authentizität des Bilds vermeiden.
Ich finde ja, darüber sollte viel mehr nachgedacht werden bei der redaktionellen Verwendung von „Symbolbildern“. Sähen diese unverkennbar aus wie Illustrationen und könnte man sich umgekehrt sicher sein, dass alles, was wie ein Foto aussieht, auch ein solches ist und echte Realität zeigt (und nicht z.B. Models, die Mechatroniker oder Krankenschwestern darstellen), wären wir in der Debatte über den drohenden Vertrauensverlust in jede Art von Bild doch deutlich weiter, oder?
Bis demnächst
Jürgen