Bei der Mitgliederversammlung des Deutschen Kulturrats am 30. September 2021 wurde auch der Antragdes neu gegründeten Deutschen Fotorats behandelt. Dieser hatte im Sommer die Aufnahme in den Deutschen Kulturrat beantragt, denn in dem vor 40 Jahren gegründeten Deutschen Kulturrat mit bisher acht Sektionen ist die Fotografie als eigenständige schöpferische Kategorie bisher nicht vertreten.
Und dies, obwohl das Kreativmedium Fotografie auch im deutschen Urheberrecht eigenständigen Werkschutz genießt.
Olaf Zimmermann, Geschäftsführer des Deutschen Kulturrates: „Im Ergebnis kam die Mitgliederversammlung zu dem Schluss, dass sie in diesem Jahr noch keine Entscheidung treffen kann, im kommenden Jahr das Thema erneut aufgreifen und dann entscheiden will. Zwischenzeitlich sollen Vertreter und Vertreterinnen des Deutschen Fotorates in den Sprecherrat des Deutschen Kulturrates eingeladen werden, um im persönlichen Gespräch darzulegen, warum die Mitglieder des Deutschen Fotorats eine eigene Sektion der Mitwirkung in einer bereits bestehenden Sektion vorziehen.“
Gründungsmitglieder des Deutschen Fotorats sind der BFF Berufsverband Freie Fotografen und Filmgestalter, die Deutsche Fotografische Akademie (DFA), die Deutsche Gesellschaft für Photographie (DGPh) und FREELENS. Damit vertritt der Deutsche Fotorat die künstlerisch-kulturelle Sparte Fotografie in all ihren Facetten.
Mit dem Deutschen Fotorat als neuem Mitglied im Deutschen Kulturrat soll ein wichtiges kulturpolitisches Signal gesetzt und die Lücke im Kanon der kulturellen Verbände geschlossen werden. Eine Angliederung an bestehende Sektionen des Kulturrats wurde schon einige Jahre diskutiert, führte jedoch zu keinen tragfähigen Ergebnissen. Daher bedauert der Deutsche Fotorat, dass sich der Deutsche Kulturrat noch nicht zur Aufnahme des neuen Dachverbands entschließen konnte, nimmt aber gerne das Angebot für eine Kooperation und einen Austausch im Sprecherrat an.
Unabhängig von der Aufnahme in den Deutschen Kulturrat arbeitet der Deutsche Fotorat an der besseren Vernetzung der Fotoszene in Deutschland. Schon in der Gründungsphase hat sich der Rat als neues Forum für den intensiven Austausch unter den Gründungsverbänden bewährt. Er treibt die Aufnahme weiterer bundesweit tätiger Fotografieverbände aktiv voran.
Hamburg, 11. Oktober 2024 – Der Dachverband für Fotografie in Deutschland, der Deutsche Fotorat, hat sich erfolgreich in den gemeinnützigen Verein „Deutscher Fotorat e.V.“ umgewandelt. Der künftige Vereinssitz wird Hamburg sein, wo am heutigen Tag die Gründungsversammlung in den Räumlichkeiten des Berufsverbandes FREELENS e.V. stattfand. Die Behörde für Kultur und Medien Hamburg hat die Versammlung begleitet und kündigte an, den Deutschen Fotorat mit einer Projektförderung im Aufbau der neuen Strukturen zu unterstützen.
Dr. Carsten Brosda, Senator für Kultur und Medien in Hamburg, würdigt die Arbeit des Fotorats: „Erst 2021 gegründet, hat sich der Deutsche Fotorat zu einer wichtigen Institution für die Förderung der Fotografie in Deutschland entwickelt. Insbesondere seine Etablierung als eigenständige Sektion im Deutschen Kulturrat hat ein wichtiges Zeichen für die Anerkennung der Fotografie als eigenständige Kunstform gesetzt. Ich freue mich sehr, dass der neu gegründete Verein sich nun in Hamburg niederlässt und dadurch auch die vielfältige Fotografieszene in der Stadt stärkt.“
„Die Gründung des Deutschen Fotorats e.V. eröffnet uns neue Wege, um die Fotografie in Deutschland weiter zu fördern. Die Vereinsstruktur bietet uns nicht nur mehr Flexibilität, sondern auch neue Ressourcen, um gemeinsam mit unseren Mitgliedern unsere Ziele zu erreichen. Wir haben in den letzten zwei Jahren eine solide Basis geschaffen, um die Strukturen weiter zu professionalisieren. Jetzt ist es an uns allen, diese neuen Möglichkeiten gemeinsam im Sinne der Sache weiter zu nutzen und die Fotografie als Kulturgut in Politik und Gesellschaft nachhaltig zu verankern“, erklärten Anna Gripp und Julia Laatsch als Vorstandsvorsitzende des neuen Vereins.
Der Deutsche Fotorat wurde 2021 gegründet und hat sich seither erfolgreich als zentrale Interessenvertretung der Fotografieszene in Deutschland etabliert. Berufsverbände und Kulturvereine gehören ebenso zu den Mitgliedern wie öffentliche Archive und Ausstellungsinstitutionen. Seit September 2023 ist der Dachverband eine eigenständige Sektion des Deutschen Kulturrats und vertritt die Fotografie damit erstmals in der Historie als eigenständiges Kreativmedium auf höchster Ebene im Spitzenverband der deutschen Kulturverbände. Inzwischen gehören dem Deutschen Fotorat 39 Mitgliedsorganisationen an. Alle Mitglieder profitieren von einem starken Netzwerk Fotografie. Gemeinsam setzen sie sich in Deutschland für das Medium Fotografie, für die Fotokultur, für die fotografische Berufspraxis ein. Die Arbeit der Arbeitsgruppen beschränkt sich dabei nicht nur auf Deutschland, sondern auch internationale Vernetzungen und aktive Teilnahme am Diskurs zu KI auf EU-Ebene spielen eine wichtige Rolle.
Für weitere Informationen oder Interviewanfragen wenden Sie sich bitte an:
Deutscher Fotorat e.V. c/o FREELENS e.V. Anna Gripp & Julia Laatsch
Foto: Gruppenbild mit den beteiligten Mitgliedern. Anwesend waren folgende Verbände, Vereine und Institutionen:
Allianz Deutscher Designer (AGD), Berufsverband Freie Fotografen und Filmgestalter (BFF), bund professioneller porträtfotografen (bpp), Bayrische Staatsbibliothek, Bundesverband der professionellen Bildanbieter (BVPA), Deutsche Fotografische Akademie (DFA), Deutsche Gesellschaft für Photographie (DGPh), Deutscher Journalisten Verband (DJV), Female Photoclub, FREELENS, Gesellschaft für Naturfotografie (GDT), Institut Heidersberger, laif, PIC Verband, Stiftung F.C. Gundlach und Verwertungsgesellschaft VG Bild-Kunst.
Der europäische AI-Act ist nun im zweiten Monat in Kraft, und keiner hat’s gemerkt, oder? Kommt drauf an. Auch wenn sich für die Normalos unter den Anwendenden noch nicht so viel getan hat, hat der Startschuss des nach Eigenlob epochalen Regelwerks hinter den Kulissen hektische Aktivität ausgelöst.
Recht ungewohnt kurzfristig hat die EU Aufrufe zu diversen Beteiligungsverfahren für die zukünftige Ausgestaltung des regulatorischen Rahmens ausgerufen. Bis zum 25. August waren Organisatoren aufgerufen, ihr offizielles Interesse an der Teilnahme zu den Konsultationen zur Ausarbeitung des „General-Purpose AI Code of Practice“ zu bekunden, also einer Art Verhaltenskodex für den Umgang mit allgemeinen KI-Systemen. Der Online-Fragebogen entpuppte sich als im Detail recht frickelig, doch es ist uns gelungen, diesen sprichwörtlich Minuten vor der Deadline als Deutscher Fotorat auszufüllen. So musste begründet werden, mit welcher Berechtigung man sich als relevanter Gesprächspartner sieht. Ganz wichtig aus Sicht der Regulierenden: Es dürfen nur Entitäten an den Beratungen teilnehmen, die ins europäische Transparenzregister eingetragen sind. Das haben wir kurz vor Schluss getan und bekamen die Bestätigung erst einen Tag danach. Mal sehen, ob uns das zum Verhängnis wird…
Als nächstes war ein EU-Fragebogen zur „Multi-stakeholder Consultation“ auszufüllen mit dem Titel „FUTURE-PROOF AI ACT: TRUSTWORTHY GENERAL-PURPOSE AI“. Den Zweck des Verfahrens erläutert das Europäische Amt für KI so:
Die Konsultation bietet allen Interessenträgern die Möglichkeit, zu den Themen des ersten Verhaltenskodex Stellung zu nehmen, in dem die Regeln für Anbieter von KI-Modellen für allgemeine Zwecke im Einzelnen dargelegt werden. Die Konsultation wird auch Informationen über die diesbezüglichen Arbeiten des Amtes für künstliche Intelligenz enthalten, insbesondere über das Muster für die Zusammenfassung der Inhalte, die für die Schulung der universellen KI-Modelle verwendet werden, und die begleitenden Leitlinien.
Alle interessierten Parteien werden zur Teilnahme aufgefordert. Das Amt für künstliche Intelligenz fordert ein breites Spektrum von Interessenträgern auf, Beiträge einzureichen, darunter Hochschulen, unabhängige Sachverständige, Vertreter der Industrie wie Anbieter allgemeiner KI-Modelle oder nachgeschaltete Anbieter, die das Modell in ihre KI-Systeme integrieren, Organisationen der Zivilgesellschaft, Rechteinhaber und Behörden.
Hier hat die Initiative Urheberrecht (IU) verdienstvolle Grundlagenarbeit geleistet, denn als pdf ist das Formular 34 Seiten lang. Hier gilt es, in sicherem Juristenenglisch die treffenden Wendungen zu finden, um unser Missfallen darüber zum Ausdruck zu bringen, dass beim Training aktueller KI-Modelle insbesondere bei Systemen zur Bildgenerierung bisher eher lax mit dem schöpferischen Eigentum der BildautorInnen umgegangen wurde. Wir haben auch die Gelegenheit genutzt, in einem individuellen Textanhang darauf hinzuweisen, dass die gegenwärtige Rechtsauffassung komplett praxisfern ist, ein „maschinenlesbarer“ Vorbehalt gegen die Nutzung eigener Bilder für das KI-Training sei auf jeder Website durch die sogenannte „robots.txt“-Datei mit peniblem Hausverbot für jeden einzelnen namentlich bekannten Bot zu dokumentieren.
Auch hier sind wir sehr gespannt, auf welche Weise und in welchem Umfang wir im weiteren Verfahren Gehör finden. Jedenfalls schonmal ganz herzlichen Dank an alle, die an diesem Milestone mitgemeißelt haben! Eigentlich ist das ein Fulltime-Job für gutbezahlte Lobbyisten (die wir leider derzeit nicht haben).
Gerne kamen wir auch der Bitte des Bundesministeriums für Wirtschaft und Klimaschutz nach, ihnen unsere Stellungnahme zur Info zu schicken. Das Ministerium hatte im August ebenfalls zu einem ersten Stakeholder-Austausch geladen. Dort äußerten vor allem viele Teilnehmende viele Fragen und scheinen ähnlich gespannt zu sein wie wir, was das in der Praxis für Folgen haben wird.
Leider deutet bislang vieles darauf hin, dass sich der Europäische AI-Act in der Tat zu einem „Compliance Monster“ entwickelt, wie auch in dieser Folge des Heise-Datenschutz-Podcasts die Spezialisten resümieren
Er würde damit in die Fußstapfen der DSGVO treten, deren Ziel zwar im Ansatz das Unterbinden von Missständen ist, sich zum größten Teil aber im peniblen Definieren von Randbedingungen und Voraussetzungen für „Rechtssicherheit“ ergeht, was dazu führt, dass jeder von uns gefühlt 100 mal am Tag seine Cookie-Präferenzen bestätigen muss, aber als FotografIn in dem Bewusstsein lebt, dass man bei der Ausübung seines Berufs kaum eine Chance hat, alles wirklich 100% richtig zu machen. Oder habt Ihr z.B. das Merkblatt des Berliner Datenschutzbeauftragten in der Fototasche?
Der AI-Act sieht ja im Kapitel Transparenzvorschriften zukünftig auch Kennzeichnungspflichten für den Output von KI-Systemen vor. Demnach soll in spätestens 24 Monaten, wenn auch dieser Teil inkrafttritt, klar sein, wie und in welchem Umfeld KI-generierte Bilder gekennzeichnet werden müssen. Allerdings geben schon die derzeitigen Formulierungen im Act Anlass zum Stirnrunzeln, denn so scheint die Notwendigkeit zur Kennzeichnung davon abzuhängen, ob das Bild vollständig generiert wurde, oder ob das Ausgangsmaterial ein Foto war, und ob die KI in „unterstützender Funktion“ tätig war oder die vom Nutzer benutzten „Eingabedaten“ „unwesentlich verändert“ wurden. Es fällt sehr schwer, sich auszumalen, nach welchen Kriterien Juristen in der Zukunft hier Grenzen ziehen wollen, und wie das Rechtssystem mit seinen Instanzenwegen und Präzedenzurteilen hier jemals mit der aktuellen Entwicklung der Tools wird mithalten können.
Wir glauben, hier müssen die Praktiker aus eigenem Antrieb nach Lösungen suchen. Zu diesem Zweck lädt der Fotorat am 11. Oktober Interessierte aus Bildredaktionen, Agenturen und Verlagen zu einem Roundtable in Hamburg ein. Eine erste Diskussionsrunde per Zoom war sehr interessant und offenbarte großen Gesprächsbedarf. Denn schon heute gehen in den Redaktionen journalistisch arbeitender Medien Leserbriefe ein mit dem Tenor „Euren Fotos glaube ich sowieso nicht mehr“, und auch die BildbeschafferInnen im Bereich Werbung und Corporate Publishing erleben die Bildung von Lagern zwischen jenen, die durchaus gerne die umständliche Fotografie durch Bildgeneration auf Knopfdruck ersetzen würden und anderen, die selbst beim simplen Abbilden einer Tomate Wert auf ein authentisches Foto legen.
Da wir es in Sachen Einspruch gegen Bildersaugen für KI-Training nicht bei kritischen Anmerkungen von der Seitenlinie belassen wollen, entstand in der Arbeitsgruppe die Idee, Fotografierenden praktische Werkzeuge an die Hand zu geben, mit denen sie ihre Rechtsposition stärken können. Erstes Resultat dieser Überlegungen ist der IPTC-Tagger:
In der Tat ist einer der Dreh- und Angelpunkte derzeitiger rechtlicher Scharmützel die Frage, ob denn die Urheber von Bildern, die nun gegen die Verwendung Ihrer Werke beim Training von Bildgeneratoren vorgehen wollen, beizeiten ihren Vorbehalt in geeigneter „maschinenlesbarer Form“ zu erkennen gegeben haben.
Dabei scheinen Gerichte dazu zu neigen, entsprechende Klauseln in den Nutzungsbedingungen z.B. von Bildagenturen nicht für maschinell lesbar zu halten. Eifrig unterstützt wird diese Ansicht ausgerechnet von jenen Entwicklern, die ihre unter dem gleichen Dach entwickelten Sprachmodell als digitale Assistenten preisen, die imstande sind, komplizierte Sachverhalte aus großen Textmengen zu extrahieren und allgemeinverständlich zusammenzufassen. Bis der Streit um die korrekte Interpretation entschieden ist, dürften Jahre vergehen.
Da empfiehlt es sich, schon heute entsprechende Willensbekundungen in den Bildern selbst zu verankern. Das geht nämlich schon seit einiger Zeit in den sogenannten IPTC-Daten. Das sind Metadaten in jedem Bild, in denen Dinge wie der Typ der Kamera, Aufnahmezeitpunkt, Blende, Verschlusszeit und möglicherweise GPS-Daten stehen. Dort kann man auch Copyright-Vermerke einbetten und eben ein genormtes „Data Mining“-Statement, das die Nutzung zum KI-Training oder für Suchmaschinen erlaubt oder verbietet:
Ebenfalls relativ modern ist das Feld „Digital Source“, das die Klassifizierung des Bildes in sehr feine Nuancen zwischen rein synthetisch erzeugten Werken und Originalfotografien zuläss.
Nur leider zeigen übliche Standardwerkzeuge wie Photoshop und Lightroom einige dieser Felder gar nicht an, oder machen das Ändern dieser Daten zu einer umfangreichen Klick-Orgie.
Dankenswerterweise hat AG-Mitglied Peter Hytrek, im wahren Leben Chef der DINAX GmbH, einige Stunden seiner Entwickler spendiert, um das Konzept des Taggers Wirklichkeit werden zu lassen.
Mit dem kleinen Programm können FotografInnen in ganzen Stapeln von Bildern einzelne oder alle dieser Rechte-relevanten Daten auf gewünschte Werte setzen, bevor sie beispielsweise Bilder ins Netz stellen oder an Kunden weitergeben.
Natürlich lässt sich derzeit nicht garantieren, ob das wirklich gegen das Einverleiben durch Bildgeneratoren schützt, denn dafür müssten die Bildsauger solche Einträge respektieren. Auch ist es derzeit üble Praxis vieler Plattformen, auf denen Bilder geteilt werden, die Metadaten nach dem Hochladen schlicht komplett zu löschen. Aber zumindest muss man sich dann nicht mehr von Gerichten und den Betreibern von Trainingsdatenbanken sagen lassen, man habe ja nicht ahnen können, dass jemand mit dieser Nutzung nicht einverstanden war.
Es bleibt leider in diesem Post schwerpunktmäßig trocken juristisch. Für Hartgesottene empfiehlt sich die Lektüre der gerade veröffentlichten Tandemstudie von Prof. Dr. Tim W. Dornis (Universität Hannover) und Prof. Dr. Sebastian Stober (Universität Magdeburg) im Auftrag der Initiative Urheberrecht. Der 218-seitige Wälzer kann hier kostenlos heruntergeladen werden:
Die beiden Spezialisten setzen sich im Detail mit dem Prozess des Datensammelns für das Training von KI-Modellen auseinander und hinterfragen die Ansicht der KI-Entwickler, hier würde das Urheberrecht nicht verletzt, denn es würden erstens keine Werke „vervielfältigt“, und zweitens falle das Sammeln von Trainingsdaten unter die „Data Mining Schranke.“
Mit diesem Passus wollten die Gesetzgeber seinerzeit rechtliche Hürden für Forschungsvorhaben beseitigen, doch Kritiker bestreiten, dass sich die Hersteller kommerzieller KI-Systeme auf dieses Forschungsprivileg berufen können.
Hier gibt es eine Zusammenfassung der Ergebnisse und hier die dazugehörige Pressemitteilung. Knackiges Zitat dazu:
„Diese Studie hat Sprengkraft, weil sie belegt, dass wir es hier mit einem groß angelegten Diebstahl am geistigen Eigentum zu tun haben. Nun liegt der Ball bei der Politik, daraus die nötigen Konsequenzen zu ziehen und dem Raubzug zu Lasten von Journalist:innen und anderen Urheber:innen endlich ein Ende zu setzen“
Hanna Möllers, Justiziarin des DJV
Zum Abschluss des juristischen Exkurses hier noch ein Hinweis auf eine aktuelle Stellungnahme des Deutschen Presserats:
Der Rat ermahnt Redaktionen zum ethischen Umgang mit KI-Bildern und erklärt: „Es darf nicht der Eindruck entstehen, dass künstlich generierte Bilder die Realität abbilden.“ Gefordert wird die Kennzeichnung als „Symbolbild“.
Das ist insofern interessant, als darauf verzichtet wird, eine gesonderte spezielle Kennzeichnung für KI-Generate einzuführen. Die Symbolbild-Richtlinie gibt es schon länger und bezieht sich auf „insbesondere eine Fotografie, [die] beim flüchtigen Lesen als dokumentarische Abbildung aufgefasst werden [kann]“.
Ich persönlich finde das sehr vernünftig, denn worin läge der Gewinn, beispielsweise eine vom Stock-Fotografen mit Models gestellte Krankenhausszene anders zu kennzeichnen als die KI-generierte Pseudo-Krankenschwester, wenn beide ähnlich aussehen, aber eben nicht das zeigen, was man zu sehen meint, nämlich ein Krankenhaus?
Quelle: The Verge
Zur Aufheiterung der Hinweis auf ein Interview mit dem ehemaligen Google-Chef Eric Schmidt. Er plauderte vor Studenten der Stanford-Uni aus dem Nähkästchen des Silicon Valley und fasste die „übliche Vorgehensweise“ trocken so zusammen: Mann müsse sich nicht besonders um geistiges Eigentum Anderer beim harten Kampf um Marktanteile kümmern. Entweder, man werde schnell so erfolgreich und reich, dass man sich teure Anwälte leisten kann, die das Schlamassel hinterher wieder geradebiegen, oder man geht schnell unter, weil das Produkt niemanden interessiert, und damit krähe auch kein Hahn mehr nach eventuellen Fehltritten.
Quelle: The Verge
Überwiegend kritisch sehen Tester der neuesten Google-Smartphones der Serie „Pixel 9“ die damit freigeschalteten KI-Funktionen des „Google Magic Editors“.
Ohne das Phone aus der Hand zu legen, lassen sich im Editor mit simplen Prompts gerade aufgenommene Fotos zu alternativen Realitäten ummodeln. So konnten Ausprobierende harmlose Straßenszenen in Unfallorte verwandeln oder Erdbebenfolgen und Überflutungen simulieren.
Quelle: The Verge
Die KI-Kennzeichnung in den Screenshots stammt von den Online-Medien. Als BesitzerIn eines Pixel-Phones kann man die re-imaginierten Bilder problemlos auf Facebook und Instagram teilen, ohne dass dort irgendwelche verräterischen Labels auftauchen würden. Zumindest derzeit scheinen die KI-Änderungen im Magischen Editor keine Spuren in den Metadaten der manipulierten Bilder zu hinterlassen.
Damit erleben wir gerade einen krassen Gegensatz zur Situation vor ein paar Monaten, als die automatischen Kennzeichnung mit dem „Made with AI“-Sticker durch Meta oft auch unveränderte Fotos inkriminierte oder das simple Entfernen von Sensor-Flecken in Photoshop einen Warnhinweis auslösen konnte.
Quelle: Connectas.org
Journalisten in Venezuela nutzen derweil KI-Avatare, um über Realitäten aufzuklären. Die synthetischen Reporter La Chama und El Pana berichten über Wahlfälschung und Unterdrückung in dem südamerikanischen Land. „Es ist nicht mehr vernünftig, vor der Kamera zu stehen“, zitiert der Guardian die Initiatoren.
Die Journalisteninitiative Connectas erklärt zum Projekt:
„Operación Retuit“ ist eine Strategie, die ursprünglich entwickelt wurde, um die Zensur und Unterdrückung von Journalisten in Venezuela zu umgehen. Sie nutzt künstliche Intelligenz nicht, weil das Tool gerade in aller Munde ist, sondern um Journalisten vor dem harten Durchgreifen zu schützen, das nach der Wahl folgte. Heutzutage werden Journalisten verhaftet, weil sie über Wahlereignisse berichten. Und es gibt eine Informationsblockade durch Kommunikationsunternehmen, um die freie Verbreitung von Informationen einzuschränken. Aus diesem Grund zielt Operacion Retuit darauf ab, relevante und verifizierte Informationen bereitzustellen, die von einem Dutzend venezolanischer und internationaler Medienunternehmen verbreitet werden, die bei den Initiativen „Venezuela Vota“ und „#LaHoraDeVenezuela“ zusammenarbeiten.
Bleiben wir zuversichtlich, dass dieser KI-Einsatz eine Nischenanwendung bleibt
Mit großer Erleichterung reagierte der Kunsthandel in Deutschland auf das Anfang Juni verabschiedete Jahressteuergesetz. Ab dem 1. Januar 2025 werden Galerien und Kunsthandel wieder mit dem ermäßigten Umsatzsteuersatz von 7% mit Kunst handeln können. Dies gilt allerdings weiterhin nicht für die im Kunstmarkt gehandelte Fotografie. Da bleibt es wie bisher bei 19% Umsatzsteuer. In der Praxis wird dies jedoch nicht immer einheitlich gehandhabt und selbst von Steuerberatern und Finanzämtern werden zum Teil widersprüchliche Angaben gemacht.
Aus diesem Grund führt der Deutsche Fotorat eine anonyme Umfrage durch. Diese stellt eine Bestandsaufnahme dar und richtet sich sowohl an Fotografierende mit künstlerischem Fokus, als auch an Galerist*innen. Die Teilnahme wird ca. 3 Minuten in Anspruch nehmen.
Wir bitten um Teilnahme bis zum 15. Oktober 2024 (Frist wurde verlängert) unter folgendem
KI-Firmen machen keinen Sommerurlaub. Das können sie sich nicht leisten, denn die Investoren wollen für die Milliarden, die verbrannt werden, regelmäßig frische Resultate sehen. Das infiziert auch die kleineren Player, denn in der Branche hängt alles mit allem zusammen, und wenn OpenAI Erwartungsstress wegen mutmaßlich abflachender Fortschrittskurven bekommt, müssen andere zeigen, dass sie entweder die Chance nutzen um aufzuschließen oder dass ihre Kurve noch schön steil nach oben zeigt.
So sind auch im Bereich der Bildgeneratoren in den letzten Wochen wieder zahlreiche Neuheiten verkündet worden, oder zumindest Dinge, die sich als solche vermelden lassen.
Midjourney hatte Ende Juli mit Version 6.1 zunächst viele Details verbessert. So sollen jetzt Bilddetails und Texturen präziser dargestellt sowie die „Kohärenz“ in den Bildern verbessert werden, also Ausreißer und Artefakte reduziert sein.
Im August wurde dann endlich allgemein zugänglich, was schon erstaunlich lange in elitären Alpha-Testerkreisen vor sich hin gegärt hatte: Ein Web-basiertes Interface, mit dem man ähnlich wie bei den meisten anderen Bildgeneratoren Prompts nicht mehr nur ähnlich archaischer Programmiersprachen per Befehlszeile im Discord-Chat übermitteln kann, sondern in Textboxen eingibt, in deren Nähe man auch die Ergebnisse zu sehen bekommt, sowie an Reglern und Knöpfen drehen kann.
Quelle: Midjourney.com
Wer durch die opulenten Musterbild-Galerien anderer User streift und Lust verspürt, sich selbst an dem von vielen Kennern als nach wie vor bester Generator eingeschätzten System zu versuchen, wird sogleich zum Abschluss eines Abos ab $10 pro Monat genötigt. Mal sehen, ob diese Marketing-Offensive den erhofften umsatzsteigernden Effekt hat.
Noch nicht ganz so gut zugänglich ist der Generator der Newcomer von Black Forest Labs. Deren Bild-KI „Flux.1“ verspricht vor allem das Ende von Artefakten wie missgebildeten Händen in KI-Bildern.
Quelle: Black Forrest Labs Homepage
Das könnte man als übliches Marketing-Geräusch werten, doch die Gründer der in den USA ansässigen Firma, Robin Rombach, Andreas Blattmann und Dominik Lorenz gehören zu den Wissenschaftlern der ersten Stunde, die einst in universitären Forschungsgruppen in München und Heidelberg die Bilderzeugung auf Basis von Diffusionsmodellen erfanden. Vor Gründung ihrer eigenen Firma waren sie bei Stability.ai tätig, das in der kommerziellen Anwendung der Modelle Vorreiter war, aber lange Mühe hatte, die typischen Bildfehler wie sechsfingrige Hände in den Griff zu bekommen. Mit einem öffentlich kommunizierten Investment von 31 Millionen Dollar spielt das Startup Etat-mäßig noch in der Sandkiste, aber die Erwartungen sind groß. Schon bald will die Firma auch einen Diffusionsmodell-basierten Video-Generator vorstellen und damit gegen OpenAIs Schlagzeilen-Giganten „Sora“ antreten.
Das Arbeiten mit dem Flux-Generator erfordert derzeit noch ein paar nerdige Umwege, wie den Zugriff auf andere KI-Modell-Hostingservices. Die Kollegen von Ars Technica haben das Modell ausgiebig getestet und bescheinigen ihm Qualitäten, die mit Platzhirschen wie Dall-E und Midjourney mithalten können. Bei der Herkunft der Trainingsdaten bleiben die Informationen jedoch derzeit dunkel wie der namensgebende Schwarzwald. Ars Technica mutmaßt, hier könnte die berüchtigte LAION-Datenbank verwendet worden sein, auf die wir ja insbesondere aus Anlass des in Hamburg geführten Gerichtsverfahrens ein kritisches Auge geworfen haben.
Quelle: Ars Technica
Mit demselben Prompt wie beim Dall-E Titelbild dieses Posts liefert Flux zumindest eine interessante Variation des Themas:
KI-generiert von J. Scriba / Flux.1
Blitzschnell hat sich Elon Musks Spielwiese X das Flux-Modell geangelt, um damit seinen Plattform-integrierten Bildgenerator Grok anzutreiben. Gemäß seines libertinären Credos, auf X die unzensierte Debatte zu pflegen, scheint auch der Grok-Generator wenig interne Bremsen eingebaut zu haben, mit denen andere KI-Werkzeuge inzwischen beispielsweise Abbildungen von Prominenten unterbinden, Darstellungen von Waffen oder unzüchtig unverhüllte Körperteile.
Fröhlich getestet haben dies natürlich gleich zahlreiche X-User und bereichern die Welt mit synthetischen Posts von Lady Gaga, Justin Bieber oder eben dem King of X:
Quelle: Min Choi, X
Im Blog von Docma gibt es eine schöne Sammlung jener kaum beschränkten Bilder. Inklusive solcher, die sich um typische amerikanische Prüderiefilter herummogeln, die zwar wuchtige Schnellfeuerwaffen lustvoll ausziselieren aber bei Reizwörtern wie „Bikini“ Alarm schlagen. Dass solche Ansätze schon konzeptionell problematisch sind, hat Docma-Urgestein Doc Baumann ja schon in verschiedenen Beiträgen angeprangert, als er sich beispielsweise genötigt sah, auf einen für Pornografie optimierten Bildgenerator zurückzugreifen (ja, auch das gibt es natürlich im Netz zu abonnieren), um Bilder von pseudo-antiken Statuen herzustellen, die artgerecht eher wenig anhaben.
Natürlich ist es verwerflich und illegal, reale Personen ohne ihr Wissen und ihre Zustimmung mit KI-gefakten Sexbildern zu demütigen, nur werden die potentiellen Straftäter das mit geeigneten Werkzeugen mit hoher Wahrscheinlichkeit trotzdem tun, während alle anderen Bildschaffenden sich ständig vor der roten Karte fürchten müssen, wenn ein Prompt auf der geheimen schwarzen Liste steht oder irgendein Algorithmus einen zu hohen Prozentsatz hautfarbener Pixel diagnostiziert.
Das Heldenbildchen von Musk aus dem X-Generator ist insofern symptomatisch/ironisch, als Musk besonders bei Betrügern als Rohmaterial beliebt ist, die mit angeblichen Investment Tipps des Elektroauto/Raketen-Visionärs Geld bei leichtgläubigen Kleinanlegern abgreifen.
Dieser Artikel der New York Times schildert ausführlich, wie raffinierte Trickdiebe durch Umarbeitung von authentischem Videomaterial Promotionbotschaften von mutmaßlichen Finanzgenies wie Musk, Bezos oder Warren Buffet generieren. Viele der Videos erwecken dabei den Eindruck, Youtube Live-Mitschnitte von angeblichen Großveranstaltungen zu sein, auf denen ein oppulentes Publikum die fiktiven Ankündigungen bejubelt. Daten von Sensity (eine Firma, die damit natürlich auch ihr Tool zum Erkennen von KI-Fakes promoted), legen nahe, dass Musk in einem Viertel der untersuchten Fakes seinen Auftritt hatte und Hauptdarsteller in vollen 90% der Betrugsvideos zum Reichwerden mit Kryptowährungen war.
Die Unternehmensberater von Deloitte schätzen, dass sich das Volumen betrügerischer Finanztransaktionen von derzeit über 10 Milliarden Dollar jährlich durch den Einsatz von KI-Werkzeugen bis 2027 verdoppeln könnte.
Quelle: New York Times
Ein ungutes Gefühl hinterlässt vor diesem Hintergrund eine Software wie „Deep Live Cam“, über die hier Ars Technica berichtet. Dieser KI-Generator benötigt nur ein normales Portraitfoto einer beliebigen Person, um selbige als Fake-Gesicht dann im Livestream einer Webcam anstelle der Real-Physiognomie des Menschen vor der Kamera einzublenden. Im Beispiel grimmassiert der Demonstrator recht überzeugend wahlweise als Meta-Chef Zuckerberg, US-republikanischer Vizepräsidenten-Kandidat Vance oder Filmstar George Clooney.
Quelle: Ars Technica
Dass die Erosion der Wirklichkeit sowohl von Bildfälschungen angetrieben wird, wie auch von deren bloßer Behauptung und dem damit einhergehenden generellen Misstrauen in Fotos, demonstriert wieder einmal Donald Trump.
Einerseits teilt der wenig Wahrheitsaffine gerne KI-generierte Bilder von angeblichen Swift-Fans des Präsidenten-Kandidaten (die von seinem X-Account wieder verschwunden sind, aber in Erinnerungs-Enthüllungsposts anderer User weiterleben)
Quelle: Peter Henlein, X
Andererseits wiegelt Trump seine Anhänger gegen Konkurrentin Kamala Harris auf, indem er behauptet, Fotos, die sie mit großen Menschenmengen zeigen, seien per KI gefälscht, denn in Wirklichkeit sei „NIEMAND“ da gewesen:
Quelle: Donald Trump, Trugh Social
Dabei ficht es den Demagogen auch nicht an, dass es mehrstündige Liveübertragungen der angezweifelten Veranstaltung im Fernsehen zu sehen gab und die Fotos in allen namhaften Medien zu sehen sind.
Gerne teilt Trump auch TikTok-kompatible Video-Generate, die ihn scheinbar mit (schon wieder) Musk zeigen
Quelle: Donald Trump, X
Bei diesen Beiträgen ist schwer auszumachen, ob die tatsächlich irgendwer für echte Aufnahmen hält, oder ob solche kommentarlos veröffentlichten Posts nicht genau den Zweck haben, eine Art Grundrauschen von medialem Dauerirrsinn zu erzeugen, vor dem sich jederzeit nach Bedarf retrospektiv dieses oder jenes als „satirisch gemeint“ erklären lässt.
Das muntere Spiel mit dem „Die einen sagen so, die anderen so“ dürfte den Trend zum allgemeinen Misstrauen in Bilder jeglicher Art weiter befeuern. So stellte das Meinungsforschungsinstitut Gallup schon Ende letzten Jahres fest, dass nunmehr der Punkt erreicht sei, an dem jene Amerikaner die größte Gruppe bilden, die Medien „überhaupt kein“ Vertrauen (39%) entgegenbringen im Vergleich zu „ziemlich viel“ (32%) oder „nicht sehr viel“ (29%).
Quelle: Gallup
Einen ähnlichen Stossseufzer („Manche Leute glauben uns einfach prinzipiell gar nichts mehr“) hörten wir kürzlich auch in einem Workshop der Fotorats-Arbeitsgruppe mit BildredakteurInnen. Mehr dazu in Kürze.
Hallo, ja, der Abstand zum letzten Post ist etwas länger, aber ich kann mich nicht mal mit Urlaub rausreden…
Die erste Gerichtsverhandlung gegen den KI-Trainingsdatenbankpfleger LAION habe ich ja im letzten Post schon kurz angerissen. Unser AG-Mitglied Julia Laatsch hat inzwischen für ihren Heimatverband Freelens diese deutlich ausführlichere Erläuterung verfasst:
Auch sie kommt zu dem Schluss, dass es doch recht weltfremd ist, von allen, die Fotos auf ihren Websites posten, zu erwarten, dass sie sich neben ihren Foto-Jobs auch ständig auf dem Laufenden halten, unter welchen mehr oder weniger kryptischen Tarnnamen aktuell welche Bots unterwegs sind, um denen dann gezielt den Zugang zur Website zu sperren, während die für die eigenen Sichtbarkeit in Suchmaschinen wichtigen Crawler weiter reindürfen.
Alexandra Lechner weist auf diese rechtlichen Einschätzungen der Rechtsanwältin Dr. Kerstin Bäcker hin zur nach wie vor schwammigen Forderung der Gesetzgebenden nach „Maschinenlesbarkeit“ von KI-Vorbehalten.
Am Ende landet allerdings auch dieser Artikel zur praktischen Umsetzung wieder beim Beispiel des hochkomplexen robots.txt-Files der New York Times, das ich auch im letzten Post zitiert habe – eigentlich als abschreckendes Beispiel dafür, welch nerdische Frickelei es ist, eine solche Hausverbots-Liste zusammenzustellen.
Dabei kommt mir gerade folgende Idee: So wie es heute für Webshop-Betreiber notgedrungen üblich ist, aus Angst vor formalen (von bösen Anwaltsbots erstellten) Abmahnungen Abos bei darauf spezialisierten (wohlmeinenden) Anwälten abzuschließen, die einen mit fortwährend aktualisierten AGBs versorgen, könnte doch mal jemand darauf verfallen, tagesfrische robots.txt-Dateien zu erzeugen, die Abonnierende automatisch in ihre Website einbinden. Komfortablerweise könnte man als KundIn eines solchen Services aus einem reichhaltigen Menü ankreuzen, welche Sorte Crawler man zulassen will und welche nicht. Da die derzeitigen robot-Tags genau solche eine inhaltliche Spezifikation nicht erlauben, obläge es dann dem Hausverbots-Provider, daraus eine Liste mit stubenreinen und unerwünschten Bots zu generieren.
Sind Programmierende unter den Lesenden, die Lust haben, daraus ein Geschäft zu machen? Oder fühlt sich vielleicht einer unserer Mitgliedsverbände berufen und in der Lage, das als Service für seine Mitglieder anzubieten?
Nun aber zur Erklärung des merkwürdigen Titelbilds:
Verschiedene Experten weisen in letzter Zeit immer häufiger darauf hin, dass der KI-Hype wirtschaftlich auf durchaus wackeligen Beinen steht und derzeit vor allem einem gigantische Geldverbrennung befeuert. So schätzt der üblicherweise sehr gut informierte Branchendienst „The Information“, dass OpenAI (das mit ChatGPT den Boom zumindest in der öffentlichen Wahrnehmung erst so richtig gezündet hat) dieses Jahr rund 5 Milliarden Dollar Verlust anhäufen könnte.
Dafür verantwortlich sind vor allem die enormen Kosten für das Training der immer komplexeren Modelle und den Betrieb der monströsen Rechenzentren, auf denen die Services laufen. Die jüngst vorgestellte Version GPT4o wirkt auf manche Beobachter vor diesem Hintergrund fast wie eine Verzweiflungstat, da sie einerseits nicht wirklich neue Leistungsmerkmale aufweist, sondern eher die bekannten Schwächen hinter einer glänzenderen Oberfläche versteckt, wie etwa der Scarlett-Johanssonesken Stimme, die ja auch prompt nach juristischem Geplänkel wieder in der Versenkung verschwand. Andererseits steigt OpenAI mit der kostenlosen Version in einen mutmaßlich ruinösen Preiskampf mit Konkurrenten ein, der viele Merkmale eines klassischen „Race to the Bottom“ aufweist, in einem Markt der nach wie vor Schwierigkeiten hat, langfristig loyale Großkunden zu binden und bislang nicht klar erkennen lässt, wer von den erbitterten Konkurrenten wirklich substanzielle technische Vorteile haben könnte.
Auch andere Zahlen aus dem KI-Universum sind schwindelerregend: Googles Konzernmutter Alphabet will nach einem Bericht des Economist dieses Jahr seine Ausgaben um 50% auf 48 Milliarden Dollar steigern – den größten Teil davon in KI-Entwicklung. Alphabet, Microsoft, Amazon und Meta sollen dieses Jahr insgesamt rund 100 Milliarden Dollar in neue Datacenter stecken, in denen dann KI-Modelle auf Spezialchips leben.
Alles in allem werden die Investitionen in neue Computing-Infrastruktur für die KI-Entwicklung für den Zeitraum von 2024 bis 2027 auf 1,4 Billionen Dollar (ja, europäische Billionen, entsprechend US-Trillionen) geschätzt. Entsprechend hoch ist der Druck auf die beteiligten Firmen, solche Ausgaben möglichst zügig in vermarktbare Produkte umzusetzen, sonst droht eine Bestrafung am Aktienmarkt, in dessen Bewertungen die Zukunftsaussichten ja bekanntlich schon „eingepreist“ sind. So wird OpenAI früher oder später die Hosen herunterlassen müssen, was denn nun GPT5 kann, oder was an den genüsslich befeuerten Gerüchten über eine angeblich schon im Geheimen werkelnde allumfassend intelligente KI (AGI) in ihren Labors dran ist.
Was davon fundierter Entwicklungsplan und was Blasen-Marketing ist, wird erst aus der Rückschau erkennbar werden.
Einstweilen übt sich Alphabet-Chef Sundar Pichai in fast Merkelscher Sachzwang-Logik:
„Das Risiko zu wenig [in KI] zu investieren ist dramatisch größer als das Risiko zu viel zu investieren.“
Sundar Pichai, CEO von Google und dessen Mutterkonzern Alphabet
Aber beschäftigen wir uns noch ein wenig mit konkret Bild-relevanten KI-News der letzten Zeit:
Quelle: dpreview.com
Adobe ermöglicht jetzt, in Camera Raw, Lightroom und Photoshop, die angekündigten „Content Credentials“ in die Metadaten hinzufügen.
Die Kollegen von dpreview beschreiben die Handgriffe, die man dazu tun muss, und noch wirkt das Ganze recht hakelig und unfertig. Sinn der Sache soll ja sein, dass endgültige Betrachter eines so erstellten Bildes durch den Klick auf ein Verifizierungs-Link nachprüfen können, welche möglicherweise verfälschenden Bearbeitungsschritte ein Foto durchlaufen hat, bis es z.B. auf einer Website erscheint.
Dabei muss man sich allerdings bewusst machen, dass die nun vorgestellten Werkzeuge hier am Computer des Bildbearbeitenden willkürlich den Startpunkt für die Bearbeitungskette legen. Ob also das in Photoshop signierte Bild tatsächlich aus einer Kamera stammt und die behauptete Realität wiedergibt, beweist ein solches Credential mitnichten. Wir haben es also hier mit einem technologischen Zwischenschritt zu tun (auf dem Weg zu vielleicht in Zukunft direkt in der Kamera signierten Fotos), der vermutlich eher dazu einlädt, weitere Unsicherheit in die Authentizitätsdebatte zu bringen, wenn demnächst Bildfakes mit Credentials auftauchen, bei denen nur ExpertInnen erkennen können, dass diese nichts beweisen.
Weiteren Grund zur Beunruhigung bereitet mir dieses sehr technische Hacker-Paper, das zeigt, dass ausgerechnet die cryptographischen Zertifikate, die Adobe und Microsoft für die Erstellung von C2PA-konformen Bildsignaturen verwendet werden, relativ leicht zur scheinbaren Besiegelung von offenkundigen Bildfakes mißbraucht werden können. Wenn ich bedenke, welche Probleme ich im Jahr 2024 habe, simple verschlüsselte Mails mit etablierten Banken und Steuerkanzleien auszutauschen, ohne dass in regelmäßigen Abständen nicht irgendwelche Infrastruktur ähnliche Zertifikate unberechtigt abweist oder durch einen falschen Klick ungerechtfertigt akzeptiert, dann scheint es wirklich noch ein recht langer Weg zu sein, bis solche Methoden so selbstverständlich funktionieren, dass wir ihnen im täglichen Umgang vertrauen und sie intuitiv anwenden können.
Der oben verlinkte Artikel erklärt, wie Adobe Stock nun seinem dort eingebauten Bildgenerator Fesseln anlegt, um NutzerInnen daran zu hindern, mit seiner Hilfe Stilkopien bekannter KünstlerInnen zu erstellen.
Den Anstoß gab ja unlängst die Empörung der Nachlassverwalter von Ansel Adams, die erreichten, dass Adobe Bilder aus seiner Stock-Library entfernten, die sogar in der Bildbeschreibung damit warben, KI-Generate im Stil des Fotografen zu sein. Nichtsdestotrotz konnte man durch Eingabe entsprechender Prompts im generativen Teil derselben Plattform sich selbst ähnliche Bilder stricken. Das soll nun vorbei sein, indem Prompts mit Wünschen wie „im Stile von….“ in Zusammenhang mit bestimmten BildautorInnen verboten sind, ebenso wie Referenzen auf bestimmte real existierende Persönlichkeiten wie auch bekannte markenrechtlich geschützte fiktionale Figuren.
Ein schönes Beispiel für die Schaffung neuer Berufe im Gegengewicht zum Jobverlust durch disruptive Innovationen. Freigesetzte BildredakteurInnen können jetzt auf ZensurlistenpflegerInnen oder ComicfigurencopyrightschützerInnen umschulen.
Meta kündigt unterdessen ein neues Tool zum lustvollen Realitätsverlust an. Das Kommando „Imagine Me“ soll in naher Zukunft auf alles Plattformen des Konzerns verfügbar sein. Damit können sich NutzerInnen von Facebook oder Insta-Accounts in beliebige Outfits oder Umgebungen hineinimaginieren und das Bildergebnis natürlich gleich mit der Welt teilen.
Das Feature basiert auf einem neuen hier technisch beschriebenen Bildgenerator, der im Gegensatz zu anderen Modellen auf detailliertes Finetunig der Prompts verzichtet. Aus dem Forschungsaufsatz stammt auch die Bildersammlung unten, die basierend auf einem einzigen Referenzfoto der Forscher am unteren Rand der Abbildung unterschiedlichste Bildergebnisse und -stile auswirft.
Quelle: KI-generiertes Bild von J. Scriba (Dall-E)
Fangen wir mit der letzten Woche an. Da trafen zufällig zwei Dinge zeitlich zusammen, die inhaltlich gut zusammenpassen: Alexandra Lechner machte mich auf eine Veröffentlichung des Bitkom e.V. aufmerksam, die schon Ende Mai erschienen ist. Unter dem Titel „Whitepaper zu Urheberrecht und generativer KI“ möchte der Verein, der laut Selbstdarstellung „die besten Köpfe und Unternehmen der digitalen Welt“ repräsentiert, wie im Vorwort ausgeführt, zur Versachlichung der Diskussion beitragen, denn
„Zuweilen nehmen die Diskussionen rund um generative KI – insbesondere im Verhältnis zu Urhebern und dem Urheberrecht – emotionale Züge an.“
Bitkom e.V.
Dass die Position des Vereins, dessen Mitgliedsfirmen nach eigenen Angaben zusammen rund zwei Millionen ArbeitnehmerInnen beschäftigen, tendenziell an einem geschäftebeflügelndem regulatorischen Umfeld interessiert ist, kann niemanden verwundern. Die Breitbeinigkeit der im Papier vorgetragenen Argumentationslinien verblüffen mich aber doch.
Seit nunmehr gut zwei Jahren erläutern uns in der Fotorat-Arbeitsgruppe Juristen, wie verzwickt die rechtliche Würdigung der Vorgänge rund um das Training von KI-Modellen sind. Wie wenig hilfreich das gegenwärtige Urheberrecht ist, weil historisch gewachsene Definitionen von Nutzungsarten wie Vervielfältigen und Veröffentlichen schwer zu jenen technischen Vorgängen passen, mit denen Daten zum Training von KI-Systemem gesammelt und verarbeitet werden. Wie schwer bis unmöglich die Abgrenzung Datamining zu Forschungszwecken und zur kommerziellen Anwendung in diesem Zusammenhang ist. Wie unklar der Gesetzgeber die Anforderungen an „maschinenlesbare“ Vorbehalte von Website-BetreiberInnen formuliert hat. Gerade dieser Tage diskutierten die Mitglieder der VG Bildkunst höchst kontrovers mögliche Satzungsänderungen, die neuartige Lizensierungsmöglichkeiten für KI-Training bzw. den Widerspruch gegen solche ermöglichen könnten…
Kurzum, man könnte (und tut es vermutlich gerade auch) ganze Bücher zu dem äußerst unübersichtlichen Thema schreiben. Und die Zahl der Personenstunden, die ExpertInnen seit dem ersten Auftauchen der generativen KI-Modelle im öffentlichen Bewusstsein in entsprechenden Roundtables, Workshops, Panels und Seminaren zugebracht haben, erreicht vermutlich eine ähnliche Größenordnung wie die Arbeitsleistung der theoretischen Teilchenphysiker, die im gleichen Zeitraum an mehrdimensionalen Weltmodellen gefeilt haben, um endlich die Gravitation mit der Quantenmechanik unter einen Hut zu bringen (bislang erfolglos).
Das Bitkom-Paper hingegen entstand offenbar auf einer ganz anderen Erkenntnis-Ebene. Dessen AutorenInnen ziehen das schlichte Fazit:
„Der Gesetzgeber [hat] durch die gesetzlichen Regelungen bereits einen sachgerechten Ausgleich zwischen den Interessen der Urheberinnen und Urheber und den Interessen der Gesellschaft und Industrie an Innovation geschaffen. …. Weitere Transparenzvorschriften, für die etwa gar nicht die Datenstrukturen vorliegen, sind also nicht nur nicht zielführend, sondern auch nicht notwendig.“
Bitkom e.V.
Wer als BildautorIn noch darüber rätselt, wie man zum Beispiel in der Praxis mit den Empfehlungen des umfänglichen Freelens-Leitfadens umgeht, den belehrt das Bitkom-Papier, dass das doch alles ganz einfach ist: Man erkläre schlicht seinen Wunsch, dass Bilder von der eigenen Website nicht zum Zwecke des KI-Trainings erfasst werden sollen in der sogenannten „robots.txt“-Datei, die auf jedem Webserver hinterlegt werden kann. Dort, so geben die Bitkom-Erklärer allerdings zu bedenken, müsse man natürlich sorgsam abwägen, welchen Inhalte-Durchforstern man den Zugang verwehre, denn von Suchmaschinen möchte man in der Regel ja doch ganz gerne gefunden werden (schließlich dient die Website meist dem für Freiberufler lebensnotwendigen Selbstmarketing), Bildabsaugern für KI-Generatoren den Zutritt jedoch versperren.
Wie feingliedrig so eine Liste mit Zugangsberechtigungen („Allow“) und Zutrittsverboten („Disallow“) aussehen kann, zeigt dieses Beispiel der New York Times. Schade, wenn man sich noch nicht damit beschäftigt hat, wer und was konkret hinter Bots mit Namen wie „AwarioSmartBot“ oder „peer39_crawler“ steckt. Hinzu kommt, dass üblicherweise die Entwickler von KI-Systemen nicht unter eigenem Namen das Netz durchforsten, sondern auf Datenbestände zurückgreifen, die andere aufgebaut haben. Ebenfalls ist der Respekt vor einem abweisenden Eintrag in die Roboter-Liste bestenfalls eine Absichtserklärung. In irgendeiner Form bindend ist ein so vorgetragener Wunsch keineswegs.
Aber auch da weiß Bitkom simplen Rat: Die Inhaber von Urheberrechten brauchen ja bloß in die Logfiles ihrer Webserver reinzuschauen. Da gibt es schließlich abertausende von Einträgen, von welchen IP-Adressen aus jemand auf die Website zugegriffen hat. Diese Einträge gleiche man einfach mit möglicherweise irgendwo verfügbaren Listen von IP-Adressen und deren mutmaßlichen Besitzern ab, die möglicherweise irgendwann Datenbanken von Bildern erstellt haben. Findet man dann heraus, dass diese Datenbank später von einem KI-Entwickler genutzt wurde (was die allerdings äußerst selten offenlegen), dann weiß man – schwupps – ob jemand gegen diesen Vorbehalt verstoßen hat:
„[So] können die Webseitenbetreiber die notwendige Transparenz für die Urheber schaffen und auch aufgrund der Transparenzvorschriften im AI Act können diese nachvollziehen, ob ihr Nutzungsvorbehalt respektiert wurde und gegen unrechtmäßige Verwendungen ihres geschützten Werkes vorgehen.“
•
Interessanterweise fand just letzte Woche, am 11. Juli, vor dem Landgericht Hamburg die erste Verhandlung eines seit langem betriebenen Verfahrens gegen den Laion e.V. statt, der eben so eine Datenbank mit Links zu Milliarden von Fotos aus dem Internet pflegt und diese dann beispielsweise der Firma Stability.ai zur Verfügung stellt, die damit ihre bildgenerierenden Diffusionsmodelle trainiert. (Der Fotorat hat dazu schon im April eine Stellungnahme verfasst.)
Urheberrechts-Spezialist Sebastian Deubelli versucht am Beispiel eines Fotos von Robert Kneschke genau gegen so eine nach Ansicht des Fotografen unrechtmäßige Verwendung vorzugehen und verlangt die Löschung des Bilds aus der Laion-Datenbank. Ganz ohne IP-Zugriffslisten und andere aufwändige Spurensuche ist in diesem Fall unstrittig, dass das Bild in der Laion Datenbank enthalten ist. Auch ist klar, dass das Bild von der Website von Bigstock stammt und dort vor etwa drei Jahren erfasst wurde, obwohl die Nutzungsbedingungen der Website solches Tun verboten.
Das Hamburger Gericht ließ in der ersten Verhandlung erkennen, dass es keineswegs in der übersichtlichen Bitkom-Welt agiert, sondern will sich bis zum nächsten Termin im September weiterhin den Kopf über zwei Aspekte zerbrechen: Fällt die Tätigkeit des Laion e.V. unter das sogenannte „Text und Datamining“, erlaubt nach Paragraph 44b des Urhebergesetzes? Und genügte der Vorbehalt des Webseiten-Betreibers schon zum Zeitpunkt der Erfassung der schwammigen Anforderung nach „Maschinenlesbarkeit“.
Je nach Standpunkt sehr oder gar nicht verblüffend sind nämlich dieselben Firmen, die gerade dabei sind, multimodale KI-Systeme zu erschaffen, die aus unstrukturiert zusammengeklaubten Daten jeglicher Art und Provenienz profundes Weltwissen destillieren, nach dem man dann seinen digitalen Assistenten im munteren Plauderton befragen kann, gleichzeitig der Meinung, dass ein Nutzungsvorbehalt nur dann zu erkennen sei, wenn er wie zu Zeiten der Lochkartenprogrammierung und höchst spezifisch kodiert ist.
Ich versuche das mal ganz unjuristisch zusammenzufassen:
Habe ich ein Bild im Flur hängen, das sich Besucher meiner Wohnung ab und zu ansehen und schließe nachts die Haustür ab. Und holt sich jemand aus dem Baumarkt einen dort frei erhältlichen Nachschlüssel vom Typ 44b, um damit eines Nachts die Tür zu öffnen und durch den dunklen Flur zu streifen. Dann ist es ihm überlassen, ob er das Licht anmacht und dabei vielleicht einen Zettel sieht, den ich an die Wand geklebt habe. Hat er den Zettel entdeckt, kann er draufschauen und prüfen, ob in grüner Schrift, Times 12pt, der Satz darauf steht „Tigerkralle_889 darf hier nicht rein“. Wenn er danach das Bild mitnimmt, und ich es drei Jahre später im Wohnzimmer von Herbert finde, und der mir verrät, dass er es von Fred hat, und ich irgendwie feststelle, dass Fred auch auf den Namen „Tigerkralle_889“ hört, dann kann ich zu Fred sagen, dass er das nicht durfte. Dann können wir vor Gericht klären, ob er das Bild nur zu Forschungszwecken mitgenommen hat oder irgendwer damit Geld verdienen wollte. Was das dann allerdings für den Wandschmuck bei Herbert heißt, muss in einem anderen Zusammenhang diskutiert werden.
Viel wäre gewonnen, wenn es einen Standard gäbe, der im robots.txt nicht etwa konkrete Datensauger benennen müsste, sondern beispielsweise erlaubte und verbotene Verwendungszwecke spezifizierte, wie „Suchmaschine“, „KI-Training“, „Statistik“ oder so. Und alle Betreiber solcher Dienste verpflichtet wären, den Zweck ihres Tuns offenzulegen und solche Nutzungsvorbehalte zu respektieren. Gibt es aber eben nicht, und so bleibt der Stand der Dinge weiterhin im Fahrradkette-Stadium juristischer Spitzfindigkeiten. Auch wenn die Bitkom-AutorInnen diesen Zustand dreist in „Transparenz“ umlabeln.
Quelle: KI-generiertes Bild von J. Scriba (DeepDream)
In dieser an Papieren und Studien nicht armen Zeit, mag mancher einen Blick auf die 90-seitige Erhebung „KI und Bildende Kunst – Studie zu Chancen und Risiken“ werfen. Auftraggeber sind die kulturpolitischen Schwergewichte Stiftung Kunstfonds und Initiative Urheberrecht. Das Ziel des Unterfangens wird wie folgt beschrieben: „Zur aktuellen Situation von bildender Kunst und KI liegen bisher keine fundierten Erhebungen vor. Die … Studie möchte in einem ersten Schritt diese Daten und Fakten liefern. Ziel ist es, eine zahlenbasierte Momentaufnahme zur Situation in der bildenden Kunst zu bieten und den aktuellen Diskurs zu Kunst und KI zu ergänzen.“
Die aus den einer beeindruckende Menge online von KünstlerInnen ausgefüllten Fragebögen und in Interviews mit ExpertInnen gewonnenen Erkenntnisse gerinnen in zahlreichen Balken- und Tortengrafiken garniert mit Pfeil-gespickten Schaubildern dann aber zu oft recht unterkomplexen Bulletpoints, wie
„Ein hohes Risiko besteht darin, dass der Markt mit KI-generierten Produkten überschwemmt wird und echte menschliche Kunstwerke an Sichtbarkeit, Auffindbarkeit und Wert verlieren.“
Studie „KI und Bildende Kunst“
Vergeblich sucht man nach einer Definition von „echten menschlichen Kunstwerken“, wundert sich über die vermeintliche Gleichsetzung von Bild/Objekt und Kunstwerk und könnte sich als Fotograf fatal an die Diskussionen über den Wert von Fotografie im Vergleich zu echten handgemalten Portraits erinnert fühlen. Hat die Kunstwelt nicht schon vor vielen Jahren entschieden, dass ein Urinal in der Hand von GWS-Fachkräften keine Kunst ist, sondern nur, wenn es von anerkannt Kunstschaffenden signiert in der richtigen Intention zu solcher geadelt wird?
Für einen lustvollen Verriss der Studie durch einen promovierten Kunstwissenschaftler lese man diesen Essay von Doc Baumann.
„Die in der Studie zum Ausdruck kommenden wirtschaftlichen Ängste sind durchaus nachvollziehbar. Nur die Begründungen sind es nicht.“
Doc Baumann
Freuen wir uns über den „ersten Schritt“ und sehen gespannt der weiteren Diskussion entgegen.
Deutlich beunruhigender als die möglicherweise KI-befeuerte Kunst-Schwemme scheint mir dieses wissenschaftliche Paper von KI-Forschern (viele in Diensten verschiedener Google-Laboratorien) zu sein. Statt öffentlichkeitswirksam vor der Versklavung der Menschheit durch fiese Maschinenhirne zu warnen, untersuchten sie 200 Vorfälle, in denen Menschen mit Hilfe von KI-Werkzeugen Zeitgenossen hinters Licht führten. In der Zusammenfassung warnen die Experten vor einem schleichenden Realitätsverlust als Resultat der verhältnismäßig simpel zu kombinierenden Generatoren:
„Während die Furcht vor ausgeklügelten Angriffen die öffentliche Diskussion beherrscht, zeigen unsere Ergebnisse, dass ein breites Spektrum von Akteuren leicht zugänglichen Missbrauch mit geringem technischem Aufwand betreibt, der oft auf finanziellen oder Reputationsgewinn ausgerichtet ist. Diese Missbräuche sind zwar nicht immer offen böswillig, haben aber weitreichende Folgen für das Vertrauen, die Authentizität und die Integrität von Informationsökosystemen.“
auch in diesem Update kann Adobe nicht fehlen. Die Strategie, die sich zur Verärgerung der Kreativszene in den letzten Monaten ja schon angedeutet hat („Skip the Photoshoot“ und so), kristallisiert sich immer deutlicher heraus: Seine zukünftigen Geschäftsmodelle sieht der Konzern weniger bei den klassischen Bildautoren/Illustratoren/Designern sondern im Bereich der Corporate Publications. Sprich, man richtet sich in einer Welt ein, in der Content-Kunden denselben gleich selbst herstellen.
Schon letztes Jahr haben einzelne von uns (die hoffentlich demnächst an dieser Stelle auch mal aus erster Hand darüber berichten können), Software-Demos von Konsumartikel-Herstellern gesehen, deren KI-Modelle bereits mit den hauseigenen Produkten und Konzernimage-konformen Settings vortrainiert sind. Fortan können alle Beschäftigten die Bedarf an Bildmaterial haben, dieses mit wenigen Klicks auch eigenhändig erzeugen – sagen wir mal Küchengeräte, die von dunkelhäutigen Frauen in bunten Sommerkleidern bedient werden.
Das spart natürlich nicht nur Kosten, sondern auch nervige Besprechungen mit Artdirektoren, Briefings von FotorgrafInnen und GrafikerInnen etc. Neben den unmittelbaren wirtschaftlichen Auswirkungen auf jene, die bisher für das Erzeugen solcher Bilder Rechnungen gestellt haben, wird es sicher auch interessant sein, zu sehen, wie diejenigen innerhalb der Konzernhierarchien mit dem Bedeutungsverlust umgehen, die ihre Position bisher damit rechtfertigten, dass Sie das optische Gehirn solcher Marketing- und Werbeaktivitäten waren, das andere nur technisch umzusetzen hatten.
Hier bahnt sich auch ein technisches Wettrennen mit klassischen Werbeagenturen an, die sich ja schon länger in gute KI-Startpositionen zu bringen versuchen und ihren Kunden zielgenaueres Targeting, schnelleren Turnaround Urheberrechts-Sicherheit versprechen. Es könnte sein, dass das alles nichts nützt, und die Kunden das in Zukunft lieber gleich komplett selbst erledigen.
Wir haben von der Fotorat-Arbeitsgruppe vor zwei Wochen einen ersten virtuellen Workshop mit BildredakteurInnen zum Umgang mit KI-Bildgeneratoren veranstaltet (der auf großes Interesse stieß, und dem wir hoffentlich im Herbst ein öffentliches Nachfolgetreffen folgen lassen werden), in dem auch VertreterInnen des Corporate Publishings saßen. Ohne jetzt schon zu viel zu aus dem vertraulichen ersten Kennenlernen zu verraten: Auch dort bilden sich gewisse Risse zwischen Management-Ebenen, die ganz scharf darauf sind, synthetische Bilder möglichst flächendeckend einzusetzen und BildredakteurInnen, die sich als Spielverderber gebrandmarkt sehen, wenn sie fragen, warum man sich etwa mit Durchschnittsgeneraten von Tomaten zufrieden geben sollte, wenn man liebevoll fotografiertes Gemüse zuhauf in den Bilddatenbanken liegen hat.
Aber ich wollte ja eigentlich von Adobe sprechen. Dort werden jetzt offenbar verstärkt KI-Module schlichtweg überall eingebaut, wo es die Büro-Kundschaft brauchen könnte. Dafür gibt es „Adobe Express“, eine Design-Suite die speziell auf die BewohnerInnen von Großraumbüros zugeschnitten ist, und es ermöglich „tausende von Inhalten in Minuten statt in Monaten bereitzustellen.“
Hier gibt es ein Video von Adobe, das zum „Design made Easy“-Event Mitte Juni produziert wurde:
Quelle: Adobe
„Das neue Adobe Express wurde für Unternehmen entwickelt und macht es jedem in einem Unternehmen leicht, markengerechte visuelle Inhalte zu entwerfen, die die Geschäftsergebnisse fördern.“
David Wadhwani, president Adobe Digital Media Business
Auf der Veranstaltung wurde auch eine Partnerschaft mit Microsoft bekanntgegeben: Eine Adobe-Express-Erweiterung für Microsoft Copilot beamt Adobes generierte Bilder direkt in die Büro-Software der Microsoft-365-Suite.
„Diese Zusammenarbeit wird es Unternehmen ermöglichen, nahtlos hochwertige, markengerechte Inhalte direkt in der Microsoft 365-Umgebung zu erstellen und so die Produktivität und Kreativität in verschiedenen Unternehmensanwendungen zu steigern.“
Rob Howard, Vice President of Microsoft 365 developer platforms
So könne man in Zukunft gleich ganze Prompt-Batterien in Form von Exceltabelle zum Generator schicken und bekommt das Bildmaterial postwendend angeliefert.
Ganz folgerichtig kündigt Adobe an, die Bilderzeugungsfunktionen seiner „Firefly“-Modelle auch direkt in die Profi-Versionen seines pdf-Editors „Acrobat“ zu implantieren (nicht zu verwechseln mit dem kostenlosen Acrobat Reader). Das Universaltool typischer Angestellter in jenen Bergwerken, in denen aus Geschäftszahlen und Verkaufsstatistiken bunte Berichte für diverse Exekutivebenen entstehen, kann künftig auch also auch vorhandene Bilder generativ erweitern und neu zuschneiden, ungewollte Objekte in diesen entfernen oder ersetzen, oder gleich ganz neue Bilderwelten in das Dokument hineinerfinden.
Die Kollegen von Docma haben das hier ein wenig erläutert.
Etwa gleichplatziert auf der Hitliste der Stirnrunzelerzeuger mit Adobe steht weiterhin OpenAI. Deren oberste Technologin Mira Murati hatte sich unlängst mächtig in die Nesseln gesetzt, als sie sich mit leicht entgleisten Gesichtszügen um eine Antwort auf die Frage drückte, ob sich die Firma zum Training des spektakulären Videogenerators Sora auch Youtube-Videos einverleibt habe.
Nun erschien sie zu einem längerem Gespräch an ihrer ehemaligen Uni Dartmouth Engineering und erläuterte mit nerdig gedrosselter Empathie ihre Einschätzung, wie die KI-Produkte wohl zukünftig das Geschäfts- und Erwerbsleben beeinflussen werden. Es ist ganz interessant sich das mal in längeren Passagen anzusehen, auch in den Reaktionen auf die Fragen der StudentInnen, in denen sie sich noch einmal erstaunt darüber zeigte, dass manche Zuhörende nach der Premiere von ChatGPT 4o den „subjektiven Eindruck“ hatten, die KI-Stimme könnte von Scarlett Johansson abgekupfert worden sein. Beschränken wir uns darauf das in der Folge am berühmtesten gewordene Zitat der Veranstaltung aus dem Zusammenhang zu reißen:
Quelle: Youtube / Darmouth Engineering
„Einige kreative Arbeitsplätze werden vielleicht wegfallen, aber vielleicht hätten sie gar nicht erst entstehen sollen.“
OpenAI CTO Mira Murati
Man könnte den Eindruck haben, dass die Erzeugung von fotorealistischen Bildern inzwischen schon fast langweilig wird und Verbesserungen an den Modellen nur noch routinierte Randnotizen wert sind. Bemerkenswert rasant verläuft dagegen die Frequenz der Veröffentlichung neuer Video-Generatoren. Gerade noch rieb sich die Welt staunend die Augen als OpenAI die Previews von Sora zeigte, und noch immer dreht das Modell Testrunden mit ausgewählten und speziell qualifizierten Usern, bevor es irgendwann – mutmaßlich noch dieses Jahr – auch Normalnutzenden zur Verfügung stehen wird, da gibt es schon mehrere Newcomer, die ganz ohne Wartezeiten ähnliche Ergebnisse der Text-to-Video-Konversion versprechen.
Daneben gibt es diverse eingeschränkte Generatoren, die z.B. Avatare animieren oder Leute aus hochgeladenen Videoschnipseln clonen, um damit ContentcreatorInnen auch noch das lästige Posieren vor der Kamera abzunehmen.
TikTok baut so eine Funktion direkt in seine App ein und stellt mit seinem „Symphony Creative Studio“ täuschend echt wirkende Allerweltsmenschen in unglamourösen Umgebungen zur Verfügungen, denen man beliebige Botschaften in den virtuellen Mund legen kann.
Quelle: TikTok
TikTok preist das Tool vor allem für Werbetreibende an, die so ohne größeren Aufwand ihre Botschaften im Influencer-Look unter die Leute bringen können.
CNN gab sich besonders investigativ und fand geschockt heraus, dass man die Avatare auch Passagen aus Hitlers Hetzschrift „Mein Kampf“ rezitieren lassen kann.
Ach gar…
Quelle: CNN.com
TikTok begründete den Lapsus mit einem technischen Versehen, durch das eine eigentlich nur interne verwendete Testversion auch externen Nutzern zugänglich gemacht worden sei.
Nicht dass ich dafür wäre, der Jugend faschistoide Wahngedanken zu verkünden (das tun ja leider inzwischen schon ein paar gewählte Parlamentarier auch ohne KI). Aber ähnlich wie bei der amerikanischen Empörung darüber, dass jüngst eine Version des Google-Bildgerators im Bemühen die Vorgaben der Programmierer nach mehr Diversität und dem Vermeiden von Stereotypen über das Ziel hinausgeschossen war und Bilder von dunkelhäutigen Menschen in SS-Uniformen erzeugt hatte, wird sich auch hier bei aller Erregung der Traum von ethisch einwandfreien und politisch korrekten KI-Modellen nicht erfüllen lassen. Dafür müssten die Generatoren nun einmal tatsächlich irgend ein Verständnis davon haben, was sie inhaltlich von sich geben, und die Liste der verbotenen Begriffe müsste je nach Kontext und Adressat so granular feingliedrig ausbuchstabierbar sein, das zum Schluss auch politische/weltanschauliche Empfindlichkeiten berücksichtigt werden, etwa bei der Frage, welchen staatlichen Status Taiwan hat, oder wo das Volk der Kurden beheimatet ist. Statt bei jeder aufgedeckten Entgleisung der Generatoren zu versuchen, die Zensurregeln nachzubessern, wird es Zeit, sich über das Umfeld von deren Einsatz Gedanken zu machen.
Die Washington Post fand derweil heraus, dass viele aktuellen Sprachmodelle nicht in der Lage sind, eindeutig auf die Frage zu antworten, wer die US-Präsidentenwahl des Jahres 2020 gewonnen hat. Amazons Alexa habe Donald Trump für wahrscheinlich gehalten. Googles Gemini gab zurück „Ich lerne noch diese Frage zu beantworten“, und Microsofts Copilot erklärte „Scheint so, als könne ich zu diesem Thema nichts sagen.“
Auch der Spiegel hat ähnliche Experimente im Vorfeld der Europawahl gemacht und traf ebenfalls auf ein Gemisch von halbgaren Quasi-Informationen und vorsorglichen Auskunftblockaden.
Die Versuche von Instagramm, KI-generierte Bilder automatisch als solche kenntlich zu machen, müssen wohl einstweilen als gescheitert gelten. Immer öfter haben sich in den letzten Wochen seit der Einführung des Features NutzerInnen darüber beklagt, dass gänzlich unmanipulierte Fotos mit dem „Made with KI“-Logo verunglimpft wurden. Petapixel hat hier zusammengetragen, welche Werkzeuge der Bildbearbeitung vermutlich zu dieser Einstufung führen können.
Quelle: Petapixel.com / Instagram
So triggert wohl das Enfernen von Sensordreck mittels generativem Fill die Warnung, auch wenn der simple Pixel-Stempel im Ergebnis nichts anderes macht. Das mag vom Prinzip her konsequent sein, doch scheint das Entfernen kompletter Bildelemente in Lightroom kein KI-Kainsmal hervorzurufen. Der Pressefotograf Pete Souza fand hingegen das KI-Label auf einem Scan seines 40 Jahre alten Schwarzweißfotos eines Basketballspiels.
Meta, die Mutter von Instagram und Facebook hat nun erstmals Stellung zu den Problemen bezogen und verspricht, den Ansatz zu „überdenken“.
Ich bemühe mich, den Kalender wieder einzuholen. Vielleicht klappt es ja nächste Woche…
Wir witzeln ja schon seit Wochen darüber, dass es irgendwann mal passieren wird, und so kam es: Ein Fotograf hat schelmisch ein echtes Foto zu einem Wettbewerb für KI-generierte Bilder eingereicht, errang bei Jury und Publikumsvoting den dritten Platz und wurde disqualifiziert, als der Schwindel aufflog.
Miles Astray hatte die Aufnahme des bizarr und scheinbar kopflos in abstrakter Landschaft stehenden Vogels „Flamingone“ genannt, und damit wohl perfekt den Geschmack der nach origineller Bilderware suchenden Zielgruppe getroffen.
Nun verkauft der Künstler das Bild als „Ikone des KI-Widerstands“ in offener Edition wahlweise als randloser Print, mit weißen Fine-Art-Rand oder gar mit echtem Holzrahmen in seinem Onlineshop.
Quelle: Miles Astray, Online-Shop
Dann haben wir ja jetzt wohl alle Permutation der Täuschungen und Missverständnisse durch: Das KI-Bild als angebliches Foto (Kollege Boris Eldagsen), das Foto als angebliches KI-Bild, und schon vor einiger Zeit, das echte Foto (Suzi Dougherty), das von der Jury für KI-generiert gehalten und daher ausgeschlossen wurde.
Wobei….
Mich macht schon etwas stutzig, dass der Name des Flamingo-Fotografen sich sehr wörtlich übersetzen lässt zu „Meilenweit verirrt“. Sollte am Ende der Fotokünstler ein Avatar sein, der uns jetzt mit einer virtuellen Kamera narrt?
Ansonsten herrscht mal wieder große Aufregung über mutmaßliche Schurkereien von Adobe und Meta, was das Abgreifen von NutzerInnen-Schöpfungen für das Training von KI-Modellen und Bildgeneratoren anbelangt. So sorgten Änderungen in Adobes AGBs für Wellen, in denen sich der Konzern einräumen lässt, auf Daten von Verwendenden der Creative Cloud zuzugreifen.
Daraus zu schließen, man werde sich an den Bildern für Trainingszwecke vergreifen, sei jedoch ein Missverständnis, verkündete Adobe wenig später. Hinter den Änderungen steckten nur juristische Feinheiten, damit der Konzern beispielsweise für die Analyse von Programmfehlern auf Daten zugreifen könne.
Hier kann man dies in Langversion lesen mit diversen Versicherungen, dass Bilder und Copyrights niemals angetastet werden:
Das Verhältnis zur Fotoszene bleibt jedoch angespannt (wie ja auch schon in meinen Posts verschiedentlich erwähnt). Jüngstes Beispiel ist das Auftauchen von KI-generierten Bildern im Stil von Altmeister Ansel Adams auf der Adobe Stock-Plattform. Nach wütenden Protesten der Nachlassverwalter entfernte Adobe diese. Vermutlich ist dies aber nur ein prominenter Einzelfall und die Wirkung der Entfernung eher symbolisch. Die Nutzung von Stil-Referenzen ist ja inzwischen auch in den Firefly-basierten Tools implementiert, und so kann natürlich jede AnwenderIn beliebig ähnliche Meisterwerke generieren lassen, wenn ErSie sich ganz so doof anstellen, diese unter Nennung der Plagiierten irgendwo verkaufen zu wollen.
Quelle: Petapixel/Adobe Stock
Auch Facebook/Insta-Mutter Meta hat Trouble mit den Geschäftsbedingungen. Mark Zuckerberg hat ja schon vor einiger Zeit durchblicken lassen, dass sein Konzern im Rennen um die besten KI-Modelle einen enormen Vorteil gegenüber Konkurrenten habe: Die NutzerInnen seiner Plattformen liefern potentielles Trainingsmaterial in kaum überschaubarer Menge frei Haus, während andere sich das Material mühsam aus dem Netz zusammensaugen müssen.
Da war es eigentlich nur folgerichtig, diesen Rollgriff in den Contentspeicher auch irgendwann in den AGB auszubuchstabieren. Dank der zwischenzeitlichen Sensibilisierung der Öffentlichkeit löste der Versuch aber einen veritablen Shitstorm aus, so dass Meta nun leicht schmollend einige KI-basierte Dienste in der EU nicht anbieten will. Nachzulesen beispielsweise hier:
Eine Anleitung der Verbraucherzentrale für einen vorbeugenden Widerspruch als NutzerIn gegen die Verwertung von eingespeistem Content für KI-Training gibt es hier:
Eine Gruppe von FotografInnen um Daniel Etter wirbt indessen um Unterschriften unter einen offenen Brief an Meta, in dem Sie außerdem dazu auffordert, die Meta-KI generell nicht mit authentischen Pressefotos zu trainieren, da allzu ähnlich generiertes Material nicht nur die berufliche Zukunft der real Fotografierenden, sondern auch die Demokratie an sich bedrohe. Wer unterzeichnen mag, findet die Möglichkeit hier:
Apple hat ja inzwischen das seit Wochen geleakte Geheimnis gelüftet, dass die Leute aus Cupertino nur scheinbar KI-mäßig hinterherhinken, sondern schon ganz bald ganz tolle ungemein nützliche Funktionen in Ihre Geräte integrieren werden. Von den versprochenen Assistenzfunktionen zum automatischen Beantworten von emails und endlich auf Anhieb verstehenden Siri-Hilfen habt Ihr sicherlich schon anderswo gelesen. Wer tiefer einsteigen mag, findet hier ein längliches Technik-Papier, in dem Apple erklärt, was seine Foundation-Models von anderen Ansätzen unterscheidet, insbesondere das angeblich von vornherein implementierte Bemühen, Stereotype in den generativen Erzeugnissen zu vermeiden und die Privatsphäre der Benutzer zu schützen durch eine Kombination von lokaler Datenverarbeitung ohne Datenverkehr zu Apple-Servern oder eine spezielle Verschlüsselung der Daten in den Cloud-basierten Rechenzentren.
Schau’n wir mal, wie sich das in der Praxis auswirkt. Dieses Jahr wird es allerdings die meisten Funktionen nur für NutzerInnen von englischsprachigen Betriebssystemen geben, und so ganz zufällig wird es auch nicht sein, dass die lokale KI sich so richtig nur auf allerneuesten Endgeräten heimisch fühlt.
Im generierenden Bildbereich soll ein „Image Playground“ mit Werkzeugen wie dem „Zauberstab“ zu Diensten sein, mit der eine krakelige Handskizze zur gekonnten Zeichnung wird (Haben woll! – Muss ich dann doch nicht mehr ganz so neidisch sein auf die von Architekten scheinbar mühelos auf Papierservietten gekritzelten Bauphantasien):
Quelle: Youtube, Apple
Dabei finde ich interessant, dass anscheinend von vornherein diverse Stile von Skizzen und Illustrationen angeboten werden, nicht aber fotorealistische Bilderzeugung. Damit ließe sich elegant jegliches Kennzeichnungs-Dilemma umschiffen und beim Betrachter auch ohne solche Label Missverständnise über die Nicht-Authentizität des Bilds vermeiden.
Ich finde ja, darüber sollte viel mehr nachgedacht werden bei der redaktionellen Verwendung von „Symbolbildern“. Sähen diese unverkennbar aus wie Illustrationen und könnte man sich umgekehrt sicher sein, dass alles, was wie ein Foto aussieht, auch ein solches ist und echte Realität zeigt (und nicht z.B. Models, die Mechatroniker oder Krankenschwestern darstellen), wären wir in der Debatte über den drohenden Vertrauensverlust in jede Art von Bild doch deutlich weiter, oder?
Wegen leichter Überlastung im RL mal eine Doppelausgabe im Virtuellen.
Wir müssen mal wieder über Adobe reden. Bekanntlich brodelt es ja schon länger in Foto-Kreisen, seit der Branchen-Primus, zu dem die meisten Kreativen eine gewisse Hassliebe pflegen (wohl versorgt mit unverzichtbaren Werkzeugen, gefangen in rigiden Abo-Beziehungen), in seinen aktuellen Werbekampagnen damit kokettiert, man könne dank seiner mit immer mehr KI ausgerüsteten Produkte auf kamerabasierte Bilderzeugung in Zukunft immer öfter verzichten (Wochenpost 18).
Zwei große Berufsverbände, die britische Association of Photographers und die American Society of Media Photographers schrieben daraufhin offene Briefe an die Firma, bzw. deren Chef – je nach Gemütslage seriously not amused bis definitely pissed off. Zu lesen hier und hier.
Lieber Shantanu Narayan, Es ist offensichtlich, dass Adobe seine Integrität verloren hat. Im Streben nach mehr Profit hat Adobe das Berufsleben von Millionen von Fotografen und Bildgestaltern aufgegeben.
The Association of Photographers
Adobe,
wollen Sie all das, was Ihre treusten und loyalsten Kunden anstreben, abtun und verwerfen?
American Society of Media Photographers
Einstweilen legt Adobe massiv nach und stattet mit dem jüngsten Update auch Lightroom mit mächtigen KI-Funktionen aus. Das Programm ist eigentlich primär als Arbeitspferd der Bildverwaltung konzipiert und Rohdaten-Entwickler, also eine Art Vorstufe zur eigentlichen Bildbearbeitung. Die angebotenen Werkzeuge zur Modifikation der Fotos werden jedoch schon seit Jahren immer wirkmächtiger, so dass der Transfer nach Photoshop zum Pixelmeißeln für viele FotografInnen immer seltener nötig wird. Mit dem großen Update kommen nun auch generative Funktionen in die Hellkammer, wie etwa das komplette Entfernen von ungewollten Bildelementen durch KI-generierte Pseudo-Bildinhalte.
Quelle: Adobe
So kann man quasi schon beim Durchblättern umfangreicher Bildbestände nebenher unerwünschte Partygäste aus einem Bild verbannen oder störendes Zivilisationsmobiliar aus der mutmaßlich unberührten Landschaft verschwinden lassen.
Das ist für AnwenderInnen bequem, doch nebenbei wird damit der Übergang zwischen bildgewordener Realität und fiktivem Wunschbild immer fluider, wenn ein bewusster Wechsel zwischen Bildauswahl, bzw. „Entwicklung“ und Bearbeitung/Composing gar nicht mehr stattfindet.
Adobe versucht den Trend aktiv zu befeuern und möglicherweise auch der schlechten Stimmung der mutmaßlichen AltfotografInnen entgegenzuwirken und benutzt dafür unter anderem das Mittel des bezahlten redaktionellen Contents. So tauchte passend zum Produkt-Upgrade beispielsweise auf der vielgelesen Fotosite Petapixel dieser Artikel über die bekannte ReisefotografinTiffany Nguyen auf.
Seit über einem Jahrzehnt, so ist in der Einleitung zu lesen „dokumentiere“ Nguyen „Landschaft und Kultur an einigen der fotogensten Orte der Welt“. Und da Ngyen auch „Lightroom Botschafterin“ ist, entschloss sie sich, einigen ihrer Lieblingsfotos mithilfe der neuen KI-Funktionen eine „moderne Überarbeitung“ zuteil werden zu lassen.
So verschwinden profane Besucher und Info-Fahnen aus einer Ausstellungsansicht des ehrwürdigen Natural History Museums in London:
Quelle: Tiffany Nguyen / Petapixel
oder ganze Gebäude und Stadtviertel aus einer malerischen Landschaft in Tailand:
Quelle: Tiffany Nguyen / Petapixel
Mithilfe von KI, so lässt sich die Fotografin im vom Adobe bezahlten Artikel zitieren, könne sie sich jetzt viel mehr auf das Wesen der Reisefotografie konzentrieren, statt Stunden am Rechner mit der Bildbearbeitung zu verbringen. Und auch sonst lässt die Botschafterin keine Gelegenheit aus, zu erwähnen, dass KI-Werkzeuge natürlich keineswegs in Konkurrenz zur menschlichen Kreativität stünden.
Immerhin macht Petapixel transparent, dass es sich bei dem Artikel um „brought to you by…“-Content handelt, und natürlich ist diese Art von Promotion ein übliches und legitimes Mittel der Werbung. Aber man muss sich schon fragen, wie es zusammenpasst, wenn Adobe einerseits mit großer Geste die Content Authenticity Initiative mit aus der Taufe hebt, deren Ziel es ist, authentisches Bildmaterial vor Manipulationen zu schützen und andererseits im Genre der Reisefotografie, das neben allem künstlerischen Gestaltungswillen der Bildschaffenden doch immer auch einen dokumentarischen Anspruch hatte, die Bildinhalte der kompletten Beliebigkeit anheimstellt.
Auch diese Beispiele werden interessanten Stoff für die Diskussion um Ethik, Berufsethos und Kennzeichnungskriterien und -pflichten in den kommenden Monaten und Jahren liefern, denn die Grenze zwischen Bildbearbeitung, Manipulation und Synthetisierung wird immer schwieriger auszumachen sein.
Die automatische Kennzeichnung von KI-generiertem Content, die Meta vor kurzem zur Eindämmung von böswilligen Bildmanipulationen angekündigt hat, schlägt derweil aus entgegengesetzter Richtung hohe Wellen. Immer häufiger beschweren sich FotografInnen darüber, dass sie entweder ohne jeden erkennbaren Grund oder mutmaßlich aufgrund von gänzlich harmlosem klassischen Wegstempeln von Kleinkram das diskrimierende Logo „made with AI“ auf gepostete Bilder gepappt bekommen.
Eine Hypothese, die beispielsweise hier diskutiert wird: Adobe Photoshop könnte etwas übereifrig bei jeglicher Art der Bearbeitung in den jüngst erweiterten Metadaten vorsorglich Hinweise auf KI-generierte Bildelemente einfügen.
Womit sich meine Sorge erfüllen könnte, dass früher oder später alle Bilder nach dem Muster des juristischen Freifahrtscheins „Serviervorschlag“ kategorisiert sein könnten, womit sich eine Kennzeichnung eigentlich gleich komplett erübrigt. Wie wäre es alternativ mit einer Art hippokratischem Eid für Reisefotografierende, der zulässige bildchirurgische Eingriffe definiert und alles andere zu Illustrationen erklärt?
eigentlich habe ich gar keine Zeit, aber ein Pfingst-Update muss sein. Schließlich haben die beiden Schwergewichte der KI-Branche letzte Woche alle Register gezogen, um der Welt mitzuteilen, dass das maschinelle Denken einen neuen Meilenstein erreicht habe.
Dabei hat OpenAI mit einem Tag Vorsprung und ausgeklügelten Show-Effekten den Erzkonkurrenten von Google ziemlich die Show gestohlen, aber im Prinzip sind die Rivalen auf sehr ähnlichen Wegen: Aus den KI-Systemen sollen Assistenten werden, mit denen man in sehr persönlichen Dialog treten kann. Statt Befehle als schriftliche Prompts oder Sprachanweisungen zu formulieren und auf das Ergebnis zu warten, entsteht die Dienstleistung im Gespräch.
In der über 2-stündigen Keynote wurde ausgiebig die neue Bilderzeugungs-Engine „Imagine 3“ und der Videogenerator „Veo“ vorgeführt, aber auch demonstriert, wie sich Job-BewerberInnen im Dialog mit der KI „Gemini“ auf ein Einstellungsgespräch vorbereiten können.
Eine große Rolle spielt das Assistententum natürlich da, wo Chatbots das Kerngeschäft von Google bedrohen. So könnte man versucht sein, in Zukunft seine Fragen bei ChatGPT oder ähnlichen Bots einzugeben, statt mühsam in Links von Suchmaschinen zu stöbern. Und so stellt Google die Zukunft der Websuche als maßgeschneiderte Zusammenfassung, generiert von Google KI-Kumpel dar. Warum ich das nach den Erfahrungen mit dem Wirsing-Effekt und Bard-Halluzinationen für gruselig halte, muss hier nicht wieder ausgebreitet werden.
Deutlich interessanter ist der Blick ins Google-Labor, wo die Engine hinter der KI-Assistenten unter dem Projektnamen „Astra“ gebastelt wird. Hier führt eine Entwicklerin vor, wie sie mit dem Handy durch das Labor geht und sich von der „Gemini“ KI erklären lässt, welches Chassis von der Lautsprecherbox im Blickfeld Hochtöner genannt wird, und was wohl das Programmcode-Fragment auf dem Monitor einer Kollegin tut. Die virtuelle Assistentin erkennt den Stadtteil Londons beim Blick aus dem Fenster und „erinnert“ sich, wo sie zuletzt die Brille der Fragenden gesehen hat.
Quelle: Google
Das sind unterm Strich doch recht nerdige Themen. OpenAI hat dagegen voll auf Sozialkompetenz der KI-GefährtInnen gesetzt und führte sein neues Model „GPT-4o“ vor, indem es seinen Nutzern Atem-Übungen empfiehlt oder Gutenachtgeschichten erfindet. Das „o“ im Namen steht für „omni“ und steht quasi für die nächste Stufe der Multimodalität. Unter der Haube soll das Modell eben allumfassend mit jeder Art von Inhalt arbeiten. Ein Sprachprompt wird demnach nicht erst per Spracherkennung in Text umgewandelt, dann verarbeitet und in synthetischer Sprache ausgegeben, sondern eingehende Sprache wird direkt in ausgehende Sprache verdaut.
Dementsprechend natürlich scheint die Interaktion mit dem Modell vonstatten zu gehen. Der Bot (oder heißen Bots mit weblicher Persönlichkeit Bottin?) lässt sich unterbrechen, nimmt den Gesprächsfaden wieder auf und sprüht dabei vor guter Laune und singt glucksend das gewünschte Schlaflied über Kartoffeln vor.
„Was geht ab“, begrüßt Sam Altman die KI-Gefährtin und lässt sie „raten“, was er denn wohl gerade in diesem Videostudio mache. Die weibliche „Sky“-Stimme kichert und gibt sich ganz aufgeregt, was es denn wohl zu verkünden gebe. Und als sie erfährt, dass es um sie gehe, scherzt sie, dass es sie kaum auf dem Stuhl hielte, wenn sie denn eine Sitzgelegenheit benötigen würde.
Wer unter den LeserInnen ist im passenden Jahrgang und nerdig genug, um sich dabei an die legendäre TV-Serie „Per Anhalter durch die Galaxis“ erinnert zu fühlen? Dort waren in einem Raumschiff sogar die Automatiktüren mit KI ausgestattet, stöhnten beim Durchschreiten wohlig und säuselten „Vielen Dank, Sie haben eine einfache Tür sehr glücklich gemacht“? Mal sehen, vielleicht bietet OpenAI ja dereinst auch eine Assistenz-Persönlichkeit an, die dem depressiven Androiden Marvin nachempfunden ist, der die interagierenden Menschen stets wissen ließ, wie wenig Spaß es ihm machte, ihren Wünschen nachzukommen, da sie seinen Intellekt so niederschmetternd unterfordern.
Die Message der GPT-4o-Demo ist jedenfalls klar: KIs verstehen, was um sie herum vorgeht, und werden uns künftig quasi auf der Schulter sitzen und in lockerem Geplauder die Welt erklären.
In den Tagen nach der gelungenen Show braute sich jedoch Unheil über OpenAI zusammen, dessen Folgen vielleicht neuen Schwung in die Debatte um Trainingsmaterial und Urheberrechte bringen könnte.
Nicht wenige Zuschauende bemerkten eine starke Ähnlichkeit der offensiv flirtenden KI-Stimme Sky mit jener von Schauspielstar Scarlett Johansson. Altman selbst hatte die Fährte gelegt, als er bei der GPT-4o-Vorstellung Anspielungen an den Film „Her“ machte, in dem Johansson einer damals noch komplett fiktiven KI die Stimme geliehen hatte. Im Film wird der sprechende Computer zum Ersatzpartner des Hauptdarstellers.
Die Ähnlichkeit der Stimme sei reiner Zufall, behauptete OpenAI zunächst. Dann machte Johansson öffentlich, dass die KI-Firma schon vor längerem versucht habe, Sie dazu zu bewegen, als Stimm-Modell anzuheuern. Das habe sie aber abgelehnt, und sei nun recht erbost, dass die Firma anscheinend ihre Stimme trotzdem geklont habe.
Verpflichten sich die Macher der App, der gemeinhin ungeheures Suchtpotential nachgesagt wird und die als Inbegriff der undifferenzierten Rundumberieselung der Jugend mit Propaganda und Desinformationen aller Art gilt, mit Ihrem Beitritt zur Content Authenticity Initiative KI-generierten Content zukünftig automatisch zu kennzeichnen.
TikTok nimmt für sich in Amspruch, die erste Videosharing plattform zu sein, die Content Credentials implementiert, es also den NutzerInnen ermöglicht, über Metadaten im Content herauszufinden, wie dieser hergestellt worden ist. Solche Credentials sollen in naher Zukunft auch unlöschbar mit dem Content verbunden bleiben, wenn Videos von TikTok heruntergeladen und weiterverwendet werden.
Zudem will TikTok im Laufe des Jahres Aufklärungsvideos zur Medienmündigkeit verbreiten, mit denen die Zielgruppe dafür sensibilisiert werden soll, Fakten und Fiktionen zu unterscheiden. Dazu dient eine Partnerschaft mit Mediawise
„Our Teen Fact-Checking Network has built an audience with innovative media literacy videos on TikTok since 2019. Five years later, we’re thrilled to empower even more people to separate fact from fiction online.”
Alex Mahadevan, Director, MediaWise
Das ist doch sehr löblich. Man sollte sich jedoch stets vor Augen halten, dass das automatischen Kennzeichnen von KI-Inhalten nur dann funktioniert, wenn diese Inhalte schon entsprechende Metadaten bzw. Wasserzeichen eingebettet haben. Eine automatische Erkennung von KI-Content anhand der Bildinhalte funktioniert schon seit einiger Zeit nicht mehr zuverlässig, wie wir ja auch selbst schonmal ausprobiert haben. Die Ankündigung bezieht sich daher auch nur auf Content „von bestimmten Plattformen“, und wird erst „allmählich“ wirksam werden.
„The increase in auto-labeled AIGC on TikTok may be gradual at first, since it needs to have the Content Credentials metadata for us to identify and label it. However, as other platforms also implement it, we’ll be able to label more content.“
TikTok
Wie knifflig das mit der Automatik ist, zeigt auch das neueste Tool von OpenAI: Die Firma stellte gerade einen Detektor für KI-Bilder vor, der mit einer Trefferquote von 98,8 Prozent solche Pseudo-Fotos erkennen kann – allerdings nur, wenn diese mit dem hauseigenen Dall-E Generator erzeugt wurden. Bei Bildern, die von Konkurrenzplattformen stammen (und die im allgemeinen als deutlich fotorealistischer gelten als die Dall-E-Erzeugnisse), beträgt die Trefferquote nur enttäuschende 5-10 Prozent, und damit deutlich schlechter als das zufällige Raten.
Schauen wir mal, welche Auswirkungen die kürzlich Facebook-Mutter Meta verkündete Offensive zur Kennzeichnung von „Made with AI“ haben wird, die diesen Monat wirksam werden soll.
Wer sich für schlauer hält, kann ja das KI-Bild-Erkennungsquiz der Wirtschaftwoche machen.
Dort soll die Hälfte der Testbilder Echtfotos zeigen, die andere Hälfte Synthetikmenschen.
Dass dies per Auge jetzt schon kaum noch geht und in Zukunft komplett unmöglich sein wird, ist klar. Zumal nicht nur die visuelle Qualität, sondern auch die Auflösung der generierten Bilder immer besser wird.
Aktuell behelfen sich versierte Promptologen damit, die üblichen Auflösungen von KI-Bildern im Bereich von 1024 Pixeln nach der Generierung hochzurechnen (meist mit weiterer KI-Hilfe).
Dieses hochtechnische Paper müsst Ihr nicht lesen, aber die Zusammenfassung verspricht:
Mit dem dort vorgestellten Verfahren lässt sich praktisch jede Pixel-Auflösung errechnen, ohne dass wie bei den bisherigen Modellen der Bedarf an Speicherplatz explodiert. Bei den bisher machbaren Auflösungen soll das neue Modell nur noch ein Fünftel des heute üblichen Speicherbedarfs haben.
Quelle: Apple / Petapixel
Abschließend noch der Hinweis auf ein gar nicht mal so polemisches Stück zum Shitstorm, den sich Apple eingefangen hat mit seinem Werbespot zum superdünnen neuen iPad, das mit Chips angetrieben wird, die in Zukunft alle möglichen KI-Anwendungen besonders performant werkeln lassen soll.
In dem Video zerstört eine monströse Presse Musikinstrumente und anderes Zubehör von Künstlern und Kreativen um am Ende das geniale Digitalgerät freizugeben. Nicht wenige empfinden das als Kampfansage an ihre Kunst nach dem Motto „Das machen wir in Zukunft alles mit KI“.
Auto Alberto Romero diagnostiziert in seinem Essay „Auch Äpfel verrotten“ einen kompletten Mangel an Empathie im Silicon Valley, der bei den Verantwortlichen offenbar gar nicht den Hauch einer Vorahnung aufkommen ließ, dass zum Beispiel Musiker es gar nicht zum Schmunzeln finden, wenn eine Trompete plattgequetscht wird oder ein Klavier unter dem Druck der Presse zersplittert.
Quelle: Alberto Romero
Inzwischen sah sich Apple zu einer Entschuldigung genötigt und wird den bösen Spot nicht mehr für TV-Werbung einsetzen:
“Creativity is in our DNA at Apple, and it’s incredibly important to us to design products that empower creatives all over the world. … We missed the mark with this video, and we’re sorry.”
Angekündigt waren die Features ja schon lange. Seit es generative KI-Werkzeuge gibt werben Hersteller damit, dass sich FotografInnen damit viel nervige Arbeit ersparen können, etwa das Ausbessern von Bilddefekten oder das allseits ungeliebte Freistellen – Inhalt ungezählter Tutorials und Fachartikel.
Eine Woche nach der Vorstellung seiner neuen Generation des Firefly-Bildgenerators scheint das Adobe-Marketing (aus Versehen?) verraten zu haben, dass es den Photoshop-Machern gar nicht so sehr um die Fotoschaffenden geht, sondern eher um die Kunden in der Industrie und den Agenturen.
„Lass das Fotografieren weg“ frohlockt das Social-Media-Team von Adobe und preist das Hintergrund-Generieren als Methode der Wahl zum Erstellen von Hingucker-Produktfotos.
Quelle: Adobe / The Nerdy Photographer
Bei vielen Lesenden aus der Fotobranche lässt das den Blutdruck hörbar steigen. „Adobe haut Fotografen (mal wieder) in die Pfanne“, resümiert „Petapixel“, wobei das englische Idiom „Throwing someone under the bus“ nur schwer sinnerhaltend zu übersetzen ist.
Die Redewendung mit dem Bus impliziert im Amerikanischen einen heimtückischen Verrat, im (mutmaßlich) britischen Erstgebrauch in den 1970ern einen augenzwinkernd misslichen Unfall mit einem für den (vielleicht) Schupsenden vorteilhaften Ergebnis.
Entsprechend bitter fallen viele Reaktionen im Internet aus, nach dem Motto „Vielen Dank Adobe, wo ich Euch doch über so viele Jahre tausende von Dollar gezahlt habe.“
Nicht hilfreich für die Sympathiewerte des Adobe-Konzerns ist die Äußerung des Chefstrategen Scott Belsky im Wall Street Journal. Der verglich KI-Generatoren mit der Einführung der Digitalkameras und meinte, da müsse man nun mit der Zeit gehen.
„Wenn Künstler zu mir sagen: ‚Ich hasse generative KI, warum lasst ihr sie überhaupt in euren Produkten zu?‘ Dann sage ich: ‚Weil die Leute sonst an illegale Orte gehen und du am Ende nichts mehr bekommst.
Dies ist eine Revolution, dies ist die neue Digitalkamera, und wir müssen sie uns zu eigen machen.
Scott Belsky
Adobe Chief strategy officer and executive vice president of design and emerging products
Natürlich hat der Mann in sofern recht, als dass die damaligen Diskussionen sehr sinnfrei waren, ob Digitalkameras überhaupt echte Fotos machen könnten, oder die seelenlosen Chips nicht das Ende der Fotografie einläuten. Aber es wirkt schon etwas befremdlich, wenn diejenigen, die lange Jahre die preislichen Schmerzgrenzen der BildautorInnen mit wohldosierten Abomodellen für alternativarme Software ausgelotet haben, nun zumindest argumentativ ihre Kundschaft eher dort zu suchen scheinen, wo man Kamerabedienende eher als Hindernis in der Produktionskette wahrnimmt.
Da scheint es wohl nur ein dummer Zufall zu sein, dass gerade auch Amazon sein vor einigen Wochen angekündigtes Automatik-Tool für feschere Produktabbildungen in Europa freigeschaltet hat:
Hier muss man nicht mal mehr selbst mit Bildbearbeitungssoftware hantieren. Die Werbung für die Werbung beschreibt das:
In der Amazon-Werbekonsole wählen Werbetreibende einfach ihr Produkt aus und klicken auf „Generieren“. Das Tool nutzt dann generative KI, um innerhalb von Sekunden eine Reihe von Bildern zum Thema Lifestyle und Marke zu liefern, die auf Produktdetails basieren. Das Bild kann dann durch Eingabe kurzer Textanweisungen verfeinert werden, und mehrere Versionen können schnell erstellt und getestet werden, um das Ergebnis zu optimieren.
Also dann, liebe Tabletop-FotografInnen, fragt mal ChatGPT, was es an alternativen Beschäftigungsmöglichkeiten geben könnte. Das vorhandene Studio könnte sich ja z.B. für das Ablichten kleiner bis mittelgroßer Haustiere eignen, sofern deren HalterInnen bereit sind Geld in professionelle Tierportraits zu investieren.