Bei der Mitgliederversammlung des Deutschen Kulturrats am 30. September 2021 wurde auch der Antragdes neu gegründeten Deutschen Fotorats behandelt. Dieser hatte im Sommer die Aufnahme in den Deutschen Kulturrat beantragt, denn in dem vor 40 Jahren gegründeten Deutschen Kulturrat mit bisher acht Sektionen ist die Fotografie als eigenständige schöpferische Kategorie bisher nicht vertreten.
Und dies, obwohl das Kreativmedium Fotografie auch im deutschen Urheberrecht eigenständigen Werkschutz genießt.
Olaf Zimmermann, Geschäftsführer des Deutschen Kulturrates: „Im Ergebnis kam die Mitgliederversammlung zu dem Schluss, dass sie in diesem Jahr noch keine Entscheidung treffen kann, im kommenden Jahr das Thema erneut aufgreifen und dann entscheiden will. Zwischenzeitlich sollen Vertreter und Vertreterinnen des Deutschen Fotorates in den Sprecherrat des Deutschen Kulturrates eingeladen werden, um im persönlichen Gespräch darzulegen, warum die Mitglieder des Deutschen Fotorats eine eigene Sektion der Mitwirkung in einer bereits bestehenden Sektion vorziehen.“
Gründungsmitglieder des Deutschen Fotorats sind der BFF Berufsverband Freie Fotografen und Filmgestalter, die Deutsche Fotografische Akademie (DFA), die Deutsche Gesellschaft für Photographie (DGPh) und FREELENS. Damit vertritt der Deutsche Fotorat die künstlerisch-kulturelle Sparte Fotografie in all ihren Facetten.
Mit dem Deutschen Fotorat als neuem Mitglied im Deutschen Kulturrat soll ein wichtiges kulturpolitisches Signal gesetzt und die Lücke im Kanon der kulturellen Verbände geschlossen werden. Eine Angliederung an bestehende Sektionen des Kulturrats wurde schon einige Jahre diskutiert, führte jedoch zu keinen tragfähigen Ergebnissen. Daher bedauert der Deutsche Fotorat, dass sich der Deutsche Kulturrat noch nicht zur Aufnahme des neuen Dachverbands entschließen konnte, nimmt aber gerne das Angebot für eine Kooperation und einen Austausch im Sprecherrat an.
Unabhängig von der Aufnahme in den Deutschen Kulturrat arbeitet der Deutsche Fotorat an der besseren Vernetzung der Fotoszene in Deutschland. Schon in der Gründungsphase hat sich der Rat als neues Forum für den intensiven Austausch unter den Gründungsverbänden bewährt. Er treibt die Aufnahme weiterer bundesweit tätiger Fotografieverbände aktiv voran.
Nicht nur über KI, sondern auch über Symbolbilder möchte Jürgen Scriba diskutieren. Das Interview mit dem Leiter der Arbeitsgruppe Technischer Fortschritt im Deutschen Fotorat kann in der Online-Ausgabe des BJVreport nachgelesen werden. Jürgen Scriba fordert eine klare Unterscheidung zwischen echten Fotos und KI-Bildern im Journalismus. Er plädiert für „Reservate für echte Fotografie“ und transparente Kommunikation.
Mit großer Erleichterung reagierte der Kunsthandel in Deutschland auf das final am 22. November 2024 im Bundesrat verabschiedete Jahressteuergesetz. Demnach werden ab dem 1. Januar 2025 Galerien und Kunsthandel wieder mit dem ermäßigten Umsatzsteuersatz von 7% mit Kunst handeln können. Dies gilt allerdings weiterhin nicht für die im Kunstmarkt gehandelte Fotografie. Da bleibt es wie bisher bei 19% Umsatzsteuer.
Der Deutsche Fotorat hat zu diesem Themenfeld zwischen dem 12.09. und 15.10.2024 eine Befragung unter zwei Zielgruppen durchgeführt: Galerist:innen und künstlerisch arbeitende Fotografierende. Ziel der Befragung war eine Bestandaufnahme zum Umgang mit dem Thema Umsatzsteuer bei Verkäufen von künstlerischer Fotografie. Auf die Gesamtteilnehmerzahl von 207 Personen haben sich 17% den Galerist:innen und 83% den künstlerisch Fotografierenden zugeordnet. Die große Mehrheit beider Gruppen (90% und knapp 82%) sind umsatzsteuerpflichtig und somit von der Thematik betroffen.
Beide befragten Gruppen informieren sich über unterschiedliche Kanäle hinsichtlich der korrekten Anwendung des USt.-Satzes für den Verkauf von fotografischen Werken im künstlerischen Kontext. Während nur knapp 14% der Teilnehmenden das Finanzamt als Informationsquelle nutzen, werden Berufsverbände, das Internet und Kolleg:innen mit doppelter Häufigkeit zu Rate gezogen. Steuerbrater:innen werden von beiden Gruppen am häufigsten als Informationsquelle genutzt.
Insgesamt vier Themenbereiche wurden abgefragt:
Abgrenzung von Kunst zur Fotografie im steuerrechtlichen Sinne.
Wahl des Umsatzsteuersatzes.
Steuerrechtliche Gleichstellung von künstlerischer Fotografie und anderen Kunstrichtungen.
Kriterien zur Abgrenzung von künstlerischer Fotografie und angewandter Fotografie.
Demnach empfinden 75% der Befragten die Abgrenzung von Kunst zur Fotografie als unklar geregelt. Hingegen stimmen nur 12% der Teilnehmenden beider Gruppen zu, sich bei der Wahl des steuerrechtlich korrekten Umsatzsteuersatzes absolut sicher zu fühlen. Ganze 86% wünschen sich eine Gleichstellung von künstlerischer Fotografie und anderen Kunstrichtungen. Hilfreich hierfür könnte ggf. eine durch klare Kriterien definierte Abgrenzung zwischen angewandter und künstlerischer Fotografie sein. Dies wird von 76% der Befragten befürwortet. Nur 11% sprechen sich gegen einen solchen Ansatz aus.
Im Rahmen der anonymen Umfrage wurde auch erhoben, welchen USt.-Satz die beiden Gruppen jeweils in der Praxis anwenden. Demnach verkaufen 12% der Galerist:innen fotografische Kunst zum reduzierten USt.-Satz (von 7%) und 88% zum regulären Satz (von 19%). Bei den Fotografierenden sieht das Verhältnis deutlich anders aus: 42% verkaufen eigene künstlerische Fotografie zum reduzierten USt.-Satz, 58% zum regulären. Diese erschreckend hohen Zahlen insbesondere bei den Fotografierenden mögen darin begründet sein, dass bei Verkäufen, die von Kunstschaffenden anderer Disziplinen selbst abgewickelt werden (also nicht über eine Galerie) auch bisher der reduzierte USt.-Satz zum Tragen kommt. Große Unsicherheit entsteht dabei durch die Tatsache, dass die Fotografie hiervon ausgenommen ist. Noch undurchsichtiger wird die Situation, wenn von Finanzämtern oder Steuerberatenden widersprüchliche Angaben hierzu gemacht. Dies wird u.a. durch die folgenden Zitate von Teilnehmenden der Umfrage deutlich:
„Mein Finanzamt hat mich nach einer Auseinandersetzung explizit auf die 19% hingewiesen. Gegenüber den anderen bildenden Künsten ist dies sehr ungerecht. Ich habe als Künstler an einer Kunstakademie studiert, unterrichte an einer Kunsthochschule Fotografie und gelte vor dem Finanzamt dennoch nicht als Künstler, welche Anmaßung.“
„Ich bin Fotodesigner, als solcher freiberuflich, künstlerisch tätig. Als solcher lebe ich seit Jahrzehnten hauptsächlich von Auftragsfotografie, die ich seit Beginn meiner Tätigkeit mit einem Aufschlag von 7% USt. verkaufe. Fotokunst, die ich z.T. selbst verkaufe behandele ich ebenso. Meine Praxis fand in zwei Steuerprüfungen keine Beanstandung.“
„Ich habe einen ’staatlichen Abschluss’ in ’künstlerischer Fotografie‘. Daher hat mein Steuerberater seit 1982 immer 7 % USt. berechnet, was immer ich fotografiere. Die aufgekommene Rechtsunsicherheit hat mich sehr irritiert.“
Kommentare Galerist:innen:
„Dass künstlerische Fotografie in Museum gezeigt wird und das Steuerrecht diese künstlerische Gattung nicht als Kunst akzeptiert ist einfach absurd und schadet dem Medium. Zudem macht dieser Umstand uns Galeristen im internationalen Vergleich weniger konkurrenzfähig.“
„Künstlerische Fotografie und Werke der bildenden Kunst müssen in der heutigen Zeit gleichgestellt werden, unbedingt!“
„Wir wenden 19% Umsatzsteuer nicht aus Einsicht an, sondern weil wir per Steuergesetz dazu gezwungen werden“
Der Deutsche Fotorat begrüßt es daher sehr, dass Kulturstaatsministerin Claudia Roth sich für eine Gleichstellung von Fotografie und anderen Kunstrichtungen ausspricht. Dies würde viele Unklarheiten beseitigen. Darüber hinaus bietet sich der Deutsche Fotorat als Ansprechpartner für die Formulierung konkreter Kriterien bei der Abgrenzung von künstlerischer und angewandter Fotografie an.
Ansprechpartner für inhaltliche Fragen: Anna Gripp, Christian Klant (für den Vorstand Deutscher Fotorat) E-Mail: post@deutscher-fotorat.de
Der Deutsche Fotorat setzt sich seit Herbst 2023 für die Anerkennung der Analogfotografie als immaterielles Kulturerbe ein. Ziel ist es, das Wissen um analoge Techniken der Fotografie als Kulturform für zukünftige Generationen zu sichern. Die Anerkennung bei der UNESCO muss in einem mehrstufigen Verfahren erfolgen; den Anfang machte ein Antrag im Bundesland Nordrhein-Westfalen, über den im Frühjahr 2024 positiv entschieden wurde. Die analoge Fotografie ist damit in das Landesinventar des Immateriellen Kulturerbes von Nordrhein-Westfalen eingetragen und zugleich nominiert für die Aufnahme in das bundesweite Verzeichnis. Am 13. November fand in Düsseldorf eine feierliche Auszeichnungsveranstaltung der Landesstelle Immaterielles Kulturerbe NRW statt. Für den Deutschen Fotorat nahmen die DGPh-Mitglieder Ulla Born (Leica Galerie Düsseldorf), Simone Klein (Expertin für Fotografie im Kunstmarkt) und Klaus Pollmeier (Fotoingenieur, Dozent und Restaurator) teil. Nachfolgend der Redebeitrag von Klaus Pollmeier:
Meine sehr geehrten Damen und Herren,
vielen Dank für die Gelegenheit, hier ein Statement für die analoge Fotografie anlässlich ihrer Aufnahme in das Landesinventar des Immateriellen Kulturerbes des Landes NRW abgeben zu dürfen. Die analoge Fotografie ist also eine schützenswerte Kulturtechnik geworden, ein immaterielles kulturelles Erbe von besonderem Wert? Das klingt im ersten Moment für jemanden, der mit der analogen Fotografie groß geworden ist, etwas seltsam. Schließlich ist alles, was wir als Menschen an fotografischen Bildern wahrnehmen, analog. Lange Reihen von digitalen Nullen und Einsen anzuschauen, wäre wohl auch ziemlich langweilig. Aber was hat denn nun der Einzug des Digitalen in die Welt der Fotografie so Schlimmes getan, dass wir heute glauben, das Wissen um seine analogen Vorläufer vor dem Aussterben bewahren zu müssen? Nun ja – er hat ganze Industrien zum Einsturz gebracht. Agfa, Kodak, ORWO, Polaroid und viele andere sind von der Bildfläche verschwunden. Na und? Man könnte sagen: Die haben eben die Zeichen der Zeit nicht erkannt. Der Gang der Dinge im Wirtschaftsleben. So what …
Aber ganz so einfach ist es dann doch nicht. Irgendetwas muss an der analogen Herangehensweise grundsätzlich anders und faszinierend sein, denn wie sonst ließe sich die große Zahl der Polaroid- oder Plattenkamera-Liebhaber, der Lochkamera-Benutzer und Kleinbild- oder Mittelformat-Fotografen erklären, die momentan eine Renaissance der analogen Fotografie auslösen? Gute analoge Kameras, Vergrößerungsgeräte und Laborzubehör sind inzwischen so gesucht wie gute Plattenspieler. Von der Aufnahme bis zum Abzug – handgemachte Fotos erfreuen sich nicht nur bei jüngeren Menschen steigender Beliebtheit. Sogar auf der Messe Paris Photo waren moderne Ambrotypien, Cyanotypien und Platin-Palladiumdrucke auffallend präsent. Und wenn Leica sich entscheidet, mit der M 11 eine neue analoge Kamera auf den Markt zu bringen, dann sicher nicht aus emotionalen Beweggründen oder weil man sich einer Unternehmenstradition verpflichtet fühlt, sondern weil die Verantwortlichen eine entsprechende Nachfrage spüren.
Warum geschieht das alles? Ich glaube, die Antwort ist einfacher, als man denkt und findet sich im Wesen des Menschen selbst. Wobei pure Nostalgie nach dem Motto „Früher war alles besser“ als Erklärung zu kurz greift. Natürlich war es früher nicht besser. Und schaut man sich die technische Bildqualität heutiger Digitalfotos an, dann ist diese weitaus perfekter, als es das analoge Foto jemals war. Es ist die Umwandlung der Natur in Zahlen, in etwas Messbares, Berechenbares und Unzweifelhaftes, das neben aller Bewunderung für die damit verbundene Perfektion auch ein unterschwelliges Misstrauen gegenüber der Vereinnahmung durch das Digitale auslöst. Hand aufs Herz: Wer will schon so perfekt sein wie ein Computer? Wer will auf jede Unwägbarkeit oder Interpretierbarkeit verzichten, auf jede Störung im System? Welche Unfreiheit wäre das? In seiner Reduktion der Welt auf Einsen und Nullen und absolute Fehlerfreiheit wohnt dem Digitalen etwas zutiefst Unmenschliches inne.
Das hat die Computerindustrie natürlich erkannt und zu vertuschen versucht, indem sie die Rechner-Interfaces mit Attributen ausstattet, die uns aus der analogen Zeit vertraut sind, einem „Schreibtisch“ etwa, „Ordnern“ oder einer digitalen Dunkelkammer namens Photoshop, mit der sich Rechenprozesse als Handgriffe darstellen, wie wir sie aus der Arbeit mit Filmen und Fotopapieren kennen.
Dabei ist es gar nicht einmal die digitale Perfektion allein, die viele skeptisch macht. Auch analoge Fotografie hat immer nach Perfektion gestrebt. Aber sie tat das mit einem vom Menschen nachvollziehbaren Aufwand und, wenn man wollte, sehr selbstbestimmt, fehlerbehaftet, körnig und immer auch von einem analogtypischen Rauschen begleitet. Erst dieses Rauschen aber (und der Aufwand, es zu unterdrücken …) macht den Wert einer Information für uns Menschen fassbar. Erst die Störung der Perfektion und das Ungenaue fordern auf zur bewussten Entscheidung für das eine oder das andere – oder eben auch für das „dazwischen“ – und ermöglicht so den menschlich-künstlerischen Akt. Ein klassisches Konzert ohne Husten? Unmenschlich. Wir brauchen die Störung im System, um das System wahrzunehmen. Erst das Staubkorn in der Negativbühne des Vergrößerers verschafft die notwendige Distanz zu dem ja doch nur vordergründig perfekten Bild. Deshalb müssen wir das Wissen um das Analoge bewahren: um des Menschen willen.
Klaus Pollmeier
Foto: v.l.n.r.: Ralf Brachtendorf (Ministerium für Kultur und Wissenschaft NRW), für den Fotorat/DGPh: Simone Klein, Klaus Pollmeier und Ulla Born sowie Stefan Ast (NRW Stiftung). Foto: Judith Büthe
Die Arbeitsgruppe Fotografisches Erbe im Deutschen Fotorat hat einen Fragenkatalog zusammengestellt, der Fotografinnen und Fotografen bzw. Erben bei der Vorbereitung eines Übergabe-Gesprächs oder bei der Vorbereitung zur Aufarbeitung und Erfassung ihres Fotobestandes unterstützen soll. Sie können sich damit einen fundierten Überblick über die Menge und den Zustand ihres Vorlasses bzw. Nachlasses verschaffen. Anhand des ausgefüllten Fragebogens können potentielle Abnehmer wie Sammlungen, Museen etc. einen ersten Eindruck vom Umfang eines Werks bekommen.
Neuss, September 2024 – DINAX, ein Spezialist für Softwarelösungen in den Bereichen Fotografie und Grafik, hat auf Initiative des Deutschen Fotorats den DINAX IPTC-Tagger veröffentlicht. Diese kostenlose Software ermöglicht Fotograf*innen und Videograf*innen das einfache Einfügen von Urheberrechtsinformationen und Nutzungsvorbehalten in ihre Bild- und Videodateien.
Der DINAX IPTC-Tagger unterstützt die Integration von maschinell auslesbaren Metadaten, die unsichtbar in den Dateien gespeichert werden. Zu den Informationen gehören Urheberschaft, Copyright-Hinweise und Nutzungsbedingungen, die helfen, Bildrechte zu schützen und die Sichtbarkeit in Suchmaschinen zu verbessern.
Schutz vor KI-Nutzung
In einer Zeit, in der KI zur Bildgenerierung verwendet wird, bietet der IPTC-Tagger eine Möglichkeit, geistiges Eigentum vor unautorisierter Nutzung zu schützen. „Mit dem DINAX IPTC-Tagger stellen wir Fotografinnen und Fotografen ein kostenloses Tool zur Verfügung, das die Einbindung von Copyright-Informationen vereinfacht, sogar für ganze Dateisammlungen“, sagt Peter Hytrek, Geschäftsführer der Dinax GmbH.
Auf Initiative der Arbeitsgruppe Technischer Fortschritt des Deutschen Fotorats kam es zur Entwicklung des Tools. Es wurde entwickelt, um Fotografinnen und Fotografen zu unterstützen, ihre Werke wirksam vor Missbrauch zu schützen und maschinenlesbare Urheberrechtsdaten unkompliziert zu integrieren.
Funktionen des DINAX IPTC-Taggers:
Automatisierte Metadaten-Verwaltung: Einfaches Hinzufügen und Bearbeiten von IPTC-Daten.
Batch-Verarbeitung: Bearbeitung ganzer Dateisammlungen in einem Schritt.
Nahtlose Integration: Unterstützung gängiger Bild- und Videoformate.
Der DINAX IPTC-Tagger steht ab sofort kostenlos für Mac und Windows auf der DINAX-Website zur Verfügung:
Hamburg, 11. Oktober 2024 – Der Dachverband für Fotografie in Deutschland, der Deutsche Fotorat, hat sich erfolgreich in den gemeinnützigen Verein „Deutscher Fotorat e.V.“ umgewandelt. Der künftige Vereinssitz wird Hamburg sein, wo am heutigen Tag die Gründungsversammlung in den Räumlichkeiten des Berufsverbandes FREELENS e.V. stattfand. Die Behörde für Kultur und Medien Hamburg hat die Versammlung begleitet und kündigte an, den Deutschen Fotorat mit einer Projektförderung im Aufbau der neuen Strukturen zu unterstützen.
Dr. Carsten Brosda, Senator für Kultur und Medien in Hamburg, würdigt die Arbeit des Fotorats: „Erst 2021 gegründet, hat sich der Deutsche Fotorat zu einer wichtigen Institution für die Förderung der Fotografie in Deutschland entwickelt. Insbesondere seine Etablierung als eigenständige Sektion im Deutschen Kulturrat hat ein wichtiges Zeichen für die Anerkennung der Fotografie als eigenständige Kunstform gesetzt. Ich freue mich sehr, dass der neu gegründete Verein sich nun in Hamburg niederlässt und dadurch auch die vielfältige Fotografieszene in der Stadt stärkt.“
„Die Gründung des Deutschen Fotorats e.V. eröffnet uns neue Wege, um die Fotografie in Deutschland weiter zu fördern. Die Vereinsstruktur bietet uns nicht nur mehr Flexibilität, sondern auch neue Ressourcen, um gemeinsam mit unseren Mitgliedern unsere Ziele zu erreichen. Wir haben in den letzten zwei Jahren eine solide Basis geschaffen, um die Strukturen weiter zu professionalisieren. Jetzt ist es an uns allen, diese neuen Möglichkeiten gemeinsam im Sinne der Sache weiter zu nutzen und die Fotografie als Kulturgut in Politik und Gesellschaft nachhaltig zu verankern“, erklärten Anna Gripp und Julia Laatsch als Vorstandsvorsitzende des neuen Vereins.
Der Deutsche Fotorat wurde 2021 gegründet und hat sich seither erfolgreich als zentrale Interessenvertretung der Fotografieszene in Deutschland etabliert. Berufsverbände und Kulturvereine gehören ebenso zu den Mitgliedern wie öffentliche Archive und Ausstellungsinstitutionen. Seit September 2023 ist der Dachverband eine eigenständige Sektion des Deutschen Kulturrats und vertritt die Fotografie damit erstmals in der Historie als eigenständiges Kreativmedium auf höchster Ebene im Spitzenverband der deutschen Kulturverbände. Inzwischen gehören dem Deutschen Fotorat 39 Mitgliedsorganisationen an. Alle Mitglieder profitieren von einem starken Netzwerk Fotografie. Gemeinsam setzen sie sich in Deutschland für das Medium Fotografie, für die Fotokultur, für die fotografische Berufspraxis ein. Die Arbeit der Arbeitsgruppen beschränkt sich dabei nicht nur auf Deutschland, sondern auch internationale Vernetzungen und aktive Teilnahme am Diskurs zu KI auf EU-Ebene spielen eine wichtige Rolle.
Für weitere Informationen oder Interviewanfragen wenden Sie sich bitte an:
Deutscher Fotorat e.V. c/o FREELENS e.V. Anna Gripp & Julia Laatsch
Foto: Gruppenbild mit den beteiligten Mitgliedern. Anwesend waren folgende Verbände, Vereine und Institutionen:
Allianz Deutscher Designer (AGD), Berufsverband Freie Fotografen und Filmgestalter (BFF), bund professioneller porträtfotografen (bpp), Bayrische Staatsbibliothek, Bundesverband der professionellen Bildanbieter (BVPA), Deutsche Fotografische Akademie (DFA), Deutsche Gesellschaft für Photographie (DGPh), Deutscher Journalisten Verband (DJV), Female Photoclub, FREELENS, Gesellschaft für Naturfotografie (GDT), Institut Heidersberger, laif, PIC Verband, Stiftung F.C. Gundlach und Verwertungsgesellschaft VG Bild-Kunst.
Der europäische AI-Act ist nun im zweiten Monat in Kraft, und keiner hat’s gemerkt, oder? Kommt drauf an. Auch wenn sich für die Normalos unter den Anwendenden noch nicht so viel getan hat, hat der Startschuss des nach Eigenlob epochalen Regelwerks hinter den Kulissen hektische Aktivität ausgelöst.
Recht ungewohnt kurzfristig hat die EU Aufrufe zu diversen Beteiligungsverfahren für die zukünftige Ausgestaltung des regulatorischen Rahmens ausgerufen. Bis zum 25. August waren Organisatoren aufgerufen, ihr offizielles Interesse an der Teilnahme zu den Konsultationen zur Ausarbeitung des „General-Purpose AI Code of Practice“ zu bekunden, also einer Art Verhaltenskodex für den Umgang mit allgemeinen KI-Systemen. Der Online-Fragebogen entpuppte sich als im Detail recht frickelig, doch es ist uns gelungen, diesen sprichwörtlich Minuten vor der Deadline als Deutscher Fotorat auszufüllen. So musste begründet werden, mit welcher Berechtigung man sich als relevanter Gesprächspartner sieht. Ganz wichtig aus Sicht der Regulierenden: Es dürfen nur Entitäten an den Beratungen teilnehmen, die ins europäische Transparenzregister eingetragen sind. Das haben wir kurz vor Schluss getan und bekamen die Bestätigung erst einen Tag danach. Mal sehen, ob uns das zum Verhängnis wird…
Als nächstes war ein EU-Fragebogen zur „Multi-stakeholder Consultation“ auszufüllen mit dem Titel „FUTURE-PROOF AI ACT: TRUSTWORTHY GENERAL-PURPOSE AI“. Den Zweck des Verfahrens erläutert das Europäische Amt für KI so:
Die Konsultation bietet allen Interessenträgern die Möglichkeit, zu den Themen des ersten Verhaltenskodex Stellung zu nehmen, in dem die Regeln für Anbieter von KI-Modellen für allgemeine Zwecke im Einzelnen dargelegt werden. Die Konsultation wird auch Informationen über die diesbezüglichen Arbeiten des Amtes für künstliche Intelligenz enthalten, insbesondere über das Muster für die Zusammenfassung der Inhalte, die für die Schulung der universellen KI-Modelle verwendet werden, und die begleitenden Leitlinien.
Alle interessierten Parteien werden zur Teilnahme aufgefordert. Das Amt für künstliche Intelligenz fordert ein breites Spektrum von Interessenträgern auf, Beiträge einzureichen, darunter Hochschulen, unabhängige Sachverständige, Vertreter der Industrie wie Anbieter allgemeiner KI-Modelle oder nachgeschaltete Anbieter, die das Modell in ihre KI-Systeme integrieren, Organisationen der Zivilgesellschaft, Rechteinhaber und Behörden.
Hier hat die Initiative Urheberrecht (IU) verdienstvolle Grundlagenarbeit geleistet, denn als pdf ist das Formular 34 Seiten lang. Hier gilt es, in sicherem Juristenenglisch die treffenden Wendungen zu finden, um unser Missfallen darüber zum Ausdruck zu bringen, dass beim Training aktueller KI-Modelle insbesondere bei Systemen zur Bildgenerierung bisher eher lax mit dem schöpferischen Eigentum der BildautorInnen umgegangen wurde. Wir haben auch die Gelegenheit genutzt, in einem individuellen Textanhang darauf hinzuweisen, dass die gegenwärtige Rechtsauffassung komplett praxisfern ist, ein „maschinenlesbarer“ Vorbehalt gegen die Nutzung eigener Bilder für das KI-Training sei auf jeder Website durch die sogenannte „robots.txt“-Datei mit peniblem Hausverbot für jeden einzelnen namentlich bekannten Bot zu dokumentieren.
Auch hier sind wir sehr gespannt, auf welche Weise und in welchem Umfang wir im weiteren Verfahren Gehör finden. Jedenfalls schonmal ganz herzlichen Dank an alle, die an diesem Milestone mitgemeißelt haben! Eigentlich ist das ein Fulltime-Job für gutbezahlte Lobbyisten (die wir leider derzeit nicht haben).
Gerne kamen wir auch der Bitte des Bundesministeriums für Wirtschaft und Klimaschutz nach, ihnen unsere Stellungnahme zur Info zu schicken. Das Ministerium hatte im August ebenfalls zu einem ersten Stakeholder-Austausch geladen. Dort äußerten vor allem viele Teilnehmende viele Fragen und scheinen ähnlich gespannt zu sein wie wir, was das in der Praxis für Folgen haben wird.
Leider deutet bislang vieles darauf hin, dass sich der Europäische AI-Act in der Tat zu einem „Compliance Monster“ entwickelt, wie auch in dieser Folge des Heise-Datenschutz-Podcasts die Spezialisten resümieren
Er würde damit in die Fußstapfen der DSGVO treten, deren Ziel zwar im Ansatz das Unterbinden von Missständen ist, sich zum größten Teil aber im peniblen Definieren von Randbedingungen und Voraussetzungen für „Rechtssicherheit“ ergeht, was dazu führt, dass jeder von uns gefühlt 100 mal am Tag seine Cookie-Präferenzen bestätigen muss, aber als FotografIn in dem Bewusstsein lebt, dass man bei der Ausübung seines Berufs kaum eine Chance hat, alles wirklich 100% richtig zu machen. Oder habt Ihr z.B. das Merkblatt des Berliner Datenschutzbeauftragten in der Fototasche?
Der AI-Act sieht ja im Kapitel Transparenzvorschriften zukünftig auch Kennzeichnungspflichten für den Output von KI-Systemen vor. Demnach soll in spätestens 24 Monaten, wenn auch dieser Teil inkrafttritt, klar sein, wie und in welchem Umfeld KI-generierte Bilder gekennzeichnet werden müssen. Allerdings geben schon die derzeitigen Formulierungen im Act Anlass zum Stirnrunzeln, denn so scheint die Notwendigkeit zur Kennzeichnung davon abzuhängen, ob das Bild vollständig generiert wurde, oder ob das Ausgangsmaterial ein Foto war, und ob die KI in „unterstützender Funktion“ tätig war oder die vom Nutzer benutzten „Eingabedaten“ „unwesentlich verändert“ wurden. Es fällt sehr schwer, sich auszumalen, nach welchen Kriterien Juristen in der Zukunft hier Grenzen ziehen wollen, und wie das Rechtssystem mit seinen Instanzenwegen und Präzedenzurteilen hier jemals mit der aktuellen Entwicklung der Tools wird mithalten können.
Wir glauben, hier müssen die Praktiker aus eigenem Antrieb nach Lösungen suchen. Zu diesem Zweck lädt der Fotorat am 11. Oktober Interessierte aus Bildredaktionen, Agenturen und Verlagen zu einem Roundtable in Hamburg ein. Eine erste Diskussionsrunde per Zoom war sehr interessant und offenbarte großen Gesprächsbedarf. Denn schon heute gehen in den Redaktionen journalistisch arbeitender Medien Leserbriefe ein mit dem Tenor „Euren Fotos glaube ich sowieso nicht mehr“, und auch die BildbeschafferInnen im Bereich Werbung und Corporate Publishing erleben die Bildung von Lagern zwischen jenen, die durchaus gerne die umständliche Fotografie durch Bildgeneration auf Knopfdruck ersetzen würden und anderen, die selbst beim simplen Abbilden einer Tomate Wert auf ein authentisches Foto legen.
Da wir es in Sachen Einspruch gegen Bildersaugen für KI-Training nicht bei kritischen Anmerkungen von der Seitenlinie belassen wollen, entstand in der Arbeitsgruppe die Idee, Fotografierenden praktische Werkzeuge an die Hand zu geben, mit denen sie ihre Rechtsposition stärken können. Erstes Resultat dieser Überlegungen ist der IPTC-Tagger:
In der Tat ist einer der Dreh- und Angelpunkte derzeitiger rechtlicher Scharmützel die Frage, ob denn die Urheber von Bildern, die nun gegen die Verwendung Ihrer Werke beim Training von Bildgeneratoren vorgehen wollen, beizeiten ihren Vorbehalt in geeigneter „maschinenlesbarer Form“ zu erkennen gegeben haben.
Dabei scheinen Gerichte dazu zu neigen, entsprechende Klauseln in den Nutzungsbedingungen z.B. von Bildagenturen nicht für maschinell lesbar zu halten. Eifrig unterstützt wird diese Ansicht ausgerechnet von jenen Entwicklern, die ihre unter dem gleichen Dach entwickelten Sprachmodell als digitale Assistenten preisen, die imstande sind, komplizierte Sachverhalte aus großen Textmengen zu extrahieren und allgemeinverständlich zusammenzufassen. Bis der Streit um die korrekte Interpretation entschieden ist, dürften Jahre vergehen.
Da empfiehlt es sich, schon heute entsprechende Willensbekundungen in den Bildern selbst zu verankern. Das geht nämlich schon seit einiger Zeit in den sogenannten IPTC-Daten. Das sind Metadaten in jedem Bild, in denen Dinge wie der Typ der Kamera, Aufnahmezeitpunkt, Blende, Verschlusszeit und möglicherweise GPS-Daten stehen. Dort kann man auch Copyright-Vermerke einbetten und eben ein genormtes „Data Mining“-Statement, das die Nutzung zum KI-Training oder für Suchmaschinen erlaubt oder verbietet:
Ebenfalls relativ modern ist das Feld „Digital Source“, das die Klassifizierung des Bildes in sehr feine Nuancen zwischen rein synthetisch erzeugten Werken und Originalfotografien zuläss.
Nur leider zeigen übliche Standardwerkzeuge wie Photoshop und Lightroom einige dieser Felder gar nicht an, oder machen das Ändern dieser Daten zu einer umfangreichen Klick-Orgie.
Dankenswerterweise hat AG-Mitglied Peter Hytrek, im wahren Leben Chef der DINAX GmbH, einige Stunden seiner Entwickler spendiert, um das Konzept des Taggers Wirklichkeit werden zu lassen.
Mit dem kleinen Programm können FotografInnen in ganzen Stapeln von Bildern einzelne oder alle dieser Rechte-relevanten Daten auf gewünschte Werte setzen, bevor sie beispielsweise Bilder ins Netz stellen oder an Kunden weitergeben.
Natürlich lässt sich derzeit nicht garantieren, ob das wirklich gegen das Einverleiben durch Bildgeneratoren schützt, denn dafür müssten die Bildsauger solche Einträge respektieren. Auch ist es derzeit üble Praxis vieler Plattformen, auf denen Bilder geteilt werden, die Metadaten nach dem Hochladen schlicht komplett zu löschen. Aber zumindest muss man sich dann nicht mehr von Gerichten und den Betreibern von Trainingsdatenbanken sagen lassen, man habe ja nicht ahnen können, dass jemand mit dieser Nutzung nicht einverstanden war.
Es bleibt leider in diesem Post schwerpunktmäßig trocken juristisch. Für Hartgesottene empfiehlt sich die Lektüre der gerade veröffentlichten Tandemstudie von Prof. Dr. Tim W. Dornis (Universität Hannover) und Prof. Dr. Sebastian Stober (Universität Magdeburg) im Auftrag der Initiative Urheberrecht. Der 218-seitige Wälzer kann hier kostenlos heruntergeladen werden:
Die beiden Spezialisten setzen sich im Detail mit dem Prozess des Datensammelns für das Training von KI-Modellen auseinander und hinterfragen die Ansicht der KI-Entwickler, hier würde das Urheberrecht nicht verletzt, denn es würden erstens keine Werke „vervielfältigt“, und zweitens falle das Sammeln von Trainingsdaten unter die „Data Mining Schranke.“
Mit diesem Passus wollten die Gesetzgeber seinerzeit rechtliche Hürden für Forschungsvorhaben beseitigen, doch Kritiker bestreiten, dass sich die Hersteller kommerzieller KI-Systeme auf dieses Forschungsprivileg berufen können.
Hier gibt es eine Zusammenfassung der Ergebnisse und hier die dazugehörige Pressemitteilung. Knackiges Zitat dazu:
„Diese Studie hat Sprengkraft, weil sie belegt, dass wir es hier mit einem groß angelegten Diebstahl am geistigen Eigentum zu tun haben. Nun liegt der Ball bei der Politik, daraus die nötigen Konsequenzen zu ziehen und dem Raubzug zu Lasten von Journalist:innen und anderen Urheber:innen endlich ein Ende zu setzen“
Hanna Möllers, Justiziarin des DJV
Zum Abschluss des juristischen Exkurses hier noch ein Hinweis auf eine aktuelle Stellungnahme des Deutschen Presserats:
Der Rat ermahnt Redaktionen zum ethischen Umgang mit KI-Bildern und erklärt: „Es darf nicht der Eindruck entstehen, dass künstlich generierte Bilder die Realität abbilden.“ Gefordert wird die Kennzeichnung als „Symbolbild“.
Das ist insofern interessant, als darauf verzichtet wird, eine gesonderte spezielle Kennzeichnung für KI-Generate einzuführen. Die Symbolbild-Richtlinie gibt es schon länger und bezieht sich auf „insbesondere eine Fotografie, [die] beim flüchtigen Lesen als dokumentarische Abbildung aufgefasst werden [kann]“.
Ich persönlich finde das sehr vernünftig, denn worin läge der Gewinn, beispielsweise eine vom Stock-Fotografen mit Models gestellte Krankenhausszene anders zu kennzeichnen als die KI-generierte Pseudo-Krankenschwester, wenn beide ähnlich aussehen, aber eben nicht das zeigen, was man zu sehen meint, nämlich ein Krankenhaus?
Quelle: The Verge
Zur Aufheiterung der Hinweis auf ein Interview mit dem ehemaligen Google-Chef Eric Schmidt. Er plauderte vor Studenten der Stanford-Uni aus dem Nähkästchen des Silicon Valley und fasste die „übliche Vorgehensweise“ trocken so zusammen: Mann müsse sich nicht besonders um geistiges Eigentum Anderer beim harten Kampf um Marktanteile kümmern. Entweder, man werde schnell so erfolgreich und reich, dass man sich teure Anwälte leisten kann, die das Schlamassel hinterher wieder geradebiegen, oder man geht schnell unter, weil das Produkt niemanden interessiert, und damit krähe auch kein Hahn mehr nach eventuellen Fehltritten.
Quelle: The Verge
Überwiegend kritisch sehen Tester der neuesten Google-Smartphones der Serie „Pixel 9“ die damit freigeschalteten KI-Funktionen des „Google Magic Editors“.
Ohne das Phone aus der Hand zu legen, lassen sich im Editor mit simplen Prompts gerade aufgenommene Fotos zu alternativen Realitäten ummodeln. So konnten Ausprobierende harmlose Straßenszenen in Unfallorte verwandeln oder Erdbebenfolgen und Überflutungen simulieren.
Quelle: The Verge
Die KI-Kennzeichnung in den Screenshots stammt von den Online-Medien. Als BesitzerIn eines Pixel-Phones kann man die re-imaginierten Bilder problemlos auf Facebook und Instagram teilen, ohne dass dort irgendwelche verräterischen Labels auftauchen würden. Zumindest derzeit scheinen die KI-Änderungen im Magischen Editor keine Spuren in den Metadaten der manipulierten Bilder zu hinterlassen.
Damit erleben wir gerade einen krassen Gegensatz zur Situation vor ein paar Monaten, als die automatischen Kennzeichnung mit dem „Made with AI“-Sticker durch Meta oft auch unveränderte Fotos inkriminierte oder das simple Entfernen von Sensor-Flecken in Photoshop einen Warnhinweis auslösen konnte.
Quelle: Connectas.org
Journalisten in Venezuela nutzen derweil KI-Avatare, um über Realitäten aufzuklären. Die synthetischen Reporter La Chama und El Pana berichten über Wahlfälschung und Unterdrückung in dem südamerikanischen Land. „Es ist nicht mehr vernünftig, vor der Kamera zu stehen“, zitiert der Guardian die Initiatoren.
Die Journalisteninitiative Connectas erklärt zum Projekt:
„Operación Retuit“ ist eine Strategie, die ursprünglich entwickelt wurde, um die Zensur und Unterdrückung von Journalisten in Venezuela zu umgehen. Sie nutzt künstliche Intelligenz nicht, weil das Tool gerade in aller Munde ist, sondern um Journalisten vor dem harten Durchgreifen zu schützen, das nach der Wahl folgte. Heutzutage werden Journalisten verhaftet, weil sie über Wahlereignisse berichten. Und es gibt eine Informationsblockade durch Kommunikationsunternehmen, um die freie Verbreitung von Informationen einzuschränken. Aus diesem Grund zielt Operacion Retuit darauf ab, relevante und verifizierte Informationen bereitzustellen, die von einem Dutzend venezolanischer und internationaler Medienunternehmen verbreitet werden, die bei den Initiativen „Venezuela Vota“ und „#LaHoraDeVenezuela“ zusammenarbeiten.
Bleiben wir zuversichtlich, dass dieser KI-Einsatz eine Nischenanwendung bleibt
Mit großer Erleichterung reagierte der Kunsthandel in Deutschland auf das Anfang Juni verabschiedete Jahressteuergesetz. Ab dem 1. Januar 2025 werden Galerien und Kunsthandel wieder mit dem ermäßigten Umsatzsteuersatz von 7% mit Kunst handeln können. Dies gilt allerdings weiterhin nicht für die im Kunstmarkt gehandelte Fotografie. Da bleibt es wie bisher bei 19% Umsatzsteuer. In der Praxis wird dies jedoch nicht immer einheitlich gehandhabt und selbst von Steuerberatern und Finanzämtern werden zum Teil widersprüchliche Angaben gemacht.
Aus diesem Grund führt der Deutsche Fotorat eine anonyme Umfrage durch. Diese stellt eine Bestandsaufnahme dar und richtet sich sowohl an Fotografierende mit künstlerischem Fokus, als auch an Galerist*innen. Die Teilnahme wird ca. 3 Minuten in Anspruch nehmen.
Wir bitten um Teilnahme bis zum 15. Oktober 2024 (Frist wurde verlängert) unter folgendem
KI-Firmen machen keinen Sommerurlaub. Das können sie sich nicht leisten, denn die Investoren wollen für die Milliarden, die verbrannt werden, regelmäßig frische Resultate sehen. Das infiziert auch die kleineren Player, denn in der Branche hängt alles mit allem zusammen, und wenn OpenAI Erwartungsstress wegen mutmaßlich abflachender Fortschrittskurven bekommt, müssen andere zeigen, dass sie entweder die Chance nutzen um aufzuschließen oder dass ihre Kurve noch schön steil nach oben zeigt.
So sind auch im Bereich der Bildgeneratoren in den letzten Wochen wieder zahlreiche Neuheiten verkündet worden, oder zumindest Dinge, die sich als solche vermelden lassen.
Midjourney hatte Ende Juli mit Version 6.1 zunächst viele Details verbessert. So sollen jetzt Bilddetails und Texturen präziser dargestellt sowie die „Kohärenz“ in den Bildern verbessert werden, also Ausreißer und Artefakte reduziert sein.
Im August wurde dann endlich allgemein zugänglich, was schon erstaunlich lange in elitären Alpha-Testerkreisen vor sich hin gegärt hatte: Ein Web-basiertes Interface, mit dem man ähnlich wie bei den meisten anderen Bildgeneratoren Prompts nicht mehr nur ähnlich archaischer Programmiersprachen per Befehlszeile im Discord-Chat übermitteln kann, sondern in Textboxen eingibt, in deren Nähe man auch die Ergebnisse zu sehen bekommt, sowie an Reglern und Knöpfen drehen kann.
Quelle: Midjourney.com
Wer durch die opulenten Musterbild-Galerien anderer User streift und Lust verspürt, sich selbst an dem von vielen Kennern als nach wie vor bester Generator eingeschätzten System zu versuchen, wird sogleich zum Abschluss eines Abos ab $10 pro Monat genötigt. Mal sehen, ob diese Marketing-Offensive den erhofften umsatzsteigernden Effekt hat.
Noch nicht ganz so gut zugänglich ist der Generator der Newcomer von Black Forest Labs. Deren Bild-KI „Flux.1“ verspricht vor allem das Ende von Artefakten wie missgebildeten Händen in KI-Bildern.
Quelle: Black Forrest Labs Homepage
Das könnte man als übliches Marketing-Geräusch werten, doch die Gründer der in den USA ansässigen Firma, Robin Rombach, Andreas Blattmann und Dominik Lorenz gehören zu den Wissenschaftlern der ersten Stunde, die einst in universitären Forschungsgruppen in München und Heidelberg die Bilderzeugung auf Basis von Diffusionsmodellen erfanden. Vor Gründung ihrer eigenen Firma waren sie bei Stability.ai tätig, das in der kommerziellen Anwendung der Modelle Vorreiter war, aber lange Mühe hatte, die typischen Bildfehler wie sechsfingrige Hände in den Griff zu bekommen. Mit einem öffentlich kommunizierten Investment von 31 Millionen Dollar spielt das Startup Etat-mäßig noch in der Sandkiste, aber die Erwartungen sind groß. Schon bald will die Firma auch einen Diffusionsmodell-basierten Video-Generator vorstellen und damit gegen OpenAIs Schlagzeilen-Giganten „Sora“ antreten.
Das Arbeiten mit dem Flux-Generator erfordert derzeit noch ein paar nerdige Umwege, wie den Zugriff auf andere KI-Modell-Hostingservices. Die Kollegen von Ars Technica haben das Modell ausgiebig getestet und bescheinigen ihm Qualitäten, die mit Platzhirschen wie Dall-E und Midjourney mithalten können. Bei der Herkunft der Trainingsdaten bleiben die Informationen jedoch derzeit dunkel wie der namensgebende Schwarzwald. Ars Technica mutmaßt, hier könnte die berüchtigte LAION-Datenbank verwendet worden sein, auf die wir ja insbesondere aus Anlass des in Hamburg geführten Gerichtsverfahrens ein kritisches Auge geworfen haben.
Quelle: Ars Technica
Mit demselben Prompt wie beim Dall-E Titelbild dieses Posts liefert Flux zumindest eine interessante Variation des Themas:
KI-generiert von J. Scriba / Flux.1
Blitzschnell hat sich Elon Musks Spielwiese X das Flux-Modell geangelt, um damit seinen Plattform-integrierten Bildgenerator Grok anzutreiben. Gemäß seines libertinären Credos, auf X die unzensierte Debatte zu pflegen, scheint auch der Grok-Generator wenig interne Bremsen eingebaut zu haben, mit denen andere KI-Werkzeuge inzwischen beispielsweise Abbildungen von Prominenten unterbinden, Darstellungen von Waffen oder unzüchtig unverhüllte Körperteile.
Fröhlich getestet haben dies natürlich gleich zahlreiche X-User und bereichern die Welt mit synthetischen Posts von Lady Gaga, Justin Bieber oder eben dem King of X:
Quelle: Min Choi, X
Im Blog von Docma gibt es eine schöne Sammlung jener kaum beschränkten Bilder. Inklusive solcher, die sich um typische amerikanische Prüderiefilter herummogeln, die zwar wuchtige Schnellfeuerwaffen lustvoll ausziselieren aber bei Reizwörtern wie „Bikini“ Alarm schlagen. Dass solche Ansätze schon konzeptionell problematisch sind, hat Docma-Urgestein Doc Baumann ja schon in verschiedenen Beiträgen angeprangert, als er sich beispielsweise genötigt sah, auf einen für Pornografie optimierten Bildgenerator zurückzugreifen (ja, auch das gibt es natürlich im Netz zu abonnieren), um Bilder von pseudo-antiken Statuen herzustellen, die artgerecht eher wenig anhaben.
Natürlich ist es verwerflich und illegal, reale Personen ohne ihr Wissen und ihre Zustimmung mit KI-gefakten Sexbildern zu demütigen, nur werden die potentiellen Straftäter das mit geeigneten Werkzeugen mit hoher Wahrscheinlichkeit trotzdem tun, während alle anderen Bildschaffenden sich ständig vor der roten Karte fürchten müssen, wenn ein Prompt auf der geheimen schwarzen Liste steht oder irgendein Algorithmus einen zu hohen Prozentsatz hautfarbener Pixel diagnostiziert.
Das Heldenbildchen von Musk aus dem X-Generator ist insofern symptomatisch/ironisch, als Musk besonders bei Betrügern als Rohmaterial beliebt ist, die mit angeblichen Investment Tipps des Elektroauto/Raketen-Visionärs Geld bei leichtgläubigen Kleinanlegern abgreifen.
Dieser Artikel der New York Times schildert ausführlich, wie raffinierte Trickdiebe durch Umarbeitung von authentischem Videomaterial Promotionbotschaften von mutmaßlichen Finanzgenies wie Musk, Bezos oder Warren Buffet generieren. Viele der Videos erwecken dabei den Eindruck, Youtube Live-Mitschnitte von angeblichen Großveranstaltungen zu sein, auf denen ein oppulentes Publikum die fiktiven Ankündigungen bejubelt. Daten von Sensity (eine Firma, die damit natürlich auch ihr Tool zum Erkennen von KI-Fakes promoted), legen nahe, dass Musk in einem Viertel der untersuchten Fakes seinen Auftritt hatte und Hauptdarsteller in vollen 90% der Betrugsvideos zum Reichwerden mit Kryptowährungen war.
Die Unternehmensberater von Deloitte schätzen, dass sich das Volumen betrügerischer Finanztransaktionen von derzeit über 10 Milliarden Dollar jährlich durch den Einsatz von KI-Werkzeugen bis 2027 verdoppeln könnte.
Quelle: New York Times
Ein ungutes Gefühl hinterlässt vor diesem Hintergrund eine Software wie „Deep Live Cam“, über die hier Ars Technica berichtet. Dieser KI-Generator benötigt nur ein normales Portraitfoto einer beliebigen Person, um selbige als Fake-Gesicht dann im Livestream einer Webcam anstelle der Real-Physiognomie des Menschen vor der Kamera einzublenden. Im Beispiel grimmassiert der Demonstrator recht überzeugend wahlweise als Meta-Chef Zuckerberg, US-republikanischer Vizepräsidenten-Kandidat Vance oder Filmstar George Clooney.
Quelle: Ars Technica
Dass die Erosion der Wirklichkeit sowohl von Bildfälschungen angetrieben wird, wie auch von deren bloßer Behauptung und dem damit einhergehenden generellen Misstrauen in Fotos, demonstriert wieder einmal Donald Trump.
Einerseits teilt der wenig Wahrheitsaffine gerne KI-generierte Bilder von angeblichen Swift-Fans des Präsidenten-Kandidaten (die von seinem X-Account wieder verschwunden sind, aber in Erinnerungs-Enthüllungsposts anderer User weiterleben)
Quelle: Peter Henlein, X
Andererseits wiegelt Trump seine Anhänger gegen Konkurrentin Kamala Harris auf, indem er behauptet, Fotos, die sie mit großen Menschenmengen zeigen, seien per KI gefälscht, denn in Wirklichkeit sei „NIEMAND“ da gewesen:
Quelle: Donald Trump, Trugh Social
Dabei ficht es den Demagogen auch nicht an, dass es mehrstündige Liveübertragungen der angezweifelten Veranstaltung im Fernsehen zu sehen gab und die Fotos in allen namhaften Medien zu sehen sind.
Gerne teilt Trump auch TikTok-kompatible Video-Generate, die ihn scheinbar mit (schon wieder) Musk zeigen
Quelle: Donald Trump, X
Bei diesen Beiträgen ist schwer auszumachen, ob die tatsächlich irgendwer für echte Aufnahmen hält, oder ob solche kommentarlos veröffentlichten Posts nicht genau den Zweck haben, eine Art Grundrauschen von medialem Dauerirrsinn zu erzeugen, vor dem sich jederzeit nach Bedarf retrospektiv dieses oder jenes als „satirisch gemeint“ erklären lässt.
Das muntere Spiel mit dem „Die einen sagen so, die anderen so“ dürfte den Trend zum allgemeinen Misstrauen in Bilder jeglicher Art weiter befeuern. So stellte das Meinungsforschungsinstitut Gallup schon Ende letzten Jahres fest, dass nunmehr der Punkt erreicht sei, an dem jene Amerikaner die größte Gruppe bilden, die Medien „überhaupt kein“ Vertrauen (39%) entgegenbringen im Vergleich zu „ziemlich viel“ (32%) oder „nicht sehr viel“ (29%).
Quelle: Gallup
Einen ähnlichen Stossseufzer („Manche Leute glauben uns einfach prinzipiell gar nichts mehr“) hörten wir kürzlich auch in einem Workshop der Fotorats-Arbeitsgruppe mit BildredakteurInnen. Mehr dazu in Kürze.
Hallo, ja, der Abstand zum letzten Post ist etwas länger, aber ich kann mich nicht mal mit Urlaub rausreden…
Die erste Gerichtsverhandlung gegen den KI-Trainingsdatenbankpfleger LAION habe ich ja im letzten Post schon kurz angerissen. Unser AG-Mitglied Julia Laatsch hat inzwischen für ihren Heimatverband Freelens diese deutlich ausführlichere Erläuterung verfasst:
Auch sie kommt zu dem Schluss, dass es doch recht weltfremd ist, von allen, die Fotos auf ihren Websites posten, zu erwarten, dass sie sich neben ihren Foto-Jobs auch ständig auf dem Laufenden halten, unter welchen mehr oder weniger kryptischen Tarnnamen aktuell welche Bots unterwegs sind, um denen dann gezielt den Zugang zur Website zu sperren, während die für die eigenen Sichtbarkeit in Suchmaschinen wichtigen Crawler weiter reindürfen.
Alexandra Lechner weist auf diese rechtlichen Einschätzungen der Rechtsanwältin Dr. Kerstin Bäcker hin zur nach wie vor schwammigen Forderung der Gesetzgebenden nach „Maschinenlesbarkeit“ von KI-Vorbehalten.
Am Ende landet allerdings auch dieser Artikel zur praktischen Umsetzung wieder beim Beispiel des hochkomplexen robots.txt-Files der New York Times, das ich auch im letzten Post zitiert habe – eigentlich als abschreckendes Beispiel dafür, welch nerdische Frickelei es ist, eine solche Hausverbots-Liste zusammenzustellen.
Dabei kommt mir gerade folgende Idee: So wie es heute für Webshop-Betreiber notgedrungen üblich ist, aus Angst vor formalen (von bösen Anwaltsbots erstellten) Abmahnungen Abos bei darauf spezialisierten (wohlmeinenden) Anwälten abzuschließen, die einen mit fortwährend aktualisierten AGBs versorgen, könnte doch mal jemand darauf verfallen, tagesfrische robots.txt-Dateien zu erzeugen, die Abonnierende automatisch in ihre Website einbinden. Komfortablerweise könnte man als KundIn eines solchen Services aus einem reichhaltigen Menü ankreuzen, welche Sorte Crawler man zulassen will und welche nicht. Da die derzeitigen robot-Tags genau solche eine inhaltliche Spezifikation nicht erlauben, obläge es dann dem Hausverbots-Provider, daraus eine Liste mit stubenreinen und unerwünschten Bots zu generieren.
Sind Programmierende unter den Lesenden, die Lust haben, daraus ein Geschäft zu machen? Oder fühlt sich vielleicht einer unserer Mitgliedsverbände berufen und in der Lage, das als Service für seine Mitglieder anzubieten?
Nun aber zur Erklärung des merkwürdigen Titelbilds:
Verschiedene Experten weisen in letzter Zeit immer häufiger darauf hin, dass der KI-Hype wirtschaftlich auf durchaus wackeligen Beinen steht und derzeit vor allem einem gigantische Geldverbrennung befeuert. So schätzt der üblicherweise sehr gut informierte Branchendienst „The Information“, dass OpenAI (das mit ChatGPT den Boom zumindest in der öffentlichen Wahrnehmung erst so richtig gezündet hat) dieses Jahr rund 5 Milliarden Dollar Verlust anhäufen könnte.
Dafür verantwortlich sind vor allem die enormen Kosten für das Training der immer komplexeren Modelle und den Betrieb der monströsen Rechenzentren, auf denen die Services laufen. Die jüngst vorgestellte Version GPT4o wirkt auf manche Beobachter vor diesem Hintergrund fast wie eine Verzweiflungstat, da sie einerseits nicht wirklich neue Leistungsmerkmale aufweist, sondern eher die bekannten Schwächen hinter einer glänzenderen Oberfläche versteckt, wie etwa der Scarlett-Johanssonesken Stimme, die ja auch prompt nach juristischem Geplänkel wieder in der Versenkung verschwand. Andererseits steigt OpenAI mit der kostenlosen Version in einen mutmaßlich ruinösen Preiskampf mit Konkurrenten ein, der viele Merkmale eines klassischen „Race to the Bottom“ aufweist, in einem Markt der nach wie vor Schwierigkeiten hat, langfristig loyale Großkunden zu binden und bislang nicht klar erkennen lässt, wer von den erbitterten Konkurrenten wirklich substanzielle technische Vorteile haben könnte.
Auch andere Zahlen aus dem KI-Universum sind schwindelerregend: Googles Konzernmutter Alphabet will nach einem Bericht des Economist dieses Jahr seine Ausgaben um 50% auf 48 Milliarden Dollar steigern – den größten Teil davon in KI-Entwicklung. Alphabet, Microsoft, Amazon und Meta sollen dieses Jahr insgesamt rund 100 Milliarden Dollar in neue Datacenter stecken, in denen dann KI-Modelle auf Spezialchips leben.
Alles in allem werden die Investitionen in neue Computing-Infrastruktur für die KI-Entwicklung für den Zeitraum von 2024 bis 2027 auf 1,4 Billionen Dollar (ja, europäische Billionen, entsprechend US-Trillionen) geschätzt. Entsprechend hoch ist der Druck auf die beteiligten Firmen, solche Ausgaben möglichst zügig in vermarktbare Produkte umzusetzen, sonst droht eine Bestrafung am Aktienmarkt, in dessen Bewertungen die Zukunftsaussichten ja bekanntlich schon „eingepreist“ sind. So wird OpenAI früher oder später die Hosen herunterlassen müssen, was denn nun GPT5 kann, oder was an den genüsslich befeuerten Gerüchten über eine angeblich schon im Geheimen werkelnde allumfassend intelligente KI (AGI) in ihren Labors dran ist.
Was davon fundierter Entwicklungsplan und was Blasen-Marketing ist, wird erst aus der Rückschau erkennbar werden.
Einstweilen übt sich Alphabet-Chef Sundar Pichai in fast Merkelscher Sachzwang-Logik:
„Das Risiko zu wenig [in KI] zu investieren ist dramatisch größer als das Risiko zu viel zu investieren.“
Sundar Pichai, CEO von Google und dessen Mutterkonzern Alphabet
Aber beschäftigen wir uns noch ein wenig mit konkret Bild-relevanten KI-News der letzten Zeit:
Quelle: dpreview.com
Adobe ermöglicht jetzt, in Camera Raw, Lightroom und Photoshop, die angekündigten „Content Credentials“ in die Metadaten hinzufügen.
Die Kollegen von dpreview beschreiben die Handgriffe, die man dazu tun muss, und noch wirkt das Ganze recht hakelig und unfertig. Sinn der Sache soll ja sein, dass endgültige Betrachter eines so erstellten Bildes durch den Klick auf ein Verifizierungs-Link nachprüfen können, welche möglicherweise verfälschenden Bearbeitungsschritte ein Foto durchlaufen hat, bis es z.B. auf einer Website erscheint.
Dabei muss man sich allerdings bewusst machen, dass die nun vorgestellten Werkzeuge hier am Computer des Bildbearbeitenden willkürlich den Startpunkt für die Bearbeitungskette legen. Ob also das in Photoshop signierte Bild tatsächlich aus einer Kamera stammt und die behauptete Realität wiedergibt, beweist ein solches Credential mitnichten. Wir haben es also hier mit einem technologischen Zwischenschritt zu tun (auf dem Weg zu vielleicht in Zukunft direkt in der Kamera signierten Fotos), der vermutlich eher dazu einlädt, weitere Unsicherheit in die Authentizitätsdebatte zu bringen, wenn demnächst Bildfakes mit Credentials auftauchen, bei denen nur ExpertInnen erkennen können, dass diese nichts beweisen.
Weiteren Grund zur Beunruhigung bereitet mir dieses sehr technische Hacker-Paper, das zeigt, dass ausgerechnet die cryptographischen Zertifikate, die Adobe und Microsoft für die Erstellung von C2PA-konformen Bildsignaturen verwendet werden, relativ leicht zur scheinbaren Besiegelung von offenkundigen Bildfakes mißbraucht werden können. Wenn ich bedenke, welche Probleme ich im Jahr 2024 habe, simple verschlüsselte Mails mit etablierten Banken und Steuerkanzleien auszutauschen, ohne dass in regelmäßigen Abständen nicht irgendwelche Infrastruktur ähnliche Zertifikate unberechtigt abweist oder durch einen falschen Klick ungerechtfertigt akzeptiert, dann scheint es wirklich noch ein recht langer Weg zu sein, bis solche Methoden so selbstverständlich funktionieren, dass wir ihnen im täglichen Umgang vertrauen und sie intuitiv anwenden können.
Der oben verlinkte Artikel erklärt, wie Adobe Stock nun seinem dort eingebauten Bildgenerator Fesseln anlegt, um NutzerInnen daran zu hindern, mit seiner Hilfe Stilkopien bekannter KünstlerInnen zu erstellen.
Den Anstoß gab ja unlängst die Empörung der Nachlassverwalter von Ansel Adams, die erreichten, dass Adobe Bilder aus seiner Stock-Library entfernten, die sogar in der Bildbeschreibung damit warben, KI-Generate im Stil des Fotografen zu sein. Nichtsdestotrotz konnte man durch Eingabe entsprechender Prompts im generativen Teil derselben Plattform sich selbst ähnliche Bilder stricken. Das soll nun vorbei sein, indem Prompts mit Wünschen wie „im Stile von….“ in Zusammenhang mit bestimmten BildautorInnen verboten sind, ebenso wie Referenzen auf bestimmte real existierende Persönlichkeiten wie auch bekannte markenrechtlich geschützte fiktionale Figuren.
Ein schönes Beispiel für die Schaffung neuer Berufe im Gegengewicht zum Jobverlust durch disruptive Innovationen. Freigesetzte BildredakteurInnen können jetzt auf ZensurlistenpflegerInnen oder ComicfigurencopyrightschützerInnen umschulen.
Meta kündigt unterdessen ein neues Tool zum lustvollen Realitätsverlust an. Das Kommando „Imagine Me“ soll in naher Zukunft auf alles Plattformen des Konzerns verfügbar sein. Damit können sich NutzerInnen von Facebook oder Insta-Accounts in beliebige Outfits oder Umgebungen hineinimaginieren und das Bildergebnis natürlich gleich mit der Welt teilen.
Das Feature basiert auf einem neuen hier technisch beschriebenen Bildgenerator, der im Gegensatz zu anderen Modellen auf detailliertes Finetunig der Prompts verzichtet. Aus dem Forschungsaufsatz stammt auch die Bildersammlung unten, die basierend auf einem einzigen Referenzfoto der Forscher am unteren Rand der Abbildung unterschiedlichste Bildergebnisse und -stile auswirft.
Quelle: KI-generiertes Bild von J. Scriba (Dall-E)
Fangen wir mit der letzten Woche an. Da trafen zufällig zwei Dinge zeitlich zusammen, die inhaltlich gut zusammenpassen: Alexandra Lechner machte mich auf eine Veröffentlichung des Bitkom e.V. aufmerksam, die schon Ende Mai erschienen ist. Unter dem Titel „Whitepaper zu Urheberrecht und generativer KI“ möchte der Verein, der laut Selbstdarstellung „die besten Köpfe und Unternehmen der digitalen Welt“ repräsentiert, wie im Vorwort ausgeführt, zur Versachlichung der Diskussion beitragen, denn
„Zuweilen nehmen die Diskussionen rund um generative KI – insbesondere im Verhältnis zu Urhebern und dem Urheberrecht – emotionale Züge an.“
Bitkom e.V.
Dass die Position des Vereins, dessen Mitgliedsfirmen nach eigenen Angaben zusammen rund zwei Millionen ArbeitnehmerInnen beschäftigen, tendenziell an einem geschäftebeflügelndem regulatorischen Umfeld interessiert ist, kann niemanden verwundern. Die Breitbeinigkeit der im Papier vorgetragenen Argumentationslinien verblüffen mich aber doch.
Seit nunmehr gut zwei Jahren erläutern uns in der Fotorat-Arbeitsgruppe Juristen, wie verzwickt die rechtliche Würdigung der Vorgänge rund um das Training von KI-Modellen sind. Wie wenig hilfreich das gegenwärtige Urheberrecht ist, weil historisch gewachsene Definitionen von Nutzungsarten wie Vervielfältigen und Veröffentlichen schwer zu jenen technischen Vorgängen passen, mit denen Daten zum Training von KI-Systemem gesammelt und verarbeitet werden. Wie schwer bis unmöglich die Abgrenzung Datamining zu Forschungszwecken und zur kommerziellen Anwendung in diesem Zusammenhang ist. Wie unklar der Gesetzgeber die Anforderungen an „maschinenlesbare“ Vorbehalte von Website-BetreiberInnen formuliert hat. Gerade dieser Tage diskutierten die Mitglieder der VG Bildkunst höchst kontrovers mögliche Satzungsänderungen, die neuartige Lizensierungsmöglichkeiten für KI-Training bzw. den Widerspruch gegen solche ermöglichen könnten…
Kurzum, man könnte (und tut es vermutlich gerade auch) ganze Bücher zu dem äußerst unübersichtlichen Thema schreiben. Und die Zahl der Personenstunden, die ExpertInnen seit dem ersten Auftauchen der generativen KI-Modelle im öffentlichen Bewusstsein in entsprechenden Roundtables, Workshops, Panels und Seminaren zugebracht haben, erreicht vermutlich eine ähnliche Größenordnung wie die Arbeitsleistung der theoretischen Teilchenphysiker, die im gleichen Zeitraum an mehrdimensionalen Weltmodellen gefeilt haben, um endlich die Gravitation mit der Quantenmechanik unter einen Hut zu bringen (bislang erfolglos).
Das Bitkom-Paper hingegen entstand offenbar auf einer ganz anderen Erkenntnis-Ebene. Dessen AutorenInnen ziehen das schlichte Fazit:
„Der Gesetzgeber [hat] durch die gesetzlichen Regelungen bereits einen sachgerechten Ausgleich zwischen den Interessen der Urheberinnen und Urheber und den Interessen der Gesellschaft und Industrie an Innovation geschaffen. …. Weitere Transparenzvorschriften, für die etwa gar nicht die Datenstrukturen vorliegen, sind also nicht nur nicht zielführend, sondern auch nicht notwendig.“
Bitkom e.V.
Wer als BildautorIn noch darüber rätselt, wie man zum Beispiel in der Praxis mit den Empfehlungen des umfänglichen Freelens-Leitfadens umgeht, den belehrt das Bitkom-Papier, dass das doch alles ganz einfach ist: Man erkläre schlicht seinen Wunsch, dass Bilder von der eigenen Website nicht zum Zwecke des KI-Trainings erfasst werden sollen in der sogenannten „robots.txt“-Datei, die auf jedem Webserver hinterlegt werden kann. Dort, so geben die Bitkom-Erklärer allerdings zu bedenken, müsse man natürlich sorgsam abwägen, welchen Inhalte-Durchforstern man den Zugang verwehre, denn von Suchmaschinen möchte man in der Regel ja doch ganz gerne gefunden werden (schließlich dient die Website meist dem für Freiberufler lebensnotwendigen Selbstmarketing), Bildabsaugern für KI-Generatoren den Zutritt jedoch versperren.
Wie feingliedrig so eine Liste mit Zugangsberechtigungen („Allow“) und Zutrittsverboten („Disallow“) aussehen kann, zeigt dieses Beispiel der New York Times. Schade, wenn man sich noch nicht damit beschäftigt hat, wer und was konkret hinter Bots mit Namen wie „AwarioSmartBot“ oder „peer39_crawler“ steckt. Hinzu kommt, dass üblicherweise die Entwickler von KI-Systemen nicht unter eigenem Namen das Netz durchforsten, sondern auf Datenbestände zurückgreifen, die andere aufgebaut haben. Ebenfalls ist der Respekt vor einem abweisenden Eintrag in die Roboter-Liste bestenfalls eine Absichtserklärung. In irgendeiner Form bindend ist ein so vorgetragener Wunsch keineswegs.
Aber auch da weiß Bitkom simplen Rat: Die Inhaber von Urheberrechten brauchen ja bloß in die Logfiles ihrer Webserver reinzuschauen. Da gibt es schließlich abertausende von Einträgen, von welchen IP-Adressen aus jemand auf die Website zugegriffen hat. Diese Einträge gleiche man einfach mit möglicherweise irgendwo verfügbaren Listen von IP-Adressen und deren mutmaßlichen Besitzern ab, die möglicherweise irgendwann Datenbanken von Bildern erstellt haben. Findet man dann heraus, dass diese Datenbank später von einem KI-Entwickler genutzt wurde (was die allerdings äußerst selten offenlegen), dann weiß man – schwupps – ob jemand gegen diesen Vorbehalt verstoßen hat:
„[So] können die Webseitenbetreiber die notwendige Transparenz für die Urheber schaffen und auch aufgrund der Transparenzvorschriften im AI Act können diese nachvollziehen, ob ihr Nutzungsvorbehalt respektiert wurde und gegen unrechtmäßige Verwendungen ihres geschützten Werkes vorgehen.“
•
Interessanterweise fand just letzte Woche, am 11. Juli, vor dem Landgericht Hamburg die erste Verhandlung eines seit langem betriebenen Verfahrens gegen den Laion e.V. statt, der eben so eine Datenbank mit Links zu Milliarden von Fotos aus dem Internet pflegt und diese dann beispielsweise der Firma Stability.ai zur Verfügung stellt, die damit ihre bildgenerierenden Diffusionsmodelle trainiert. (Der Fotorat hat dazu schon im April eine Stellungnahme verfasst.)
Urheberrechts-Spezialist Sebastian Deubelli versucht am Beispiel eines Fotos von Robert Kneschke genau gegen so eine nach Ansicht des Fotografen unrechtmäßige Verwendung vorzugehen und verlangt die Löschung des Bilds aus der Laion-Datenbank. Ganz ohne IP-Zugriffslisten und andere aufwändige Spurensuche ist in diesem Fall unstrittig, dass das Bild in der Laion Datenbank enthalten ist. Auch ist klar, dass das Bild von der Website von Bigstock stammt und dort vor etwa drei Jahren erfasst wurde, obwohl die Nutzungsbedingungen der Website solches Tun verboten.
Das Hamburger Gericht ließ in der ersten Verhandlung erkennen, dass es keineswegs in der übersichtlichen Bitkom-Welt agiert, sondern will sich bis zum nächsten Termin im September weiterhin den Kopf über zwei Aspekte zerbrechen: Fällt die Tätigkeit des Laion e.V. unter das sogenannte „Text und Datamining“, erlaubt nach Paragraph 44b des Urhebergesetzes? Und genügte der Vorbehalt des Webseiten-Betreibers schon zum Zeitpunkt der Erfassung der schwammigen Anforderung nach „Maschinenlesbarkeit“.
Je nach Standpunkt sehr oder gar nicht verblüffend sind nämlich dieselben Firmen, die gerade dabei sind, multimodale KI-Systeme zu erschaffen, die aus unstrukturiert zusammengeklaubten Daten jeglicher Art und Provenienz profundes Weltwissen destillieren, nach dem man dann seinen digitalen Assistenten im munteren Plauderton befragen kann, gleichzeitig der Meinung, dass ein Nutzungsvorbehalt nur dann zu erkennen sei, wenn er wie zu Zeiten der Lochkartenprogrammierung und höchst spezifisch kodiert ist.
Ich versuche das mal ganz unjuristisch zusammenzufassen:
Habe ich ein Bild im Flur hängen, das sich Besucher meiner Wohnung ab und zu ansehen und schließe nachts die Haustür ab. Und holt sich jemand aus dem Baumarkt einen dort frei erhältlichen Nachschlüssel vom Typ 44b, um damit eines Nachts die Tür zu öffnen und durch den dunklen Flur zu streifen. Dann ist es ihm überlassen, ob er das Licht anmacht und dabei vielleicht einen Zettel sieht, den ich an die Wand geklebt habe. Hat er den Zettel entdeckt, kann er draufschauen und prüfen, ob in grüner Schrift, Times 12pt, der Satz darauf steht „Tigerkralle_889 darf hier nicht rein“. Wenn er danach das Bild mitnimmt, und ich es drei Jahre später im Wohnzimmer von Herbert finde, und der mir verrät, dass er es von Fred hat, und ich irgendwie feststelle, dass Fred auch auf den Namen „Tigerkralle_889“ hört, dann kann ich zu Fred sagen, dass er das nicht durfte. Dann können wir vor Gericht klären, ob er das Bild nur zu Forschungszwecken mitgenommen hat oder irgendwer damit Geld verdienen wollte. Was das dann allerdings für den Wandschmuck bei Herbert heißt, muss in einem anderen Zusammenhang diskutiert werden.
Viel wäre gewonnen, wenn es einen Standard gäbe, der im robots.txt nicht etwa konkrete Datensauger benennen müsste, sondern beispielsweise erlaubte und verbotene Verwendungszwecke spezifizierte, wie „Suchmaschine“, „KI-Training“, „Statistik“ oder so. Und alle Betreiber solcher Dienste verpflichtet wären, den Zweck ihres Tuns offenzulegen und solche Nutzungsvorbehalte zu respektieren. Gibt es aber eben nicht, und so bleibt der Stand der Dinge weiterhin im Fahrradkette-Stadium juristischer Spitzfindigkeiten. Auch wenn die Bitkom-AutorInnen diesen Zustand dreist in „Transparenz“ umlabeln.
Quelle: KI-generiertes Bild von J. Scriba (DeepDream)
In dieser an Papieren und Studien nicht armen Zeit, mag mancher einen Blick auf die 90-seitige Erhebung „KI und Bildende Kunst – Studie zu Chancen und Risiken“ werfen. Auftraggeber sind die kulturpolitischen Schwergewichte Stiftung Kunstfonds und Initiative Urheberrecht. Das Ziel des Unterfangens wird wie folgt beschrieben: „Zur aktuellen Situation von bildender Kunst und KI liegen bisher keine fundierten Erhebungen vor. Die … Studie möchte in einem ersten Schritt diese Daten und Fakten liefern. Ziel ist es, eine zahlenbasierte Momentaufnahme zur Situation in der bildenden Kunst zu bieten und den aktuellen Diskurs zu Kunst und KI zu ergänzen.“
Die aus den einer beeindruckende Menge online von KünstlerInnen ausgefüllten Fragebögen und in Interviews mit ExpertInnen gewonnenen Erkenntnisse gerinnen in zahlreichen Balken- und Tortengrafiken garniert mit Pfeil-gespickten Schaubildern dann aber zu oft recht unterkomplexen Bulletpoints, wie
„Ein hohes Risiko besteht darin, dass der Markt mit KI-generierten Produkten überschwemmt wird und echte menschliche Kunstwerke an Sichtbarkeit, Auffindbarkeit und Wert verlieren.“
Studie „KI und Bildende Kunst“
Vergeblich sucht man nach einer Definition von „echten menschlichen Kunstwerken“, wundert sich über die vermeintliche Gleichsetzung von Bild/Objekt und Kunstwerk und könnte sich als Fotograf fatal an die Diskussionen über den Wert von Fotografie im Vergleich zu echten handgemalten Portraits erinnert fühlen. Hat die Kunstwelt nicht schon vor vielen Jahren entschieden, dass ein Urinal in der Hand von GWS-Fachkräften keine Kunst ist, sondern nur, wenn es von anerkannt Kunstschaffenden signiert in der richtigen Intention zu solcher geadelt wird?
Für einen lustvollen Verriss der Studie durch einen promovierten Kunstwissenschaftler lese man diesen Essay von Doc Baumann.
„Die in der Studie zum Ausdruck kommenden wirtschaftlichen Ängste sind durchaus nachvollziehbar. Nur die Begründungen sind es nicht.“
Doc Baumann
Freuen wir uns über den „ersten Schritt“ und sehen gespannt der weiteren Diskussion entgegen.
Deutlich beunruhigender als die möglicherweise KI-befeuerte Kunst-Schwemme scheint mir dieses wissenschaftliche Paper von KI-Forschern (viele in Diensten verschiedener Google-Laboratorien) zu sein. Statt öffentlichkeitswirksam vor der Versklavung der Menschheit durch fiese Maschinenhirne zu warnen, untersuchten sie 200 Vorfälle, in denen Menschen mit Hilfe von KI-Werkzeugen Zeitgenossen hinters Licht führten. In der Zusammenfassung warnen die Experten vor einem schleichenden Realitätsverlust als Resultat der verhältnismäßig simpel zu kombinierenden Generatoren:
„Während die Furcht vor ausgeklügelten Angriffen die öffentliche Diskussion beherrscht, zeigen unsere Ergebnisse, dass ein breites Spektrum von Akteuren leicht zugänglichen Missbrauch mit geringem technischem Aufwand betreibt, der oft auf finanziellen oder Reputationsgewinn ausgerichtet ist. Diese Missbräuche sind zwar nicht immer offen böswillig, haben aber weitreichende Folgen für das Vertrauen, die Authentizität und die Integrität von Informationsökosystemen.“
auch in diesem Update kann Adobe nicht fehlen. Die Strategie, die sich zur Verärgerung der Kreativszene in den letzten Monaten ja schon angedeutet hat („Skip the Photoshoot“ und so), kristallisiert sich immer deutlicher heraus: Seine zukünftigen Geschäftsmodelle sieht der Konzern weniger bei den klassischen Bildautoren/Illustratoren/Designern sondern im Bereich der Corporate Publications. Sprich, man richtet sich in einer Welt ein, in der Content-Kunden denselben gleich selbst herstellen.
Schon letztes Jahr haben einzelne von uns (die hoffentlich demnächst an dieser Stelle auch mal aus erster Hand darüber berichten können), Software-Demos von Konsumartikel-Herstellern gesehen, deren KI-Modelle bereits mit den hauseigenen Produkten und Konzernimage-konformen Settings vortrainiert sind. Fortan können alle Beschäftigten die Bedarf an Bildmaterial haben, dieses mit wenigen Klicks auch eigenhändig erzeugen – sagen wir mal Küchengeräte, die von dunkelhäutigen Frauen in bunten Sommerkleidern bedient werden.
Das spart natürlich nicht nur Kosten, sondern auch nervige Besprechungen mit Artdirektoren, Briefings von FotorgrafInnen und GrafikerInnen etc. Neben den unmittelbaren wirtschaftlichen Auswirkungen auf jene, die bisher für das Erzeugen solcher Bilder Rechnungen gestellt haben, wird es sicher auch interessant sein, zu sehen, wie diejenigen innerhalb der Konzernhierarchien mit dem Bedeutungsverlust umgehen, die ihre Position bisher damit rechtfertigten, dass Sie das optische Gehirn solcher Marketing- und Werbeaktivitäten waren, das andere nur technisch umzusetzen hatten.
Hier bahnt sich auch ein technisches Wettrennen mit klassischen Werbeagenturen an, die sich ja schon länger in gute KI-Startpositionen zu bringen versuchen und ihren Kunden zielgenaueres Targeting, schnelleren Turnaround Urheberrechts-Sicherheit versprechen. Es könnte sein, dass das alles nichts nützt, und die Kunden das in Zukunft lieber gleich komplett selbst erledigen.
Wir haben von der Fotorat-Arbeitsgruppe vor zwei Wochen einen ersten virtuellen Workshop mit BildredakteurInnen zum Umgang mit KI-Bildgeneratoren veranstaltet (der auf großes Interesse stieß, und dem wir hoffentlich im Herbst ein öffentliches Nachfolgetreffen folgen lassen werden), in dem auch VertreterInnen des Corporate Publishings saßen. Ohne jetzt schon zu viel zu aus dem vertraulichen ersten Kennenlernen zu verraten: Auch dort bilden sich gewisse Risse zwischen Management-Ebenen, die ganz scharf darauf sind, synthetische Bilder möglichst flächendeckend einzusetzen und BildredakteurInnen, die sich als Spielverderber gebrandmarkt sehen, wenn sie fragen, warum man sich etwa mit Durchschnittsgeneraten von Tomaten zufrieden geben sollte, wenn man liebevoll fotografiertes Gemüse zuhauf in den Bilddatenbanken liegen hat.
Aber ich wollte ja eigentlich von Adobe sprechen. Dort werden jetzt offenbar verstärkt KI-Module schlichtweg überall eingebaut, wo es die Büro-Kundschaft brauchen könnte. Dafür gibt es „Adobe Express“, eine Design-Suite die speziell auf die BewohnerInnen von Großraumbüros zugeschnitten ist, und es ermöglich „tausende von Inhalten in Minuten statt in Monaten bereitzustellen.“
Hier gibt es ein Video von Adobe, das zum „Design made Easy“-Event Mitte Juni produziert wurde:
Quelle: Adobe
„Das neue Adobe Express wurde für Unternehmen entwickelt und macht es jedem in einem Unternehmen leicht, markengerechte visuelle Inhalte zu entwerfen, die die Geschäftsergebnisse fördern.“
David Wadhwani, president Adobe Digital Media Business
Auf der Veranstaltung wurde auch eine Partnerschaft mit Microsoft bekanntgegeben: Eine Adobe-Express-Erweiterung für Microsoft Copilot beamt Adobes generierte Bilder direkt in die Büro-Software der Microsoft-365-Suite.
„Diese Zusammenarbeit wird es Unternehmen ermöglichen, nahtlos hochwertige, markengerechte Inhalte direkt in der Microsoft 365-Umgebung zu erstellen und so die Produktivität und Kreativität in verschiedenen Unternehmensanwendungen zu steigern.“
Rob Howard, Vice President of Microsoft 365 developer platforms
So könne man in Zukunft gleich ganze Prompt-Batterien in Form von Exceltabelle zum Generator schicken und bekommt das Bildmaterial postwendend angeliefert.
Ganz folgerichtig kündigt Adobe an, die Bilderzeugungsfunktionen seiner „Firefly“-Modelle auch direkt in die Profi-Versionen seines pdf-Editors „Acrobat“ zu implantieren (nicht zu verwechseln mit dem kostenlosen Acrobat Reader). Das Universaltool typischer Angestellter in jenen Bergwerken, in denen aus Geschäftszahlen und Verkaufsstatistiken bunte Berichte für diverse Exekutivebenen entstehen, kann künftig auch also auch vorhandene Bilder generativ erweitern und neu zuschneiden, ungewollte Objekte in diesen entfernen oder ersetzen, oder gleich ganz neue Bilderwelten in das Dokument hineinerfinden.
Die Kollegen von Docma haben das hier ein wenig erläutert.
Etwa gleichplatziert auf der Hitliste der Stirnrunzelerzeuger mit Adobe steht weiterhin OpenAI. Deren oberste Technologin Mira Murati hatte sich unlängst mächtig in die Nesseln gesetzt, als sie sich mit leicht entgleisten Gesichtszügen um eine Antwort auf die Frage drückte, ob sich die Firma zum Training des spektakulären Videogenerators Sora auch Youtube-Videos einverleibt habe.
Nun erschien sie zu einem längerem Gespräch an ihrer ehemaligen Uni Dartmouth Engineering und erläuterte mit nerdig gedrosselter Empathie ihre Einschätzung, wie die KI-Produkte wohl zukünftig das Geschäfts- und Erwerbsleben beeinflussen werden. Es ist ganz interessant sich das mal in längeren Passagen anzusehen, auch in den Reaktionen auf die Fragen der StudentInnen, in denen sie sich noch einmal erstaunt darüber zeigte, dass manche Zuhörende nach der Premiere von ChatGPT 4o den „subjektiven Eindruck“ hatten, die KI-Stimme könnte von Scarlett Johansson abgekupfert worden sein. Beschränken wir uns darauf das in der Folge am berühmtesten gewordene Zitat der Veranstaltung aus dem Zusammenhang zu reißen:
Quelle: Youtube / Darmouth Engineering
„Einige kreative Arbeitsplätze werden vielleicht wegfallen, aber vielleicht hätten sie gar nicht erst entstehen sollen.“
OpenAI CTO Mira Murati
Man könnte den Eindruck haben, dass die Erzeugung von fotorealistischen Bildern inzwischen schon fast langweilig wird und Verbesserungen an den Modellen nur noch routinierte Randnotizen wert sind. Bemerkenswert rasant verläuft dagegen die Frequenz der Veröffentlichung neuer Video-Generatoren. Gerade noch rieb sich die Welt staunend die Augen als OpenAI die Previews von Sora zeigte, und noch immer dreht das Modell Testrunden mit ausgewählten und speziell qualifizierten Usern, bevor es irgendwann – mutmaßlich noch dieses Jahr – auch Normalnutzenden zur Verfügung stehen wird, da gibt es schon mehrere Newcomer, die ganz ohne Wartezeiten ähnliche Ergebnisse der Text-to-Video-Konversion versprechen.
Daneben gibt es diverse eingeschränkte Generatoren, die z.B. Avatare animieren oder Leute aus hochgeladenen Videoschnipseln clonen, um damit ContentcreatorInnen auch noch das lästige Posieren vor der Kamera abzunehmen.
TikTok baut so eine Funktion direkt in seine App ein und stellt mit seinem „Symphony Creative Studio“ täuschend echt wirkende Allerweltsmenschen in unglamourösen Umgebungen zur Verfügungen, denen man beliebige Botschaften in den virtuellen Mund legen kann.
Quelle: TikTok
TikTok preist das Tool vor allem für Werbetreibende an, die so ohne größeren Aufwand ihre Botschaften im Influencer-Look unter die Leute bringen können.
CNN gab sich besonders investigativ und fand geschockt heraus, dass man die Avatare auch Passagen aus Hitlers Hetzschrift „Mein Kampf“ rezitieren lassen kann.
Ach gar…
Quelle: CNN.com
TikTok begründete den Lapsus mit einem technischen Versehen, durch das eine eigentlich nur interne verwendete Testversion auch externen Nutzern zugänglich gemacht worden sei.
Nicht dass ich dafür wäre, der Jugend faschistoide Wahngedanken zu verkünden (das tun ja leider inzwischen schon ein paar gewählte Parlamentarier auch ohne KI). Aber ähnlich wie bei der amerikanischen Empörung darüber, dass jüngst eine Version des Google-Bildgerators im Bemühen die Vorgaben der Programmierer nach mehr Diversität und dem Vermeiden von Stereotypen über das Ziel hinausgeschossen war und Bilder von dunkelhäutigen Menschen in SS-Uniformen erzeugt hatte, wird sich auch hier bei aller Erregung der Traum von ethisch einwandfreien und politisch korrekten KI-Modellen nicht erfüllen lassen. Dafür müssten die Generatoren nun einmal tatsächlich irgend ein Verständnis davon haben, was sie inhaltlich von sich geben, und die Liste der verbotenen Begriffe müsste je nach Kontext und Adressat so granular feingliedrig ausbuchstabierbar sein, das zum Schluss auch politische/weltanschauliche Empfindlichkeiten berücksichtigt werden, etwa bei der Frage, welchen staatlichen Status Taiwan hat, oder wo das Volk der Kurden beheimatet ist. Statt bei jeder aufgedeckten Entgleisung der Generatoren zu versuchen, die Zensurregeln nachzubessern, wird es Zeit, sich über das Umfeld von deren Einsatz Gedanken zu machen.
Die Washington Post fand derweil heraus, dass viele aktuellen Sprachmodelle nicht in der Lage sind, eindeutig auf die Frage zu antworten, wer die US-Präsidentenwahl des Jahres 2020 gewonnen hat. Amazons Alexa habe Donald Trump für wahrscheinlich gehalten. Googles Gemini gab zurück „Ich lerne noch diese Frage zu beantworten“, und Microsofts Copilot erklärte „Scheint so, als könne ich zu diesem Thema nichts sagen.“
Auch der Spiegel hat ähnliche Experimente im Vorfeld der Europawahl gemacht und traf ebenfalls auf ein Gemisch von halbgaren Quasi-Informationen und vorsorglichen Auskunftblockaden.
Die Versuche von Instagramm, KI-generierte Bilder automatisch als solche kenntlich zu machen, müssen wohl einstweilen als gescheitert gelten. Immer öfter haben sich in den letzten Wochen seit der Einführung des Features NutzerInnen darüber beklagt, dass gänzlich unmanipulierte Fotos mit dem „Made with KI“-Logo verunglimpft wurden. Petapixel hat hier zusammengetragen, welche Werkzeuge der Bildbearbeitung vermutlich zu dieser Einstufung führen können.
Quelle: Petapixel.com / Instagram
So triggert wohl das Enfernen von Sensordreck mittels generativem Fill die Warnung, auch wenn der simple Pixel-Stempel im Ergebnis nichts anderes macht. Das mag vom Prinzip her konsequent sein, doch scheint das Entfernen kompletter Bildelemente in Lightroom kein KI-Kainsmal hervorzurufen. Der Pressefotograf Pete Souza fand hingegen das KI-Label auf einem Scan seines 40 Jahre alten Schwarzweißfotos eines Basketballspiels.
Meta, die Mutter von Instagram und Facebook hat nun erstmals Stellung zu den Problemen bezogen und verspricht, den Ansatz zu „überdenken“.