Update: Artikel auf heise zum Thema:
https://www.heise.de/meinung/KI-Generat ... 26226.html
Ich glaube ich bin immer pessimistischer was die Lösbarkeit des Problems angeht. Man könnte natürlich generatives ML komplett verbieten, aber die Erfahrung zeigt ja, dass sowas noch nie funktioniert hat (Radiomusik wurde auf Kassetten aufgenommen, sowas hat man dann mit der heutzutage komplett albernen Pauschalabgabe versucht zu lösen, etc. ihr kennt die Geschichte).
Gleich mehrere Probleme:
- Kann man beweisen, dass ein Bild oder ein Sprachgenerator mit bestimmten Daten trainiert wurde? Bei traditionellen Kopien ist das leicht, das Werk gab es vorher schon und man kann es vergleichen. Bei Trainingsdaten ist das quasi unmöglich, insbesondere wenn man keinen direkten Zugang zum Netzwerk hat.
- Was ist der Unterschied zwischen Inspiration und Kopie? Wenn ein Maler gerne rote Kreise als Stilmittel einbaut, dann ist das irgendwo eine triviale Information. Man muss seine Bilder nichtmal gesehen haben um den Stil imitieren zu können. Aber ab wann ist ein Stil dann eigentlich ein Stil?
Früher musste man zudem noch "von Hand" malen, da gab es keine exakte Kopie von Stilen, das Kodieren von Stilen selber ist ja erst ein Nebenprodukt von ML. Früher konnte man also höchstens einen Stil imitieren, heute kann man ihn "exakt" kopieren (für eine merkwürdige Definition von "exakt", e.g. irgendein ML Feature Vektor)
- Wenn man Stile beliebig mischen kann, und überhaupt frei zwischen Bildern etc. interpolieren kann, dann macht es kaum mehr Sinn über eine notwendige Neuartigkeit eines abgeleiteten Kunstwerks zu reden. Ziemlich ähnliche Werke müssten ja prinzipiell erlaubt sein, sonst hat der erste Autor quasi ein Patent auf einen ganzen Cluster an Kunstwerken, aber dann kann man einfach ein Epsilon unter dieser Ähnlichkeit bleiben (per Schieberegler). Mal ganz davon abgesehen, das man "Ähnlichkeit" sowieso kaum sinnvoll messen kann.
- Wenn ML Werke keinen Schutz genießen, aber oft nicht direkt von menschlichen Werken unterscheidbar sind, wie funktioniert in der Praxis der Nachweis, dass du dein Werk selber erstellt hast? (
https://news.artnet.com/art-world/artis ... rt-2240795).
- Wo setzt man überhaupt die Grenze zu "ML generiert"? Eine Texteingabe in ein Bild umwandeln ist nicht kreativ genug, die Texteingabe mit einem zusätzlichen Bild für die grobe Struktur der Ausgabe anzureichern (wie man es bei Stable Diffusion z.B. tun kann), reicht auch noch nicht, aber ein ML Entrauschungsfilter zählt offensichtlich noch als Handarbeit. In ein paar Jahren sind die Grenzen komplett zerflossen, wie will man da überhaupt noch sinnvoll Handarbeit von Generiert unterscheiden?
Das sind alles irgendwie sehr prinzipielle Probleme, wo keine Art von neuem Gesetz sinnvoll erscheint. Wenn es keinen Kompromiss geben kann, dann bleibt nur noch ML komplett zu verbieten (siehe oben), oder das Urheberrecht komplett abzuschaffen. Was beides gleich albern klingt...
Und zum Schluss noch ein ganz anderer Punkt: Kunst ist ja eine Art von Kommunikation, jemand drückt seine persönlichen Gefühle und Erfahrungen in einem Werk aus, und wenn ich es betrachte, bin ich auf eine gewisse Art mit dem Künstler verbunden. Ich kann es ein stückweit nachempfinden. Aus diesem Grund würde ich mich betrogen fühlen, wenn KI Kunst als menschliche Kunst angepriesen wird. Ich könnte heute schon in ein Museum gehen und den ganzen Tag darin rumlaufen und Eindrücke sammeln und alles wäre eine Lüge, denn alles war nur generiert und nicht echt. Es gab nie einen Künstler. Das menschliche geht verloren, es ist nur noch eine stumpfe, mechanische Triebbefriedigung, es ist die Vorstufe zu "Ich bleib in meiner dreckigen Wohnung sitzen und spritz mir Endorphine, anstatt raus zu gehen und echten Spaß zu haben". Dafür bin ich doch nicht am leben. Ich will meine Zeit nicht mit generiertem Quatsch vergeuden.