ist das alle KI Modelle auf gestohlenen Daten/Bildern beruhen.
Das stimmt so nicht. Es gibt einige LLMs, die nur mit open source Quellen trainiert wurden. Adobe (siehe oben) gibt sogar die Garantie, dass nur copyright freie Quellen verwendet werden.
Deine Aussage trifft allerdings auf die üblichen Verdächtigen zu. Nur kaum ein Kreativer wird diese für seine Arbeit verwenden.
Ich will jetzt nicht kleinlich sein, aber Large Language Models sind nur ein Subset Generativer KI und Sprach fokussiert.
Adobe tat sich mit der Creative Cloud und Adobe Stock Image Datenbank wahrscheinlich leichter als andere.
Aber die Schmähs mit kleingedruckten Klauseln in TOS und Eula’s mit dem du Nutzung implizit zustimmst, Opt Out statt Opt In, …. kennen wir alle.
Und was du einmal in ein Model rein gefüttert hast bleibt drin und es ist schwer bis unmöglich zu beweisen was rein gefüttert wurde, außer es taucht ein verräterisches Bildartefakt (z.b. ein Watermark im generierten Output auf.
So gut wie alle generativen KI’s können Bilder von kopiergeschützten Figuren und Werken erzeugen.
Komisch wieso sie das können, obwohl sie doch angeblich nicht mit solchem Trainingsmaterial gefüttert wurden…. 🤪
So viel Copyright freies Material um alle Models zu erklären gibt’s gar nicht (Rechte sind Länderspezifisch bei uns läuft der Schutz auf Fotos und Bilder bis 70 Jahre nach dem Tod des Urhebers).
Meta versucht die Piraterie gar nicht erst großartig geheim zu halten, Lizenzierung wäre zu aufwendig, zeitintensiv und zu teuer, die nehmen potentielle Rechtsstreitigkeiten billigend in Kauf, klag mal so einen Konzern….
Von StableDiffusion und anderen generativen Konsorten, ChatGPT, DeepSeek und vielen anderen LLMs gibts auch keinen Zweifel das da nix oder so gut wie nix lizenziert wurde sondern alles was irgendwie zugänglich war/ist abgegrast wird/wurde.
Zugeben tut das von denen aber auch keiner, da wird abgestritten auf Teufel komm raus.
Insofern würd ich auch für Adobe nicht meine Hand ins Feuer legen.
Aber eigentlich will ich gar nicht diesen Thread kapern.