Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>Adobe Firefly: Wer hat Erfahrung mit KI-generierten Ambientebildern?

Adobe Firefly: Wer hat Erfahrung mit KI-generierten Ambientebildern?

sonorman
sonorman21.08.2511:55
Hi Forum.

Ich würde gerne für eine meiner anderen Tätigkeiten KI-Tools verwenden, um für "nackte" Produktfotos hübsche Hintergründe und fotorealistische Ambiente-Umgebungen zu erzeugen. Ich habe dafür Adobe Firefly in Photoshop zur Verfügung. Meine bisherigen Experimente damit waren aber extrem enttäuschend.

Nur ein Beispiel: Ich habe ein Studiofoto von einem Lautsprecher, freigestellt ohne Hintergrund. Nun möchte ich im Idealfall das Produkt per KI in einen Wohnraum integrieren, so wie man es von vielen Herstellen heutzutage schon kennt. Nur gelingt mir das nicht. Alles, was dabei rauskommt, sieht total künstlich und perspektivisch unrealistisch aus. Daher die Frage: geht das mit Firefly überhaupt nicht? Und wenn nicht, welche Tools kann man dafür verwenden, die überzeugende Ergebnisse liefern?



In diesem Beispiel lag ein Foto des Lautsprechers in diesem Winkel vor. In etlichen Versuchen mit Firefly, war das das beste Ergebnis. Aber wenn ich zum Beispiel per Text-Prompt verfeinern möchte und beispielsweise sage, dass die Rückwand weiter zurück soll, oder dass da ein schönes Bild hängen soll, kommt eigentlich nur Mist raus. Und die Bäume draußen sehen auch total künstlich aus.

Was mit Firefly sehr gut funktioniert, ist das generative Erweitern von Umgebungen. Das nutze ich oft. Aber eine Ambienteumgebung passend für ein freigestelltes Produktfoto zu erzeugen, haut nicht hin.

Wer von Euch hat damit Erfahrung und kann Tipps geben?
+2

Kommentare

breaker
breaker21.08.2512:58
Im Generieren von "ganz neuen" Inhalten ist Firefly tatsächlich auch nicht so sehr mein Favorit, fürs Erweitern oder Retuschieren aber super. Für den ersten Schritt, also das Generieren von neuen Welten, nutzen wir hier meist Midjourney. Wenn das Setting dann gut passt, wird die weitere Bearbeitung in PS/Firefly gemacht (also beispielsweise, dass an die Wand noch ein Bild kommt oder eine Blume auf den Tisch). Wichtig: Die von MJ generierten Bilder sind nicht all zu hochauflösend... (für Web und A5 bis A4-Printprojekte aber ausreichend).

Wobei du auch mit MJ so einen gewissen Touch haben wirst, dass es nicht ganz realistisch aussehen wird (je nach prompt). Also die Bäume oben, würden auch so von MJ erzeugt. Ja, sehen künstlich aus, aber find ich noch halbwegs okay. Wenn du komplett realistisch sein möchtest, kommst du um echte Bilder vermutlich nicht herum. Und vermutlich wird es recht viele Versuche benötigen, bis du in MJ den passenden Winkel für die Boxen da oben bekommen wirst, da du in MJ kein Basisbild reinladen kannst, an dem sich alles orientiert.
+1
Moranai
Moranai21.08.2513:21
Ich habe ChatGPT genutzt um einen passenden Teppich fürs Kinderzimmer zu finden. Die Resultate waren zwar nicht immer top aber das ein oder andere Bild sahen ganz gut aus. Hier hat ChatGPT 2 Fotos kombiniert. Einen Versuch könntest du ja wagen
0
sonorman
sonorman21.08.2513:30
Eine Kollegin von mir nutzt Midjourney. Aber sie ist damit auch nicht wirklich zufrieden, weil die Probleme die Selben sind. Man kann nicht einfach sagen: nimm dieses Lautsprecherbild und generieren einen passenden Wohnraum dazu.

Vorhin haben wir noch ein Experiment gemacht. Die Kollegin hat einen exakt frontal fotografieren Lautsprecher genommen (also perspektivisch ganz simpel) und hat in so einem Plug-In für ChatGPT (Namen vergessen) einen Raum erzeugen lassen. Auf den ersten kurzen Blick sah das fantastisch aus, aber bei genauerem Hinsehen kamen dann die Probleme zum Vorschein. So hat die KI den Maßstab des Lautsprechers völlig übertrieben. Sah aus wie ein Vier-Meter-Turm. Ein Prompt mit dem Hinweis, dass der Speaker nur 1,3 Meter hoch ist, brachte kaum eine Verbesserung. Außerdem hat die KI das Foto des Lautsprechers verändert, sodass beispielsweise das Logo nicht mehr erkennbar war und die Chassis komisch aussahen.

Ist also auch noch nicht der wahre Jakob.
0
Oceanbeat
Oceanbeat21.08.2513:43
Wenn es 3D Modelle wären, würde ich die Adobe Substance Suite in Erwägung ziehen. Ist hier leider nicht gegeben…
„Wenn das Universum expandiert, werden wir dann alle dicker...?“
0
sonorman
sonorman21.08.2513:51
Oceanbeat
Wenn es 3D Modelle wären, würde ich die Adobe Substance Suite in Erwägung ziehen. Ist hier leider nicht gegeben…
Ja, eines der Hauptprobleme ist tatsächlich, dass die Produktfotos meist nur zweidimensional mit bestimmten Aufnahmewinkeln vorliegen, für die von der KI eine passende Perspektive generiert werden müsste. Ich befürchte, so weit sind die KIs einfach noch nicht, um das sauber hinzubekommen.
0

Kommentieren

Sie müssen sich einloggen, um sich an einer Diskussion beteiligen zu können.