Photoshop 2026: Generative Fill/Expand bez wpadek — 7 zasad, by nie łamać perspektywy

Praktyczny poradnik Generative Fill/Expand w Photoshopie 2026: 7 zasad, workflow perspektywy i światła, prompty, iteracje, maskowanie oraz checklista, by uniknąć efektu „AI”.
19 kwietnia 2026
blog

1. Wprowadzenie: czym jest Generative Fill/Expand w Photoshopie 2026 i gdzie najłatwiej o błędy

Generative Fill i Generative Expand w Photoshopie 2026 to narzędzia oparte na generowaniu obrazu, które pozwalają dopiszać wiarygodne fragmenty sceny na podstawie zaznaczenia i kontekstu otaczających pikseli. W praktyce oznacza to szybkie uzupełnianie braków (np. tła, krawędzi kadru, elementów scenografii) lub rozszerzanie płótna tak, by kadr „oddychał” bez ręcznego klonowania i skomplikowanego fotomontażu.

Różnica w skrócie: Generative Fill działa głównie w obrębie zaznaczenia i służy do dodawania/zmiany fragmentu obrazu, a Generative Expand jest nastawione na rozszerzanie kadru poza aktualne granice płótna i dopasowanie nowej przestrzeni do istniejącej sceny. Oba narzędzia są świetne do pracy koncepcyjnej i produkcyjnej, ale ich skuteczność zależy od tego, czy wygenerowany fragment będzie spójny z tym, co już jest w kadrze.

Najczęstsze „wpadki” nie wynikają z samej jakości generowania, tylko z tego, że model nie ma pewności co do geometrii sceny i musi zgadywać. Gdy obraz zawiera mocne wskazówki perspektywy (architektura, wnętrza, ulice, meble), nawet drobna niezgodność sprawia, że efekt wygląda nienaturalnie.

  • Łamana perspektywa – linie proste zaczynają „płynąć”, zbiegi nie spotykają się w tych samych punktach, a elementy architektury tracą logikę konstrukcji.
  • Błędna skala i proporcje – obiekty w tle są za duże, elementy przy krawędzi kadru zmieniają rozmiar, a powtarzalne detale (cegły, deski, płytki) przestają trzymać wymiar.
  • Niespójne światło i cień – nowo wygenerowane fragmenty mają inną stronę światła, twardość cieni albo kontrast niż reszta zdjęcia, przez co „doklejka” odcina się od sceny.
  • Różnice w materiale i fakturze – generowany fragment ma inną ziarnistość, ostrość, rodzaj szumu, kompresję lub charakter powierzchni (np. inny rodzaj tynku, drewna, asfaltu).
  • Artefakty na granicach – widoczne szwy, powtórzenia wzoru, dziwne przejścia tonalne lub „przypadkowe” obiekty, które pojawiają się tam, gdzie narzędzie próbowało domknąć kontekst.
  • Mylenie semantyki sceny – model dopowiada elementy, które „pasują tematycznie”, ale nie pasują do miejsca (np. dodatkowe okna, nieistniejące słupy, zniekształcone detale konstrukcyjne).

Warto myśleć o Generative Fill/Expand jak o bardzo szybkim asystencie od rekonstrukcji i rozbudowy kadru: potrafi dużo, ale łatwo wprowadza subtelne błędy, jeśli nie dostanie jasnych wskazówek wynikających z kompozycji i geometrii zdjęcia. Szczególnie ryzykowne są obszary z prostymi krawędziami, powtarzalnymi wzorami oraz wyraźnym horyzontem — tam oko najszybciej wyłapuje niezgodności.

2. 7 zasad bezpiecznego Generative Fill/Expand

Generative Fill i Generative Expand potrafią szybko dopowiedzieć brakujący kadr, usunąć element albo „dorysować” tło. Najczęstsze wpadki pojawiają się wtedy, gdy generowany fragment nie respektuje perspektywy, skali, kierunku światła lub gdy materiały i faktury zaczynają żyć własnym życiem. Podczas szkoleń Cognity ten temat wraca regularnie – dlatego zdecydowaliśmy się go omówić również tutaj. Poniższe zasady pomagają utrzymać realizm i spójność bez wchodzenia jeszcze w techniczne szczegóły workflow.

  • 1) Zablokuj perspektywę jako priorytet

    Traktuj perspektywę jak „szkielet” obrazu: linie zbiegu, horyzont i kąty krawędzi muszą się zgadzać, bo to najszybciej zdradza manipulację. Jeśli scena ma architekturę, wnętrze, ulice, meble lub cokolwiek z prostymi liniami, najpierw pilnuj, by generowane elementy kontynuowały te same kierunki i zbiegi.

  • 2) Kontroluj skalę względem punktów odniesienia

    Generowanie potrafi tworzyć obiekty „prawie” w dobrej wielkości, ale ten „prawie” widać od razu (np. zbyt duże cegły, za małe okna, nielogiczna szerokość desek). Zawsze porównuj nowy fragment do elementów, których rozmiar jest intuicyjny: drzwi, stopnie, fugi, faktura tynku, ziarno asfaltu, wysokość krawężnika.

  • 3) Ustal jeden kierunek i charakter światła

    To nie tylko „skąd świeci”. Liczy się też twardość (ostre vs miękkie cienie), wysokość źródła, a nawet to, czy światło jest bezpośrednie czy rozproszone. Jeśli generowany fragment ma inny typ cieni lub inny kontrast niż reszta, będzie wyglądał jak wklejka — nawet przy poprawnej perspektywie.

  • 4) Dopilnuj temperatury barwowej i dominanty sceny

    Nawet dobrze oświetlony element może „odstawać” kolorystycznie. W praktyce problemem jest różnica w ociepleniu/ochłodzeniu, inna dominanta (np. zielonkawa w cieniu, żółta od lamp) albo inne nasycenie. Generuj z myślą o tym, by nowy fragment przejął kolorystyczny charakter zdjęcia, a nie wnosił własny „preset”.

  • 5) Wymuś spójność materiałów i mikrodetali

    AI ma tendencję do tworzenia faktur, które są wiarygodne lokalnie, ale niespójne globalnie: inne ziarno drewna, losowe pęknięcia w betonie, zmieniająca się gęstość trawy, „nowa” odmiana kostki brukowej. Pilnuj, by materiał miał tę samą logikę: powtarzalność, kierunek włókien, rytm elementów, typ zużycia i stopień zabrudzeń.

  • 6) Unikaj „magicznych” krawędzi i zbyt idealnych przejść

    Najczęstsza wpadka przy Expand/Fill to granica, która jest albo zbyt czysta, albo zbyt chaotyczna. Realne zdjęcia mają naturalne przejścia: delikatny spadek ostrości, szum, subtelne winietowanie, drobne niedoskonałości. Generuj tak, by nowy fragment nie tworzył nienaturalnej „ramki jakości” wokół miejsca edycji.

  • 7) Zachowaj logikę sceny i geometrię obiektów

    Nawet jeśli wszystko wygląda „ładnie”, scena musi mieć sens: drzewa nie mogą rosnąć z dachu, poręcz powinna łączyć się konstrukcyjnie, a wzory nie mogą nagle zmieniać kierunku bez powodu. Szczególnie uważaj na elementy, które mózg szybko weryfikuje: schody, balustrady, krawędzie blatów, koła, okna, litery i regularne wzory.

Jeśli trzymasz się tych siedmiu zasad, Generative Fill/Expand staje się narzędziem do wiarygodnego uzupełniania kadru, a nie generatoriem „prawie poprawnych” fragmentów, które psują realizm zdjęcia.

3. Workflow krok po kroku: przygotowanie pliku i selekcji (marginesy, feather, kontekst)

Większość „wpadek” w Generative Fill/Expand bierze się nie z promptu, tylko z nieprzygotowanego pliku i źle zrobionej selekcji. Na tym etapie chodzi o to, by AI dostało czytelny kontekst, miejsce na „oddech” oraz krawędzie, które da się naturalnie połączyć z istniejącą fotografią.

3.1. Szybki wybór: Generative Expand vs Generative Fill

W przygotowaniu pliku różni się głównie punkt startu: Expand zaczyna od powiększenia kadru, Fill od selekcji w obrębie istniejącego płótna. Zanim przejdziesz dalej, zdecyduj, czego potrzebujesz.

CelLepsze narzędzieCo przygotować w pliku
Dodanie przestrzeni poza kadrem (np. więcej tła)Generative ExpandPowiększ płótno i zaplanuj margines wokół obiektu
Uzupełnienie braków/wymazanie elementu w kadrzeGenerative FillSelekcja z zapasem + kontrola krawędzi (feather)

3.2. Przygotowanie pliku: zanim cokolwiek wygenerujesz

  • Pracuj na kopii: zduplikuj warstwę bazową lub zrób snapshot w historii. Generowanie jest szybkie, ale powrót do „czystej” bazy oszczędza czas.
  • Ustal docelowy kadr: jeśli wiesz, że obraz ma trafić np. do banera, ustaw odpowiednie proporcje i dopiero wtedy generuj. Unikasz sytuacji, w której AI tworzy detale, które później i tak utniesz.
  • Zadbaj o czystość wejścia: usuń widoczne śmieci typu pojedyncze hot pixele, przypadkowe pyłki czy mocno kompresyjne artefakty w obszarze, który będzie stanowił kontekst. AI lubi je „kontynuować”.
  • Warstwy i tryby mieszania: jeśli masz złożony dokument, rozważ pracę na „spłaszczonej” kopii (np. zduplikowany smart object) jako stabilnym podkładzie do generowania. Minimalizujesz ryzyko, że drobne różnice między warstwami popsują łączenie.

3.3. Marginesy: ile „zapasu” dać selekcji i dlaczego

Najczęstszy błąd to selekcja „na styk”. Generative Fill/Expand potrzebuje miejsca, żeby dopasować teksturę, szum i przejścia tonalne. W praktyce lepiej selekcjonować trochę więcej i później odzyskać krawędź maską, niż odwrotnie.

  • Uzupełnianie braków w tle: selekcja obejmująca brakujący fragment + niewielki pas istniejącego tła dookoła (żeby AI miało próbkę).
  • Rozszerzanie kadru: po powiększeniu płótna zaznacz nową przestrzeń z wejściem na stary obraz (cienki margines zachodzący na istniejące piksele pomaga w płynnym połączeniu).
  • Usuwanie obiektu: zaznacz obiekt i dodaj zapas naokoło, aby AI mogło „przerobić” okolice (cień, odbicia, fakturę podłoża).

3.4. Feather i krawędzie: jak uniknąć „wklejki”

Źle ustawione krawędzie selekcji dają typowy efekt: ostry ring, nienaturalny zarys lub „glut” na granicy. Celem jest krawędź, którą da się wymieszać z otoczeniem.

  • Miękka krawędź (delikatny feather) pomaga, gdy łączysz gładkie przejścia: niebo, ściany, rozmyte tła.
  • Twardsza krawędź (mały lub zerowy feather) bywa lepsza przy krawędziach technicznych: architektura, produkt packshot, typografia w tle — ale wtedy kluczowy staje się margines i późniejsze maskowanie.
  • Unikaj „pofalowanych” selekcji: nierówna krawędź z przypadkowych kliknięć może zostać zinterpretowana jako detal do kontynuacji.

Jeśli pracujesz na trudnym brzegu (np. włosy, roślinność), nie próbuj na siłę selekcjonować każdego włoska. Często lepszy jest szerszy, prostszy wybór i dopracowanie przejścia na masce po wygenerowaniu.

3.5. Kontekst: co AI ma „widzieć” i jak to kontrolować

Generowanie jest tak dobre, jak informacja wejściowa. Kontekst to nie tylko to, co zaznaczasz, ale też co znajduje się tuż obok oraz jakie wzory AI może uznać za regułę (tekstura, kierunek gradientu, rytm detali).

  • Nie odcinaj ważnych wskazówek: jeśli generujesz fragment podłogi, zostaw w kontekście kawałek istniejącej podłogi z jej fakturą i szumem.
  • Usuń „mylące” elementy w pobliżu, jeśli nie chcesz, by AI je powielało (np. przypadkowe napisy, znaki wodne, refleksy z lamp).
  • Kontroluj powtarzalność: przy wzorach (kostka brukowa, cegła, panele) AI lubi kopiować rytm. Daj mu czytelny fragment wzoru w kontekście, ale nie zmuszaj do dopasowania na granicy poprzez zbyt wąską selekcję.

3.6. Minimalna checklista przed kliknięciem „Generate”

  • Czy dokument ma właściwe proporcje/docelowy kadr?
  • Czy pracujesz na kopii warstwy lub w bezpiecznej wersji pliku?
  • Czy selekcja ma zapas i zawiera fragment kontekstu do dopasowania?
  • Czy krawędź selekcji jest logiczna (feather adekwatny do sceny)?
  • Czy w kontekście nie ma elementów, których nie chcesz „rozmnożyć”?

4. Workflow: perspektywa i geometria (prowadnice, linie zbiegu, kontrola skali i horyzontu)

Najwięcej „wpadek” w Generative Fill/Expand wynika nie z jakości detalu, tylko z rozjechanej geometrii: horyzont przesunięty o kilka pikseli, linie zbiegu, które nagle zmieniają kierunek, albo obiekty o poprawnej fakturze, ale złej skali. Dlatego zanim wygenerujesz cokolwiek, potraktuj kadr jak prostą konstrukcję 3D: ustal horyzont, punkty zbiegu i skalę odniesienia, a dopiero potem „doklejaj” świat.

Zespół trenerski Cognity zauważa, że właśnie ten aspekt sprawia uczestnikom najwięcej trudności: oko szybko wybacza drobne niedoskonałości faktury, ale niemal natychmiast wyłapuje złamaną perspektywę.

4.1. Ustal geometrię sceny: horyzont i typ perspektywy

  • Horyzont (linia oczu): znajdź go po seriach równoległych krawędzi (krawężnik, listwy, linie na jezdni, półki). Jeśli generujesz rozszerzenie tła, horyzont musi pozostać spójny w całym obrazie.
  • Perspektywa 1-, 2- lub 3-punktowa: szybko oceń, czy dominują linie uciekające w jeden punkt (korytarz), dwa (narożnik budynku), czy dochodzi trzeci punkt (wysokie obiekty z „uciekającymi” pionami).
  • Piony i poziomy: zdecyduj, czy obraz ma zachować „architektoniczną” pionowość (proste piony), czy naturalny przechył z aparatu (piony zbiegają się). Mieszanie tych dwóch podejść w obrębie jednego kadru jest częstym źródłem sztuczności.

4.2. Prowadnice i linie zbiegu jako „szyny” dla generacji

Użyj prostych narzędzi pomocniczych, które nie ingerują w piksele, ale narzucają dyscyplinę:

  • Rulers/Guides (linijki i prowadnice): ustaw prowadnice po kluczowych krawędziach (podłoga, krawędzie budynku, linia stołu). To najszybszy sposób, by złapać kierunki dominujące.
  • Guide Layout / siatka: przydatne w kadrach produktowych i wnętrzach, gdzie łatwo porównać proporcje i odchyłki.
  • Vanishing Point (Punkt zbiegu): gdy scena ma wyraźną płaszczyznę (ściana, podłoga), zdefiniuj ją jako referencję. Nawet jeśli generujesz „poza” płaszczyzną, łatwiej kontrolujesz, czy nowe elementy nie łamią kierunku.
  • Path/Line overlay: czasem wystarczy prosta warstwa z narysowanymi liniami (np. piórem) wyznaczającymi zbiegi; to szybka kontrola „czy to jeszcze trzyma geometrię”.

4.3. Kontrola skali: jeden obiekt referencyjny i konsekwencja

Generacja lubi „pompować” lub „kurczyć” elementy, jeśli nie ma jasnego punktu odniesienia. W praktyce działają trzy proste kotwice:

  • Skala człowieka (jeśli jest w kadrze): wysokość postaci, szerokość ramion, wielkość dłoni. Nawet fragment sylwetki stabilizuje ocenę rozmiarów.
  • Moduły architektoniczne: wysokość stopnia, szerokość drzwi, wysokość blatu, rozstaw płytek. Wybierz jeden moduł i sprawdzaj, czy nowe elementy go respektują.
  • Powtarzalny detal: kostka brukowa, deski, kafle, listwy. Jeśli wzór nagle zmienia rozmiar w rozszerzonym fragmencie, oko natychmiast wyczuwa fałsz.
ProblemSygnał ostrzegawczyCo kontrolować przed generacją
„Pływanie” horyzontuLinie podłogi/ulicy raz wznoszą się, raz opadająJedna, spójna linia horyzontu + prowadnice na kluczowych krawędziach
Zmiana punktu zbieguRównoległe krawędzie po rozszerzeniu nie spotykają się w tym samym miejscuWyznacz punkty zbiegu na istniejących liniach i porównuj kierunki po generacji
Błędna skala obiektówOkna/cegły/płytki „rosną” lub „maleją” bez powoduJeden obiekt referencyjny + sprawdzenie modułu (np. płytki) na granicy selekcji
Niespójne pionyBudynek ma różne przechyły w różnych częściachDecyzja: piony proste vs zbiegające; prowadnice pionowe jako kontrola

4.4. Horyzont i kadr w Generative Expand: pułapki na brzegach

Przy rozszerzaniu kadru najłatwiej o subtelne „załamanie” przestrzeni na styku stare/nowe. Warto pilnować:

  • Kontynuacji linii: krawędzie chodnika, listwy, linie pasa ruchu powinny przechodzić przez granicę rozszerzenia bez zmiany kąta.
  • Krzywizn szerokokątnych: jeśli oryginał ma beczkę/poduszkę, nowe fragmenty też powinny ją „czuć”. Inaczej dostajesz mix optyk, który wygląda jak fotomontaż.
  • Poziomu horyzontu: drobny tilt po rozszerzeniu potrafi zepsuć cały realizm. Zawsze porównaj poziom po wygenerowaniu z prowadnicą.

4.5. Minimalne korekty geometryczne po generacji (bez „przemeblowania” sceny)

Po wygenerowaniu wykonaj szybki przegląd geometrii, zanim przejdziesz dalej:

  • Sprawdź zbiegi: czy nowe krawędzie nadal celują w te same punkty zbiegu.
  • Sprawdź piony: czy słupy/rogi ścian nie „falują” i nie zmieniają przechyłu.
  • Sprawdź skalę na granicy: porównaj rozmiar powtarzalnego wzoru tuż przed i tuż po przejściu.

Jeśli coś „prawie działa”, zwykle wystarczy bardzo delikatna korekta transformacji (np. wyrównanie kąta lub minimalna perspektywa) zamiast kolejnych agresywnych generacji, które mogą wprowadzić nowe niespójności.

4.6. Krótka lista kontrolna przed kliknięciem „Generate”

  • Wyznaczone: horyzont i przynajmniej jeden punkt zbiegu.
  • Ustawione prowadnice na 2–3 kluczowych liniach (podłoga/ulica, krawędź ściany, linia stołu).
  • Wybrany jeden moduł skali do porównań (człowiek/drzwi/płytki).
  • Decyzja o pionach: proste albo zbiegające — konsekwentnie.
  • Kontrola brzegów: czy najważniejsze linie mają „miejsce”, by się logicznie kontynuować w obszarze generacji.
💡 Pro tip: Zanim klikniesz „Generate”, wyznacz horyzont i punkty zbiegu (prowadnice/siatka), bo nawet idealna faktura „poleci”, gdy geometria choć minimalnie się rozjedzie. Trzymaj jedną kotwicę skali (człowiek/drzwi/płytki) i sprawdzaj, czy wzór oraz kąty przechodzą przez granicę generacji bez zmiany kierunku.

5. Workflow: dobór materiału źródłowego i spójność oświetlenia/koloru (referencje, próbki, matching)

Najczęstsze „wpadki” w Generative Fill/Expand nie wynikają z samego promptu, tylko z braku spójnego kontekstu: generator nie ma jasnej informacji, jakie światło i jaka kolorystyka obowiązują w scenie, więc dopowiada je po swojemu. Ten etap workflow polega na tym, by przed generowaniem i po nim szybko ustalić: źródło światła, temperaturę barwową, kontrast, ziarno/szum oraz dominanty kolorystyczne — i dopasować do nich wynik.

Referencje: kiedy i po co

Referencje są potrzebne wtedy, gdy kadr ma silny „styl światła” (np. złota godzina, neon w nocy, miękkie światło z okna) albo gdy rozszerzasz scenę poza oryginalny materiał (Expand) i brakuje danych o tym, co „powinno” się pojawić w nowym obszarze.

  • Referencja oświetlenia — służy do ustalenia kierunku i jakości światła (twarde/miękkie), długości cieni i poziomu kontrastu.
  • Referencja kolorystyczna — pomaga utrzymać temperaturę barwową i dominantę (np. zielonkawe świetlówki, ciepłe tungsteny, chłodny cień).
  • Referencja materiałów — przydaje się, gdy scena zawiera powtarzalne faktury (drewno, beton, tkanina), które łatwo „odjadą” w inną grubość splotu lub inną porowatość.

Klucz: referencja ma być zbliżona w ekspozycji i kontraście do Twojego ujęcia. Jeśli jest „ładniejsza” (np. mocno zgrade’owana), generator i późniejsze dopasowanie będą wymagały większych korekt, co zwiększa ryzyko sztuczności.

Próbki (sampling): co warto zmierzyć przed generowaniem

Zanim uruchomisz Generative Fill/Expand, zrób szybki „audit” sceny i zbierz próbki, które staną się punktami odniesienia dla dopasowania wyniku.

  • Światła / półcienie / cienie — sprawdź, czy scena ma wysoki kontrast (ostre, głębokie cienie) czy niski (płasko, mgliście).
  • Kolor światła — oceń temperaturę: czy biele uciekają w żółć/pomarańcz (ciepło) czy w błękit/zieleń (chłodno).
  • Kolor cieni — często różni się od koloru świateł; jeśli generator „wyrówna” wszystko do jednej temperatury, obraz traci wiarygodność.
  • Szum/ziarno — zwłaszcza w ISO-high i w cieniach: generowany fragment bywa zbyt czysty albo ma inny charakter szumu.

W praktyce chodzi o to, by mieć jasność: jak wygląda „zero” tej sceny. Dopiero potem oceniasz, czy wynik generowania do tego pasuje, czy wymaga dopasowania.

Matching: trzy poziomy dopasowania (od najszybszego do najpewniejszego)

Dopasowanie wyniku do reszty zdjęcia warto prowadzić w trzech „warstwach” decyzji — od globalnych po lokalne. Dzięki temu nie poprawiasz szczegółów, gdy problem leży w bazowej tonacji.

  • Poziom 1 — ton i ekspozycja: czy nowy fragment ma podobną jasność średnią, podobne czernie i biele, podobny kontrast.
  • Poziom 2 — kolor: czy temperatura i dominanta są spójne z otoczeniem (zwłaszcza w półcieniach).
  • Poziom 3 — „mikrolook”: czy ostrość, ziarno i mikrokontrast nie odcinają się od reszty.

Jeśli generator trafił temat, ale „nie siedzi” w ujęciu, najczęściej problem jest na poziomie 1–2, a nie w detalach. Najpierw więc wyrównaj bazę (jasność/kontrast), dopiero potem koryguj kolor i fakturę.

Dobór „materiału źródłowego”: jak pomagać generatorowi kontekstem

W Generative Fill/Expand największą przewagę daje nie tyle opis słowny, co kontekst wizualny w kadrze. Im więcej spójnych wskazówek ma model w bezpośrednim sąsiedztwie generowanego obszaru, tym łatwiej utrzyma światło i kolor.

  • Unikaj generowania „w próżni” — jeśli to możliwe, zostaw w pobliżu fragmenty, które niosą informację o świetle (cienie, refleksy, gradienty nieba, poświaty).
  • Wspieraj powtarzalność — jeśli rozszerzasz ścianę, podłogę lub niebo, zadbaj, by w sąsiedztwie selekcji było wystarczająco dużo istniejącej faktury/gradientu do kontynuacji.
  • Uważaj na „zanieczyszczenia” kontekstu — element o innej temperaturze (np. ekran telefonu, neon, lampka) blisko selekcji może „przesterować” wynik i narzucić błędną dominantę.

Typowe błędy spójności światła i koloru (i jak je rozpoznać)

ObjawCo zwykle poszło nie takSzybki test
Nowy fragment wygląda „jak wklejony” mimo poprawnej treściInny kontrast lub inna krzywa tonalnaPrzełącz widok na czarno-biały i porównaj jasność oraz czernie/biele
Kolor „pływa” na granicy łączeniaInna temperatura barwowa lub dominanta w półcieniachSprawdź, czy neutralne obszary (szarości) są równie neutralne po obu stronach
Cienie nie pasują do reszty kadruGenerator uśrednił kolor cieni lub zmienił ich gęstośćPorównaj kolor i głębokość cieni w sąsiednich obszarach o podobnej jasności
Detal jest „za czysty” albo „za ostry”Brak zgodności mikro-kontrastu / ziarnaPowiększ do 100% i porównaj strukturę szumu w cieniach

Minimalne zasady, które utrzymują realizm

  • Spójność kierunku światła: nawet drobne niezgodności w rozkładzie półcieni sprawiają, że oko natychmiast wyczuwa fałsz.
  • Spójność temperatury świateł i cieni: światła mogą być ciepłe, a cienie chłodne (lub odwrotnie) — ważne, by generator tego nie „spłaszczył”.
  • Spójność kontrastu lokalnego: jeśli scena jest miękka (mgła, zachmurzenie), generowany fragment nie może mieć „studyjnej” ostrości i mocnych krawędzi.
  • Spójność ziarna: różnica w szumie bywa bardziej zdradliwa niż różnica w kolorze.

Jeżeli na tym etapie dopilnujesz referencji, próbek i dopasowania bazowego, Generative Fill/Expand zaczyna zachowywać się przewidywalnie: nawet gdy wynik wymaga korekt, łatwo go „osadzić” w ujęciu bez efektu kolażu.

6. Iteracje promptów: jak pisać krótkie prompty, wariantowanie i przykłady gotowych promptów

W Photoshopie 2026 prompt jest przede wszystkim sterownikiem decyzji: mówi Generative Fill/Expand co ma się pojawić (obiekt/scena), w jakim stylu (materiał, epoka, estetyka) i czasem czego unikać. Najmniej wpadek daje podejście „krótkie prompty + szybkie iteracje” zamiast jednego długiego opisu.

Jak pisać krótkie prompty, które trzymają się realiów kadru

  • Nazywaj rzecz, nie historię: zamiast opowiadać kontekst, nazwij element do wygenerowania (np. „asfalt”, „ściana z cegły”, „balustrada stalowa”).
  • Dodaj 1–2 cechy kontrolne: materiał/wykończenie + stan (np. „matowy”, „zużyty”, „mokry”, „porysowany”).
  • Używaj słów kotwic dla spójności: „photorealistic”, „natural light”, „neutral color”, „same style/texture” – ale tylko wtedy, gdy widzisz, że model „odpływa”.
  • Minimalizuj przymiotniki: zbyt wiele cech zwiększa ryzyko, że model zacznie zmieniać geometrię lub styl poza selekcją.
  • Negatywy stosuj oszczędnie: krótkie „no text, no logo, no people” bywa skuteczniejsze niż długa lista zakazów.

Szybkie wariantowanie: 3 rundy zamiast jednego ideału

Praktyczny schemat iteracji:

  • Runda 1 (najprościej): sam rzeczownik + ewentualnie materiał. Cel: sprawdzić, czy model „łapie” kontekst.
  • Runda 2 (doprecyzowanie): dodaj jedną cechę (np. „wet asphalt”, „old plaster”). Cel: dopasować fakturę i „wiek”.
  • Runda 3 (korekta kierunku): dodaj ograniczenie albo styl dopasowania (np. „match existing texture”, „subtle, not too contrasty”). Cel: utemperować kontrast, ziarno, przesadę detalu.

Prompt jako „brief”: małe klocki, które można mieszać

Najłatwiej utrzymać kontrolę, gdy budujesz prompt z krótkich klocków (kolejność ma znaczenie: najpierw obiekt, potem cechy):

[obiekt/scena], [materiał/wykończenie], [stan], [ograniczenie/zakaz]

Przykład:

concrete wall, smooth, slightly worn, no graffiti

Tabela: typowe problemy i jak zmienić prompt (bez przeładowania)

ObjawCo zwykle jest przyczynąMinimalna poprawka w promptcie
„Zbyt dużo detalu” (efekt HDR, przesadna faktura)Model „upiększa” i dodaje mikrodetale„subtle texture”, „natural”, „not too sharp”
Losowe napisy/znakiModel dorzuca elementy „realizmu”„no text, no logo, no signs”
Zmiana stylu względem reszty kadruPrompt zbyt „stylizujący”Usuń styl; dodaj „photorealistic, match existing”
Niepożądane obiekty (ludzie, auta, rośliny)Model uzupełnia scenę „typowo”„empty”, „no people”, „no vehicles”
Wrażenie „doklejki” (niespójne wykończenie)Brak wskazania materiału/wykończeniaDodaj materiał: „painted plaster”, „brushed metal”

Gotowe przykłady krótkich promptów (do Fill/Expand)

Tła i powierzchnie

  • Ściana: „painted plaster wall, off-white, slightly worn”
  • Cegła: „red brick wall, old, subtle mortar”
  • Beton: „concrete floor, matte, lightly stained”
  • Asfalt: „wet asphalt, dark, subtle reflections”
  • Drewno: „wooden deck boards, weathered, natural color”

Architektura i elementy użytkowe

  • Chodnik: „sidewalk pavement slabs, light gray, slightly dirty”
  • Balustrada: „simple metal railing, black, matte, no ornaments”
  • Okno (uzupełnienie fragmentu): „window frame, white painted wood, realistic”
  • Drzwi: „plain wooden door, dark brown, realistic, no signage”

Natura (bez „bajkowania”)

  • Niebo: „overcast sky, soft clouds, natural”
  • Trawa: „short grass, slightly dry, natural patchy”
  • Piasek: „sand, fine grain, slightly uneven”

Kontrolowane „czyszczenie” sceny (gdy model ma nie dodawać niczego)

  • „empty background, match existing texture, no objects”
  • „clean surface continuation, no text, no logos”
  • „extend environment, seamless, photorealistic”

Checklist promptu przed kliknięciem „Generate”

  • Czy prompt mówi co ma powstać jednym rzeczownikiem?
  • Czy dodałeś tylko 1–2 cechy (materiał/stan) zamiast opisu sceny?
  • Czy dopisałeś krótkie zakazy, jeśli w poprzednich próbach pojawiały się napisy/obiekty?
  • Czy unikasz słów, które „stylizują” (np. „cinematic”, „dramatic”), jeśli celem jest dyskretne uzupełnienie?
💡 Pro tip: Pisz prompt jak krótki brief: rzeczownik + 1–2 cechy (materiał/stan), a resztę dopracuj w 2–3 szybkich iteracjach zamiast jednego długiego opisu. Gdy model „odpływa”, dodaj minimalne kotwice typu „match existing texture/photorealistic” i krótkie negatywy („no text, no logo”) zamiast kolejnych przymiotników.

7. Maskowanie, łączenie wariantów i retusz końcowy (warstwy, blend, usuwanie artefaktów)

Generative Fill/Expand zwykle daje kilka mocnych ujęć tego samego problemu, ale rzadko jedno „idealne”. Najbezpieczniej traktować wynik jako materiał do złożenia: wybierasz najlepsze fragmenty z wariantów, łączysz je maskami, a na końcu wykonujesz krótki retusz, który usuwa typowe „ślady AI” i domyka spójność.

Warstwy: pracuj nieniszcząco

Kluczowa różnica w podejściu do generatywnej edycji w porównaniu z klasycznym klonowaniem czy łataniem polega na tym, że warianty warto zachować równolegle. Zamiast spłaszczać i iść dalej, trzymaj wyniki w warstwach, bo często po retuszu okazuje się, że inny wariant ma lepszy detal (np. krawędź, fakturę, cień).

  • Oddzielne warstwy dla wariantów – łatwiej porównać i „wycinać” najlepsze fragmenty.
  • Maski warstw zamiast gumki – pozwalają wracać do poprzednich decyzji bez degradacji obrazu.
  • Grupowanie wariantów i opisowe nazwy – przyspiesza selekcję najlepszego materiału do złożenia.

Łączenie wariantów: selektywnie, nie „na raz”

Najczęstsza wpadka po generowaniu to sytuacja, w której obraz wygląda dobrze w całości, ale „sypie się” na styku: pojawia się podwójny kontur, dziwny zygzak na krawędzi albo nienaturalny szum. Zamiast próbować naprawiać cały obszar kolejnym generowaniem, szybciej jest połączyć warianty fragmentami i zadbać o miękkie, logiczne przejścia.

  • Wycinaj tylko to, co najlepsze: np. z jednego wariantu bierz krawędź obiektu, z innego tło, z trzeciego drobny detal.
  • Maskuj wzdłuż naturalnych granic (krawędzie, załamania, linie materiału), bo tam przejścia są najmniej widoczne.
  • Unikaj „płynących” przejść przez geometrię: jeśli maska przechodzi przez prostą krawędź architektury lub horyzont, łatwo o złamanie perspektywy i falowanie linii.

Blend: dopasuj ziarno, ostrość i mikro-kontrast

Nawet przy dobrym wyniku generatywnym zdradzają go detale: inne ziarno, inna ostrość, zbyt „kremowa” faktura albo przesadnie wyostrzony fragment. Dlatego końcówka to zwykle dostrojenie, a nie wielkie poprawki.

  • Ziarno/szum: wyrównaj charakter szumu między oryginałem a wstawką (różnice w szumie są bardziej widoczne niż różnice w kolorze).
  • Ostrość: jeśli wstawka jest ostrzejsza lub bardziej rozmyta niż reszta kadru, będzie „odklejona” nawet przy idealnej perspektywie.
  • Mikro-kontrast: generatywne fragmenty potrafią mieć inny „pop” (lokalny kontrast). Wyrównanie go często natychmiast ukrywa montaż.

Artefakty: co psuje realizm najczęściej

Retusz końcowy polega głównie na wyłapaniu kilku powtarzalnych problemów i ich szybkim „wyczyszczeniu”. Zwykle są to drobiazgi, ale właśnie one powodują wrażenie, że obraz jest nienaturalny.

  • Podwójne krawędzie i „echo” konturu na styku maski – popraw maską albo lokalnym retuszem, zanim zaczniesz korygować kolor.
  • Powtórzone wzory (szczególnie w teksturach: trawa, ściany, asfalt) – usuń widoczne repetycje, bo oko od razu je łapie.
  • Zniekształcone detale funkcjonalne: krzywe fugi, nielogiczne łączenia materiałów, „płynące” napisy, rozjechane krawędzie mebli.
  • Dziwne cienie i poświaty – nawet subtelna poświata wokół obiektu zdradza kompozycję; lepiej ją skasować niż „ratować” globalną korektą.
  • Niespójna głębia: elementy daleko w kadrze zbyt ostre lub zbyt kontrastowe wyglądają jak doklejone.

Kontrola jakości: szybki test, zanim oddasz plik

Zanim uznasz retusz za skończony, wykonaj krótką kontrolę, która wyłapuje problemy szybciej niż długie wpatrywanie się w 100%.

  • Przełączaj widok między dopasowaniem do ekranu a 100%: na pełnym kadrze widać „odklejenie”, na 100% widać artefakty.
  • Sprawdź na neutralnym tle (np. ciemny i jasny interfejs): poświaty i banding potrafią ujawnić się dopiero na innym kontraście.
  • Odwróć obraz (flip poziomo): perspektywiczne potknięcia i krzywe linie stają się nagle oczywiste.
  • Zrób przerwę i wróć na minutę: świeże spojrzenie szybciej wyłapie nielogiczne światło, kierunek cieni i „zbyt idealne” faktury.

Najlepszy rezultat po Generative Fill/Expand to zwykle nie pojedynczy wariant, tylko kompozycja: precyzyjne maskowanie, rozsądny blend oraz krótka lista poprawek, które usuwają artefakty i sprawiają, że edycja staje się niewykrywalna.

Czerwone flagi: kiedy efekt wygląda „AI” + szybka checklista kontroli jakości

Nawet jeśli Generative Fill/Expand trafi w ogólny klimat sceny, obraz może nadal „krzyczeć AI”. Najczęściej zdradza go nie jeden duży błąd, tylko kilka drobnych niespójności naraz: subtelnie inna geometria, inny charakter ziarna, nielogiczne cienie albo materiały, które wyglądają jak „prawie” te same. Poniżej znajdziesz sygnały ostrzegawcze i krótki test jakości, który warto wykonać przed eksportem.

Najczęstsze czerwone flagi (na co patrzeć w pierwszej kolejności)

  • Perspektywa „prawie się zgadza”: linie (krawędzie ścian, listwy, fugi, krawężniki, poręcze) minimalnie zmieniają kąt lub „płyną” w inną stronę niż reszta kadru.
  • Skala elementów jest niekonsekwentna: detale w tle nagle są zbyt duże/małe względem obiektów o podobnej odległości; powtarzalne wzory (cegły, deski, kafelki) zmieniają rozmiar bez powodu.
  • Nielogiczne światło i cień: cienie mają inny kierunek, ostrość lub kolor niż w oryginale; wypełnione fragmenty wyglądają jak oświetlone „inną lampą” albo mają dziwnie równomierny kontrast.
  • Brak kontaktu z podłożem: dodane elementy „unoszą się” — brakuje cienia kontaktowego, occlusion albo delikatnego przyciemnienia przy styku z ziemią/ścianą.
  • Materiał i faktura nie pasują: powierzchnia ma inny połysk (mat vs. satyna), inną mikrostrukturę, zbyt gładką „plastelinę” albo zbyt agresywne detale w porównaniu do reszty zdjęcia.
  • Powtarzalność i wzory-hallucynacje: podejrzane, quasi-regularne powtórzenia, „rozlane” ornamenty, fugi/żyłki nagle się urywają lub łączą w nielogiczne węzły.
  • Krawędzie, które nie należą do optyki aparatu: zbyt ostre obrysy na tle miękkiej głębi ostrości, poszarpane halo, dziwne przejścia na granicy wypełnienia.
  • Inny charakter szumu i kompresji: wypełniony obszar jest zbyt czysty lub przeciwnie — ma inne ziarno, inne „blokowanie” JPEG, inną gładkość w cieniach.
  • Kolor, który „odstaje” mimo podobnego odcienia: inna temperatura barwowa, przesunięcie w zielenie/magenty, brak wspólnego zafarbienia sceny (np. od nieba, neonów, lamp ulicznych).
  • Drobne anomalie geometrii: lekko falujące proste linie, asymetrie w elementach architektury, „topniejące” krawędzie mebli i przedmiotów technicznych.
  • Nieciągłość narracji obrazu: obiekt pojawia się bez uzasadnienia (np. fragment drogi bez logicznego połączenia), brak spójności funkcjonalnej przestrzeni.

Szybka checklista kontroli jakości (60–120 sekund przed eksportem)

  • Oddal widok do miniatury: czy kompozycja i światło wyglądają naturalnie, bez „plam” o innym kontraście?
  • Powiększ 100% i przejedź po łączeniach: czy na granicy generacji nie ma skoków ostrości, koloru, tekstury lub dziwnych krawędzi?
  • Sprawdź proste linie: czy najważniejsze krawędzie (horyzont, ściany, podłogi, krawężniki) są konsekwentne i nie falują?
  • Porównaj ziarno/szum: czy wypełniony obszar ma podobną „ziarnistość” jak reszta zdjęcia, szczególnie w cieniach i na gładkich powierzchniach?
  • Zweryfikuj cienie: kierunek, miękkość i gęstość — czy pasują do reszty sceny i mają kontakt przy styku obiektów?
  • Kontrola materiałów: połysk, faktura i drobne detale — czy wyglądają jak ten sam typ powierzchni i ta sama jakość optyki?
  • Test odwrócenia: odbij obraz w poziomie — jeśli coś nagle „kłuje w oczy”, zwykle to perspektywa, skala albo światło.
  • Test odcięcia uwagi: zasłoń ręką/ramką generowany fragment i odsłoń ponownie — czy wypełnienie „wchodzi” w kadr bez zwracania na siebie uwagi?
  • Sprawdź spójność koloru: czy czernie, biele i tony skóry/neutralne (jeśli są) nie zmieniają charakteru w obszarze generacji?
  • Oceń „logikę sceny”: czy elementy mają sens konstrukcyjny (ciągłość fug, krawędzi, łączeń), a przestrzeń działa realistycznie?

Jeśli po tej kontroli widzisz choć dwie–trzy czerwone flagi naraz, efekt najczęściej wymaga poprawy: albo ponownej generacji z lepszym kontekstem, albo delikatnego dopasowania spójności (światło, tekstura, krawędzie) tak, by wypełnienie stało się niewidoczne. Jeśli chcesz poznać więcej takich przykładów, zapraszamy na szkolenia Cognity, gdzie rozwijamy ten temat w praktyce.

💡 Pro tip: Przed eksportem zrób 60-sekundowy test: miniatura → 100% po łączeniach → kontrola prostych linii, cieni i ziarna, bo „AI” najczęściej zdradza suma drobnych niespójności. Odbij obraz w poziomie i sprawdź, czy coś nagle nie kłuje w oczy — to najszybszy wykrywacz problemów z perspektywą, skalą i światłem.
icon

Formularz kontaktowyContact form

Imię *Name
NazwiskoSurname
Adres e-mail *E-mail address
Telefon *Phone number
UwagiComments