Reklama

aplikacja AfterfocusGdy patrzysz na zdjęcie zrobione smartfonem, jedno jest łatwiej odróżnić od zdjęcia zrobionego poważnym aparatem - głębia ostrości. Zdjęcia zrobione aparatem dSLR często mają nieco rozmyte tło, a obiekt zdjęcia jest ostry i wyskakuje. AfterFocus to aplikacja dla Android i iPhone który obiecuje zapewnić taki sam wygląd zdjęć smartfona.

Krótko wspomniał o tym AfterFocus: przenieś fotografię podobną do DSLR na swój telefon z Androidem Czytaj więcej w katalogu MakeUseOf, ale dziś zamierzam go przetestować i uruchomić w aplikacji prawdziwe zdjęcie zrobione dziś rano w mojej kuchni. Podekscytowany? Powinienem mieć taką nadzieję.

Oryginalne zdjęcie

Po pierwsze, oto z czym musimy współpracować:

aplikacja Afterfocus

Tak, to ja, w koszulce Cookie Monster. Nie jest to świetne zdjęcie, ale jest to typowa jakość smartfona: wszystko jest dość jednolicie skupione i na początku nic nie jest zbyt chwiejne lub rozmyte. Zobaczmy teraz, co możemy z tym zrobić.

Interfejs AfterFocus

Pierwszą rzeczą, którą powinieneś wiedzieć o pracy z AfterFocus jest to, że nie jest on w pełni automatyczny. Musisz powiedzieć mu, co chcesz rozmazać i co należy utrzymać.

instagram viewer

Aplikacja DSLR na Androida

Po uruchomieniu AfterFocus aplikacja pozwala zrobić zdjęcie za pomocą wbudowanej aplikacji aparatu lub wybrać istniejące zdjęcie z albumu do pracy. The „Zrób dwa zdjęcia”Opcja nie jest jeszcze aktywna na Androidzie. Jest zarezerwowany dla wersji Pro aplikacji, która pojawi się w Google Play w maju. Jest to funkcja, która ma ułatwić rozpoznawanie pierwszego planu z tła po ustawieniu ostrości przez zrobienie zdjęcia, lekkie przesunięcie aparatu i zrobienie kolejnego zdjęcia.

Mamy już zdjęcie, z którym chcemy pracować, więc właśnie wybrałem je z galerii. Następnie AfterFocus zapytał mnie, jak chcę wybrać obszar ostrości:

Aplikacja DSLR na Androida

Ręczny wybór ostrości

W tym poście pokażę obie metody, ale najpierw zdecydowałem się na Manual. Po wybraniu tej metody AfterFocus wyświetla szybki dwustopniowy samouczek:

Aplikacja DSLR na Androida

To naprawdę bardzo proste. Zasadniczo malujesz zdjęcie, aby wskazać, które obszary chcesz zachować ostrość i jakie obszary chcesz rozmazać:

Aplikacja dslr na iPhone'a

Szybkie spojrzenie na moją pracę ręczną (a raczej „pracę palcami”) pokazuje problem z tą metodą: bardzo łatwo jest narysować grube linie i zepsuć wszystko. Możesz spróbować naprawić szkody, cofając je lub powiększając i rysując pędzlem BG (tło):

Aplikacja dslr na iPhone'a

Mimo to bardzo ręczny proces podatny na błędy. Szybko poświęciłem powiększanie i przesuwanie, poprawianie konturu, aż skończyłem z tym:

Aplikacja dslr na iPhone'a

Lepiej, ale wciąż bałagan. Mówiąc realistycznie, jest to tak długo, jak długo ktoś poświęca na ulepszenie konturu. Czas przejść do następnego kroku, naciskając „Kolejny”Trójkąt w prawym górnym rogu.

Afterfocus [22]

AfterFocus natychmiast stosuje efekt rozmycia tła i nawet na ekranie smartfona widzę, że pozostawia wiele do życzenia. Nadal jednak, zastosujmy niektóre efekty i zobaczmy, co otrzymamy. Dolny pasek narzędzi pozwala kontrolować stopień rozmycia zastosowanego w tle:

Afterfocus [24]

Możesz także wybrać kształt apertury:

Afterfocus [28]

I oczywiście zastosuj kilka filtrów:

Afterfocus [30]

Naprawdę nie jestem pewien co do filtrów w stylu vintage: myślę, że za 15 lat nie będę szczęśliwy, gdy odkryję, że wszystkie moje zdjęcia z tej epoki są wypełnione efektami retro, które degradują obraz. Niezależnie od tego, czy lubisz filtry w stylu vintage, AfterFocus je ma.

OK, skończone. Oto, co mamy:

Afterfocus [32]

Tło jest zdecydowanie rozmazane, a AfterFocus nie przesadził z wybranym przeze mnie efektem przetwarzania krzyżowego, co jest miłe. Mimo to na pewno widać dziwne poruszenia wokół mojego prawego ramienia (po lewej na zdjęciu), gdzie pomieszałem ręczny wybór, a nie wspomnieć, że przód zdjęcia jest nieostry, co jest po prostu dziwne (ale to moja wina, ponieważ początkowo go nie wyróżniłem).

Smart Focus

Wróciłem do początku procesu z tym samym zdjęciem, aby zobaczyć, jak działa Smart Focus. Oto sześciostopniowy samouczek wraz z ładnym wideo (sformatowanym do trybu portretowego, co jest świetne):

Afterfocus [34]

Chodzi o to, że nie malujesz obiektów, ale po prostu „podpowiedź”: białe linie oznaczają pierwszy plan, czarne linie oznaczają tło. AfterFocus próbuje samodzielnie ustalić granice obiektów.

Czas więc narysować na sobie kilka białych linii:

Afterfocus [36]

Początkowo wynik nie był bardzo dobry:

Afterfocus [38]

AfterFocus zdecydował, że całe zdjęcie jest „na pierwszym planie”. OK, dodajmy kilka czarnych linii:

Afterfocus [40]

O wiele, wiele lepiej, tylko AfterFocus uważa, że ​​moja wielka biała głowa jest częścią ściany. Nie najlepiej. Szybka poprawka później wygląda następująco:

Afterfocus [42]

Ogólnie rzecz biorąc, wybór jest dość płynny, a wykrywanie granic obiektów działa dobrze. Ta metoda zajęła znacznie mniej czasu niż metoda ręczna i przyniosła lepsze wyniki. Następnie zastosuję taki sam dokładny efekt do obrazu, jak poprzednio, i spójrzmy na wynik:

Afterfocus [44]

Lepiej, ale zdecydowanie nie idealnie. Ta metoda sprawiła, że ​​moje ramiona były w prawo, ale całkowicie zawaliłem lewą stronę głowy (moje ucho wygląda dziwniej niż kiedykolwiek), a także część koszuli w lewym dolnym rogu zdjęcia. Mogło to naprawić trochę więcej pracy na etapie podpowiedzi, ale znowu celowo nie spędziłem dużo czasu na tej scenie, ponieważ nie sądzę, by większość użytkowników to zrobiła. W końcu to nie jest Photoshop.

Poza tym pierwszy plan wygląda na bardzo sztuczny i całkowicie zaburza efekt: na lustrzance ostrość nie spada tak gwałtownie.

Porównanie obrazów

Oryginał:

Afterfocus [46]

Ręczny wybór pierwszego planu:

Afterfocus [48]

Inteligentny wybór pierwszego planu:

Afterfocus [50]

Po rozczarowujących wynikach mojego początkowego spinu z wyborem inteligentnego pierwszego planu wróciłem i edytowałem ostrożniej, uzyskując bardziej akceptowalny wynik:

aplikacja Afterfocus

Skupienie wokół mojego ucha wciąż wygląda naprawdę dziwnie, ale pierwszy plan wokół mojego garnka mokki jest teraz bardziej wiarygodny - zdjęcie nie rozprasza od razu w „hej, to nie jest prawdziwy” sposób.

Końcowe przemyślenia

AfterFocus to niezły chwyt, ale moje zdjęcia nadal wyglądają, jakby pochodziły ze smartfona. Dedykowani użytkownicy, którzy mają czas do stracenia, prawdopodobnie uzyskają lepsze wyniki niż ja, chociaż uważam, że ostatnia próba inteligentnego wyboru nieco poprawiła zdjęcie. Fajnie, że zabytkowe filtry nie są tak przesadne i nie niszczą całkowicie zdjęcia.

Poinformuj nas, co myślisz o aplikacji i jakie wyniki udało Ci się uzyskać dzięki zdjęciom.