Deep Fusion to odpowiedź Apple na funkcję Google Night Sight do fotografowania w słabym świetle

Funkcja Deep Fusion jest zarezerwowana dla iPhone’a 11 Pro

W przemówieniu, w którym między innymi zaprezentowano iPhone’a 11 Pro, Phil Schiller dał mały wgląd w funkcję, którą Apple nazywa „Deep Fusion”. Według Phila Schillera jest to fotografia wspomagana komputerowo połączona z szaloną nauką (jego cytat brzmiał: „szalona nauka fotografii obliczeniowej”). Oglądając keynote nie od razu było dla mnie jasne, co ta funkcja robi, bo dobre zdjęcia w słabym świetle były już prezentowane w keynote w związku z iPhonem 11, więc zakładam, że tu chodzi o coś więcej.

Dzięki funkcji „Deep Fusion” iPhone 11 Pro łączy dziewięć pojedynczych obrazów w jeden duży obraz o rozdzielczości 24 MP.
Dzięki funkcji „Deep Fusion” iPHone 11 Pro łączy dziewięć pojedynczych zdjęć w jeden duży obraz o rozdzielczości 24 MP.

Czym dokładnie zajmuje się Deep Fusion?

Zadałem sobie dokładnie to pytanie i ponownie spojrzałem na odpowiedni fragment w przemówieniu. Dla tych czytelników, którzy chcą oglądać dalej, zaczyna się od sygnatury czasowej 1:21:55 w keynote.

W szczegółach dzieje się tak: iPhone 11 Pro (tylko wersja z 3 obiektywami, a nie normalny iPhone 11 bez Pro!) robi dziewięć zdjęć jeszcze przed naciśnięciem spustu migawki. Cztery z nich to zdjęcia o krótkiej ekspozycji, a cztery to zdjęcia nieco dłużej naświetlone. Ostatnie zdjęcie jest zapisywane zaraz po naciśnięciu spustu migawki (zrobienie dziewięciu zdjęć), przy czym to jest długa ekspozycja.

W ciągu sekundy od naciśnięcia spustu migawki silnik neuronowy iPhone'a 11 Pro analizuje i łączy wszystkie pojedyncze ujęcia, piksel po pikselu, w jeden obraz, używając tylko najlepszych ujęć do agregacji.

Efektem końcowym jest fotografia o rozdzielczości 24 megapikseli, która charakteryzuje się szczególnie wysokim poziomem szczegółowości i niskim poziomem szumów obrazu.

Według Phila Schillera, po raz pierwszy silnik neuronowy został użyty do wydrukowania zdjęć iw tym kontekście pojawił się termin „szalona nauka fotografii obliczeniowej”.

To zdjęcie demonstracyjne było jedynym udostępnionym przez Apple do prezentacji Deep Fusion.
To zdjęcie demonstracyjne było jedynym udostępnionym przez Apple do prezentacji Deep Fusion.

Aparat iPhone 11 Pro Deep Fusion: rozdzielczość 24 MP zamiast 12 MP

Każdy, kto miał do czynienia z danymi technicznymi iPhone'a 11 Pro, zauważył, że trzy wbudowane aparaty mają tylko czujnik o wielkości 12 megapikseli. Tak też było w przypadku iPhone’a XS, dlatego najwyższa rozdzielczość zdjęć z iPhone’a to wcześniej 12 MP.

Jednak dzięki funkcji aparatu Deep Fusion iPhone 11 Pro wypluwa teraz zdjęcia o rozdzielczości 24 megapikseli, co można technicznie zrealizować jedynie poprzez połączenie kilku zdjęć w jedno większe, a szczegóły są tworzone przez minimalne rozmycie podczas nagrywania. Istnieje aplikacja fotograficzna o nazwie „Hydra”, która ma podobne podejście, wyrzucając zdjęcia 32 MP. Możesz pobrać próbki zdjęć tutaj na stronie programistów w sekcji „Super rozdzielczość (Zoom / Hi-Res)”.

Nawet jeśli Hydra na pewno nie jest zła, wynik osiągnięty z iPhone’em 11 Pro powinien być znacznie wygodniejszy i lepszy.

Alternatywa Google Night Sight od Apple

Trzeba przyznać Google, że wyraźnie przyćmili wszystkie ujęcia w słabym świetle z poprzednich iPhone'ów za pomocą zdjęć Night Sight. Zaplecze techniczne jest takie, że – o ile czytałem – smartfony Google Pixel potrafią edytować zdjęcia robione w chmurze Google i dzięki temu osiągać imponującą jakość zdjęć w trybie Night Sight. Stwierdzenie nie jest poprawne. Sprawdziłem ponownie i dowiedziałem się, że cała edycja odbywa się na Pixelu i żadne dane nie są przesyłane do chmury.

Wraz z wydaniem Google Pixel 3 z funkcją Night Sight, Google porównało zdjęcia z iPhone'a X z Google Pixel 3. Wtedy iPhone X nie wyglądał dobrze – dzięki iPhone’owi 11 Pro Apple nadąża za nimi.
Wraz z wydaniem Google Pixel 3 z funkcją Night Sight, Google porównało zdjęcia iPhone'a X ze zdjęciami Google Pixel 3. Wtedy iPhone X nie wyglądał dobrze – dzięki iPhone’owi 11 Pro Apple nadąża za nimi.

W trybie Deep Fusion iPhone'a żadne zdjęcia nie wędrują, a już na pewno nie na serwerach innych firm – chyba że wyraźnie ustawiłeś, że chcesz je znaleźć w bibliotece zdjęć iCloud. Apple jest znane z tego, że próbuje zawsze rozwiązywać takie rzeczy lokalnie na urządzeniu. Z tego powodu Deep Fusion może nadejść dopiero teraz, gdy pojawi się nowy iPhone z szybszym procesorem.

W każdym razie Apple powinien zrównać się z Google pod względem ujęć w słabym świetle dzięki tej funkcji. Pytanie tylko, czy Google ma coś w zanadrzu, by z kolejnym Pixel Phone podnieść poprzeczkę nieco wyżej.

Google Night Sight vs Apple Night Mode

Wszystkie modele iPhone'a 11 są wyposażone w funkcję o nazwie Tryb nocny, podczas gdy Deep Fusion jest prawdopodobnie zarezerwowany dla modeli Pro. Technicznie rzecz biorąc, tryb nocny jest bardziej podobny do trybu Google Night Sight, ponieważ oba tryby opierają się na dłuższych czasach naświetlania, a następnie obliczają zdjęcia razem, podobnie jak w trybie HDR. Z drugiej strony, w przypadku Deep Fusion wydaje się, że w tle dzieje się o wiele więcej „technicznej magii”.

W tym przypadku interesujące jest to, jak tryb nocny iPhone'a różni się od trybu celownika nocnego w telefonach pikselowych. Z tego, co udało mi się zebrać z poprzednich raportów z testów, tryb nocny firmy Apple wydaje się być znacznie bardziej naturalny, ponieważ zdjęcia nadal wyraźnie pokazują, że zdjęcie zostało zrobione w ciemności. Z drugiej strony w trybie Night Sight w telefonach Pixel zdjęcia wyglądają bardziej, jakby zostały zrobione w ciągu dnia.

Z punktu widzenia fotografa zdecydowanie bardziej podoba mi się podejście Apple’a, bo lubię, gdy na zdjęciach zostaje zachowany nocny nastrój, ale kolory i detale są nadal wyraźnie lepsze niż w trybie nocnym modeli iPhone’a XR, XS i XS Max

Kiedy Deep Fusion trafi na iPhone'a?

Jestem ciekaw, jak Deep Fusion sprawdza się w praktyce. Według Phila Schillera nie tylko nadaje się do fotografowania przy słabym oświetleniu, ale może również dawać imponujące rezultaty w lepszym świetle.

Jednak Deep Fusion nie jest jeszcze dostępny z dostawą modeli iPhone 11 Pro. Zostanie dodany do modeli Pro tylko przez Apple wraz z aktualizacją oprogramowania tej jesieni.

 

Moje wskazówki i porady dotyczące technologii i Apple

Podobał Ci się artykuł i czy instrukcje na blogu Ci pomogły? Wtedy byłbym szczęśliwy, gdybyś bloga poprzez stałe członkostwo będzie wspierać.

2 przemyślenia na temat „Deep Fusion to odpowiedź Apple na funkcję Google Night Sight do fotografowania w słabym świetle”

  1. „Techniczne zaplecze jest takie, że – o ile czytałem – smartfony Google Pixel potrafią edytować zdjęcia zrobione w chmurze Google i dzięki temu osiągać imponującą jakość zdjęć w trybie Night Sight”. - Co za nonsens, oznaczałoby to, że Night Sight nie działałby, gdybyś był offline. Ponadto nikt nie musi nigdzie przesyłać swojego zdjęcia. Proszę o źródło takich twierdzeń.

    1. Witaj Mario! Masz absolutną rację. Właśnie przeczytałem o Night Sight ponownie na angielskich blogach i nigdzie nie jest napisane, że zdjęcia są przetwarzane w chmurze. Tak więc wszystko dzieje się na Google Pixel. Poprawiam fragment na górze artykułu. Dziękuję za podpowiedź. Słyszałem to oświadczenie w podcastie, ale wydawali się również źle poinformowani.

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone * oznakowane

Na blogu Sir Apfelot znajdziesz porady, instrukcje i recenzje produktów Apple, takich jak iPhone, iPad, Apple Watch, AirPods, iMac, Mac Pro, Mac Mini i Mac Studio.

Promocje