Ułożone w stos czujniki umożliwiają tworzenie cienkich smartfonów ze świetnymi aparatami, ale przebyła długą drogę, aby uczynić je wystarczająco dobrymi do codziennego użytku

Większość smartfonów ma wyspę aparatu grubszą niż reszta ich korpusów. Jednak nawet licząc ten dodatkowy guzek, są cieńsze i robią zdjęcia i filmy, które wyglądają lepiej niż ich odpowiedniki kilka lat temu.

W pierwszych latach fotografii mobilnej potrzebne były jeszcze grubsze gadżety: pamiętasz aparaty typu „wskaż i zrób zdjęcie” z 2000 roku? W dzisiejszych czasach wszystko jest zapakowane w urządzenia o grubości pół cala, czasem nawet mniejszej. Umożliwiają to ułożone czujniki obrazu.

Zrozumienie fotografii cyfrowej

The różnice między aparatami analogowymi i cyfrowymi polega na tym, że ten pierwszy wykorzystuje kliszę wykonaną z materiału światłoczułego do zapisywania zdjęć, podczas gdy ten drugi ma czujnik elektroniczny. W tym czujniku każdy piksel (pojedyncze punkty tworzące obraz cyfrowy) to informacje o oświetleniu rejestrowane przez bardzo małą część czujnika (po jednym na każdy piksel na zdjęciu).

instagram viewer

Istnieją dwa rodzaje czujników do aparatów cyfrowych, CCD (skrót od Charge-Coupled Device) i CMOS (Complementary Metal-Oxide Semiconductor). Wszystkie nowoczesne aparaty w smartfonach używają tego drugiego, więc tę technologię wyjaśnimy poniżej.

Czujnik CMOS składa się z kilku elementów. Najważniejsza jest fotodioda: po otrzymaniu światła generuje sygnał elektryczny. Ten sygnał jest przechowywany przez a tranzystor tuż obok fotodiody, która przetwarza sygnał na informację cyfrową i przesyła ją do układu elektronicznego.

Ten obwód jest odpowiedzialny za interpretację tych danych i przekazanie ich wraz z miliardami innych pikseli do procesora sygnału obrazu (ISP), który tworzy ostateczny obraz.

Wczesne dni aparatów telefonicznych

Do 2008 roku czujniki CMOS miały poważny problem: okablowanie potrzebne do wysyłania informacji o pikselach do dostawcy usług internetowych przechodziło między fotodiodą a soczewką, blokując część światła. Ta sama struktura została zastosowana w czujnikach CCD, które były bardziej światłoczułe, ale w przypadku CMOS oznaczało to ciemniejsze, bardziej hałaśliwe i bardziej rozmyte zdjęcia.

Zostało to rozwiązane za pomocą prostego pomysłu: przesunięcia fotodiody nad przewodami, aby otrzymywała więcej światła, poprawiając w ten sposób jakość obrazu. Nazywa się to czujnikiem Back-Side Illuminated (BSI), w przeciwieństwie do poprzednich, które były podświetlane z przodu.

Źródło obrazu: Cmglee/Wikimedia Commons

Aby umieścić rzeczy w kontekście, iPhone 4, który zapoczątkował reputację Apple w fotografii smartfonów, był jednym z pierwszych telefonów, w których zastosowano ten typ czujnika. Obecnie praktycznie wszystkie aparaty w smartfonach wykorzystują czujniki BSI.

Ułożone czujniki poprawiają jakość zdjęć i zmniejszają rozmiar

Nawet po usunięciu przewodu nadal były punkty do poprawy w czujnikach CMOS. Jednym z nich był obwód odpowiedzialny za przetwarzanie informacji o tranzystorze. Owinęła się wokół fotodiody. Z tego powodu około połowa światła docierającego do każdego piksela trafiała do części czujnika, która nie przechwytywała żadnego światła.

Źródło obrazu: Sony

W 2012 roku powstał pierwszy przetwornik CMOS typu stacked. Zamiast owijać się wokół fotodiody, zespół obwodów elektrycznych jest umieszczony pod nią. Ponieważ (częściowo) zastępuje podłoże stosowane do uzyskania sztywności strukturalnej, nie ma dodatkowej grubości. W rzeczywistości od tego czasu ulepszenia procesu układania w stos, zarówno przez Sony, jak i innych producentów, którzy przyjęli tę technologię, zaowocowały cieńszymi czujnikami, co umożliwiło stworzenie cieńszych telefonów.

A co z jeszcze większym układaniem?

Przesuwając obwód poniżej fotodiody, można by pomyśleć, że górna warstwa będzie zajęta wyłącznie przez część przechwytującą światło, prawda? Zło.

Pamiętasz tranzystor? Znajduje się tuż obok fotodiody, zajmując jeszcze więcej cennej przestrzeni do przechwytywania światła. Rozwiązanie? Więcej układania!

Inżynierowie robili to już wcześniej. W 2017 roku Sony ogłosiło czujnik aparatu z pamięcią RAM między fotodiodą a obwodami, umożliwiający nagrywanie filmów w super zwolnionym tempie z prędkością 960 klatek na sekundę. Chodziło o zastosowanie tego samego pomysłu do części istniejącego czujnika.

Teraz fotodioda jest wreszcie w najwyższej części czujnika i tylko fotodioda. To skutecznie podwaja sygnał, który fotodioda może przechwycić, a tranzystor może przechowywać.

Najbardziej natychmiastowym efektem jest podwojenie ilości informacji o świetle, nad którymi musi pracować każdy piksel. I tak jak we wszystkim w fotografii, więcej światła oznacza bardziej szczegółowe zdjęcia.

Ponieważ jednak tranzystor również podwaja swoją pojemność, może lepiej przetwarzać sygnały elektryczne z fotodiody na informacje cyfrowe. Jednym z możliwych zastosowań tego rozwiązania jest redukcja szumów obrazu, co jeszcze bardziej poprawia wygląd zdjęć.

Ułożone czujniki dla lepszej przyszłości

Podczas gdy czujniki jednowarstwowe – fotodioda i tranzystor w jednej warstwie, obwody pod nimi – istnieją już od jakiegoś czasu, czujniki dwuwarstwowe (jedna warstwa dla każdej części) są wciąż nieco nowe. Są one najczęściej używane w profesjonalnych aparatach, a pierwszy telefon komórkowy wyposażony w taki czujnik to Sony Xperia 1 V, który został wprowadzony na rynek w maju 2023 r.

Oznacza to, że technologia jest wciąż w powijakach. Wraz z kilkoma innymi ulepszeniami, które zostały wprowadzone do tej pory w fotografii mobilnej, ułożone w stos Czujniki oznaczają, że aparaty w smartfonach są na drodze do lepszej przyszłości — a raczej jaśniejszej zdjęcie?