Samsung Isocell HP1
Firma Samsung przekroczyła kolejną barierę jeśli chodzi o rozdzielczości matryc w smartfonach. Najnowszy sensor Isocell HP1 oferuje imponujące 200 megapikseli.
Nowa matryca ma rozmiar 1/1.22 cala i rozdzielczość 16384 x 12288, co przekłada się na rozmiar pojedynczego piksela wynoszący 0.64 µm. Przetwornik analogowo-cyfrowy sensora pracuje z 10-bitową głębią.
![]() |
Póki co firma Samsung nie ujawniła informacji, kiedy nowa matryca trafi do masowej produkcji i znajdzie się w smartonach.
Komentarz można dodać po zalogowaniu.
Zaloguj się. Jeżeli nie posiadasz jeszcze konta zarejestruj się.
Największy zawód tego roku ta matryca. Ma aż 200 milionów fotodiod (kosmos) i rozdzielczość filtra Bayera jedynie 12,5 milionów punktów. Co za bezsens.
Kyle
Takie rozwiązanie ma swoje zalety. Grupując piksele po 8x8 lub 16x16 można znacząco obniżyć szumy przez uśrednienie sygnału z każdej komórki, zachowując jednocześnie większą rozdzielczość "czytając" luminancję z każdego piksela.
Skuteczność tej metody widać w aparatach telefonów Huawei
A nie można w końcu przy takiej ilości pikseli zrobić zwyczajnie?
Dać po 1 pikselu na kolor i nic nie usredniac.
Szybkość odczytu robi wrażenie.
@Kyle
"Co za bezsens."
Konkretniej? Ktoś zrobił to lepiej?
BlindClick
Chodzi o szumy. Płytka matrycy CMOS generuje szumy wraz ze wzrostem temperatury. Te szumy zakłócają obraz czytany z matrycy aparatu. Można oczywiście chłodzić matrycę ale wtedy aparat ważyłby kilkanaście kilogramów.
Jest jednak inna metoda. Oprogramowanie AI, które potrafi sczytując informację z sąsiednich pikseli obniżyć szumy przez uśrednianie sygnału. I taki jest sens tak mocno upakowanych matryc dających mniejszą rozdzielczość.
:)))))))))) trzymajcie mnie, bo pęknę ze śmiechu
@Piter
Zacznijmy od tego, że te piksele już są fizycznie pogrupowane i pod każdym senselem np. pod pojedynczym czerwonym, będzie 16 fotodiod (4x4).
Rozdzielczość matrycy nie wpływa na poziom szumów:
link
Przy robieniu naturalnych zdjęć (OpenCamera lub RAW z fabrycznej) dostaniesz marne 12,5 Mpix i sobie nic nie wyinterpolujesz więcej, a to oznacza większe artefakty wynikające z mozaikowania, niż gdyby ta matryca miała rozdzielczość filtra Bayera np. 50 Mpix.
Zdjęcia 200 Mpix dostaniesz z aplikacji producenta, które z powodu nakładanych filtrów i mega interpolacji koloru, będą zlepkiem sztuczności.
@deel77
@15 września 2021, 18:05
>Konkretniej? Ktoś zrobił to lepiej?
Każdy producent zrobił to lepiej. Nawet Samsung w swoich innych matrycach, gdzie nie było aż takiej degradacji rozdzielczości filtra kolorów (Bayera) wzgl. ilości fotodiod (do tej pory było tylko nonacell i tetracell, które tak nie dewastowały rozdzielczości filtra kolorów wzgl. ilości fotodiod)
@Piter
@15 września 2021, 18:12
>Oprogramowanie AI, które potrafi sczytując informację z sąsiednich pikseli
> obniżyć szumy przez uśrednianie sygnału
>. I taki jest sens tak mocno upakowanych
>matryc dających mniejszą rozdzielczość.
Oprogramowanie "Ai" nie bierze w tym procesie udziału. Pixel Binning jest robiony przez prymitywny układ sprzężony z matrycą. Nie zauważyłem by zbinningowane 4 piksele np. 0,8 mikrometra szumiały mniej, od jednego 1,6 mikrometra (jak porównuję zdjęcia RAW z np. Nokia 808 ~1,5 mikro vs Xiaomi mi 10 1,6 mikro po binningu vs realme 7 pro 1,6 mikro po binningu - jak wszystkie mają bardzo podobną wielkość piksela jak i podobny poziom szumów, a zdecydowanie 808 nie szumi bardziej).
Już się boję tym telefonować :D
Ktoś w Samsung powinien dać toto Janko Muzykantowi na tydzień/dwa i kopnąć go... w góry :)
W międzyczasie czekam na testy użytkowników nowego Pixel 6 Py.
Po co 12 bitowy RAW skoro 10 bitowy przetwornik A/C? ;)
Nowość Apple, Iphone 13 ma .. 12 Mpx.
Co do "bezstratnego" powiększania ilości Mpx to ono by może i było takie, gdyby odległość między senselami wynosiła 0. A nie wynosi. Czyli są straty na powierzchni czynnej.
Pisali gdzie indziej, że chcą dojść do ponad 500 Mpx, by osiągnąć rozdzielczość ludzkiego oka. Tylko, że ludzkie oko ma (nawet sumując czopki i pręciki) poniżej 100 Mpx.
Wg mnie w tej gonitwie na Mpx chodzi tylko o AI. te matryce sa maciupkie. Dlaczego aparaty FF nie ścigają sie juz na ilość Mpx? Bo na razie w aparatach nie stosuje sie AI, nie obrabia się w locie jpg.
I m.in dlatego aparaty są wypierane przez smartfony. Canon Nikon i inni sie uparli otrzymywać obraz jak najmniej w niego ingerując. Smartfony ignorują sobie te sprawy. Obraz ma byc bajerancki. Sztuczny czy nie - nieważne, klient (masowy klient) taki obraz chce.I wg mnie w bezlustrach kiedyś o tym pomyślą. Przecież mozna dać opcje wyłączenia Ai (dla ortodoksów).
Jaki jest sens 200 megapiksli? Żeby się sprzedało :-) Nie ma to nic wspólnego ani uśrednianiem, ani z AI.
link
To zostało strzelone na fufu 24 megapiksle, lecz obiektyw to
link
takie cóś (bo nie coś). I nic lepszego nie było tu potrzebne. Bo obraz padł na jakości optycznej powietrza. To jest problem producentów: produkują rzeczy za dobre. Dziś za dobry okazał się nawet ów Samyang. Muszą jakoś nabrać klienta. Nie ma znaczenia dla AI, że na matrycy telefonu jest 200 megapiksli. Bo te piksele nie niosą żadnej informacji. Równie dobrze można rozmnożyć je programowo, a nawet lepiej, bo nie wygenerujemy szumów. Istotne jest to, aby na pudełku znalazła się informacja, że 200 megapiksli. I aby nikt nie podał do sądu, że nabieramy go.
romeczek: "Po co 12 bitowy RAW skoro 10 bitowy przetwornik A/C? ;)"
Dobre pytanie. Jedyne, co mi przychodzi do głowy, to to, że o ile każda fotodioda jest czytana z dokładnością 10 bitów, to - ponieważ jest ich 16 na piksel - wynik dodawania wartości mieści się na 10 + 2^4 = 14 bitach. Więc może RAW - RAW-em, ale konwersję na 12 bitów robią przez jakieś mapowanie LUT?
coś mi się wydaje, że znakomita większość dyskutantów nie ma zielonego pojęcia o czym pisze i próbuje zgadywać w czym rzecz, chyba nie oto chodzi ;)
@Kyle
"Rozdzielczość matrycy nie wpływa na poziom szumów: ... "
to jest bardzo duży skrót myślowy.
Ogólnie gdyby miał wybór między aparatem który ma matryce nominalnie 200Mpix a finalnie daje obraz rozdzielczości 50Mpix a aparatem który ma matryce nominalnie 50Mpix i daje obraz też rozdzielczości 50Mpix, to skłaniałbym się ku temu pierwszemu.(oczywiście zakładając że cała reszta jest taka sama w tym cena)
Niestety, z tymi szumami nie jest tak piknie, jak wynika z uproszczonych szacunków. Oczywiście, Jeśli zapomnimy o technicznych bebechach, to nie ma znaczenia, czy zbieramy sygnał z piksela o powierzchni 2 pikseli, czy z 2 pikseli osobno. Niestety, jest szum elektroniki, jak mamy dwa wzmacniacze, to jest szum z 2 wzmacniaczy jak mamy piksel 2 razy większy i jeden wzmacniacz, to szumi tylko on. Kolejny problem, że obraz jest odtwarzany nieliniowo. Połowa jasnosci neutralny szary to albo 18% albo 13% maksimum zapisywanego przez przetwornik. Potem mamy krzywą gamma, która musi wybijać szum na ciemnych partiach obrazu. Moim zdaniem jedyny powód istnienia tych monstrualnych przetworników, to przekonanie, ze lepiej się sprzedadzą. Optyka nie jest tam w staniej już nic więcej zapisać, robią się kłopoty z odczytem zapisem, przetwarzaniem. Jakiś sens mają matryce ~ 50 megapiksli w aparatach. To jeszcze koresponduje z rozdzielczością optyki. w aparatach, to są jaja z publiki. Na zasadzie znajdzie się g(ł)upi, że kupi.
@baron13
chyba jestem bardzo stary bo pamiętam dyskusje czy przejście z 6Mpix na 8Mpix ma sens. Później były dyskusje 8 na 10, z 10 na 12, z 12 na 16, z 16 na 24 itd itd...
w sumie cały czas ta sama "śpiewka", te same argumenty tylko poziom akceptacji się zmienia. Obecnie akceptowalna rozdzielczość to 50Mpix a za parę lat pewnie będzie to 1GPix i będziemy dyskutować czy 2GPix mają sens.
@Zorr: od zawsze piszę, że to, co potrzeba w prawie wszystkich przypadkach fotografii, to maks 6 megapikseli. Jeśli fotka ma rzeczywiście taką rozdziałkę, to naprawdę dobrze wygląda. Ale w tym wypadku szukamy na siłę jakiegoś technicznego uzasadnienia. Więc patrząc na parametry obiektywów można próbować uzasadniać, że te 50 megapikseli cokolwiek jeszcze daje. Bynajmniej nie tak, że widać na normalnym zdjęciu. Bo nie widać. Ale da się coś wypatrzeć/wymierzyć, na przykład fotografując tablicę. To są dwie różne rzeczy, różne kryteria: co jest potrzebne do zrobienia zdjęcia i co może dać się jakoś wymierzyć, czy wykryć, choć różnice nie mają znaczenia dla zdjęcia. rzecz w tym, że dawno minęliśmy granicę rozsądku fotografa, w tej chwili wchodzimy w poziom technicznej abstrakcji. W przypadku smartfonów to obstawiam że w okolicy 12 megapikseli jest ta granica, za którą różnic ani nie widać np w oglądaniu zdjęć zdjęć w powiększeniu 1:1 na ekranie, ani nie da się niczego wymierzyć. Nie widzę żadnego uzasadnienia, poza wpuszczeniem potencjalnego nabywcy w maliny. Warto przypomnieć, że w swoim czasie skanery miały tzw rozdzielczości interpolowane. W momencie jak wyszły skanery z realnymi rozdzielczościami optycznymi na poziomie 3200 dpi, w skanerach do filmów 7200 dpi, to przestało ludzi rajcować i chyba już nikt się nie wygłupia.
@ad1216 16 września 2021, 08:19
"coś mi się wydaje, że znakomita większość dyskutantów nie ma zielonego pojęcia o czym pisze..."
Zielonego chyba nie, ale za to ma z pewnością blade.
@baron13
@16 września 2021, 11:44
> od zawsze piszę, że to, co potrzeba w prawie wszystkich
> przypadkach fotografii, to maks 6 megapikseli.
Chyba Tobie, bo i tak robisz miniaturki 1,5 megapiksela x-P
stb: "@ad1216
«coś mi się wydaje, że znakomita większość dyskutantów nie ma zielonego pojęcia o czym pisze...»
Zielonego chyba nie, ale za to ma z pewnością blade."
W kontekście demozaikowania z matrycy z filtrem Bayera "niemanie" zielonego pojęcia (przy okazji - wiem w końcu, skąd się to zielone wzięło: [ link ]) to także wyższy poziom ignorancji niż nie mieć pojęcia niebieskiego albo czerwonego? ;)
Stb: ze słownika języka polskiego: "Wyrażenie "ktoś nie ma zielonego pojęcia o czymś (albo bladego pojęcia, albo najmniejszego pojęcia" znaczy tyle, że ten ktoś nic o danej sprawie nie wie." Czytanie forum optycznych czasem edukuje i zwiększa zasób słów i wyrażeń z języka polskiego ;)
@Piter Dzieki.
500MP fotka ogladana przez dziurke wielkosci 2MP wow wow,
no dobra teraz idziemy juz pod 10MP, wiec jest lepiej.
@baron13: „od zawsze piszę, że to, co potrzeba w prawie wszystkich przypadkach fotografii, to maks 6 megapikseli.”
– i od zawsze nie masz racji. :)
@ad1216
"Czytanie forum optycznych czasem edukuje i zwiększa zasób słów i wyrażeń z języka polskiego ;)"
Czasem jest tutaj słowem kluczowym. Czasem wzbogaca o słowa i wyrażenia, których nie ma i pewnie nie będzie.
Nudą tutaj taką powiewa, że aż się wchodzić na portal nie chce.
Pewnie kiedyś upchną i miliard pikseli. I zrobię zdjęcie mrowiska w lesie i będę oglądał każda mrówkę osobno. O ile ta soczewka tyle wyciągnie. Bezsens jakich pełno w dzisiejszych czasach. Tylko żeby się pochwalić, że to oni pierwsi. Ale postęp technologiczny faktycznie jest.
@Lipen
>Pewnie kiedyś upchną i miliard pikseli.
W sumie nie taka abstrakcyjna wizja - to "tylko" 5x tyle, co matryca z rzeczonego tematu. Jednak coś mi mówi, że tych mrówek i tak nie pooglądasz, bo się wszystko o właśnie optykę rozbije.
@Kyle
"coś mi mówi, że tych mrówek i tak nie pooglądasz, bo się wszystko o właśnie optykę rozbije"
Spoko-oko. Sztuczna inteligencja doda tam te mrówki. Nawet jedna siedząca na grzybku będzie paliła fajkę i patrzyła na Rolexa na lewej przedniej nodze...
@wzrokowiec
I tak juz od dawna ludzie sa robieni w przyslowiowe "jajo". Algorytmy wykorzystuja slabosc ludzkiego oka i ludzkiego spostrzegania a filmy sa silnie kompresowane i zabijana jest rzeczywista szczegolowosc obrazu ;) Od wielu lat bazujemy na starej technologii matrycy Bayera gdzie ta matryca jest monochromatyczna czyli slepa na kolory. Dopiero nakladanie kolorowych statycznych filtrow + technika obliczeniowa daje kolory. Caly czas sa jaja z WB i nikt z tym nic sensownego do dzisiaj nie jest w stanie zrobic.
@darekw1967
Przecież matryca Bayera to właśnie jest ten zestaw kolorowych filtrów. Ślepa na kolory, to jest fotodioda, która tylko "mierzy" jasność. Jednak dzięki filtrowi koloru nad tą fotodiodą (np. czerwonemu), wiadomo, że ta fotodioda akurat "mierzy" ilość światła czerwonego (więc ten układ ślepy na kolory ostatecznie nie jest). Oczywiście później zaczyna się prawdziwy kotlet, zwany demozaikowaniem polegający na liczeniu pozostałych składowych koloru z sąsiadujących "pikseli" (co generuje mniej lub bardziej widoczne artefakty, w postaci utraty przekłamań koloru).
>w postaci utraty przekłamań koloru)
miało być:
w postaci przekłamań koloru)