Przetwarzanie danych osobowych

Nasza witryna korzysta z plików cookies

Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie, a także do prawidłowego działania i wygodniejszej obsługi. Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług i innych witryn.

Masz możliwość zmiany preferencji dotyczących ciasteczek w swojej przeglądarce internetowej. Jeśli więc nie wyrażasz zgody na zapisywanie przez nas plików cookies w twoim urządzeniu zmień ustawienia swojej przeglądarki, lub opuść naszą witrynę.

Jeżeli nie zmienisz tych ustawień i będziesz nadal korzystał z naszej witryny, będziemy przetwarzać Twoje dane zgodnie z naszą Polityką Prywatności. W dokumencie tym znajdziesz też więcej informacji na temat ustawień przeglądarki i sposobu przetwarzania twoich danych przez naszych partnerów społecznościowych, reklamowych i analitycznych.

Zgodę na wykorzystywanie przez nas plików cookies możesz cofnąć w dowolnym momencie.

Optyczne.pl

Aktualności

Nowa matryca Sony

Nowa matryca Sony
27 maja
2010 09:38

ICX681SQW to oznaczenie nowej matrycy CCD opracowanej przez firmę Sony. Sensor o efektywnej rozdzielczości 14.2 Mpix (4352 × 3264 pikseli) i wielkości 1/2.3 cala (przekątna 7.791 mm) wyróżnia się niespotykaną do tej pory wielkością pojedynczego piksela, która wynosi zaledwie 1.43 μm.

Taki wynik udało się osiągnąć dzięki zastosowaniu układu dwóch mikrosoczewek skupiających umieszczonych nad każdym pikselem. Inne procesy miniaturyzacyjne doprowadziły także do zmniejszenia poboru mocy o ok. 12% – spadek z 431 mW do 378 mW.

Nowa matryca Sony
Schemat ilustrujący porównanie nowego sensora z tradycyjną matrycą z jedną mikrosoczewką nad pikselem.

Matryca może rejestrować filmy wideo w rozdzielczości HD 720p, a także obrazy o wysokiej czułości w rozdzielczości 3.55 Mpix i przy prędkości 5.4 kl/s. W tym wypadku wykorzystuje się sygnał sczytany przez cztery sąsiednie piksele.

Nowy produkt znajdzie zastosowanie głównie w cyfrowych aparatach kompaktowych.


Komentarze czytelników (29)
  1. marc07
    marc07 27 maja 2010, 10:09

    hmm.. a wydawało mi sie że im większy element na matrycy (mniejsza przekątna matrycy) tym mniejszy szum.

  2. rolech
    rolech 27 maja 2010, 10:15

    podejrzewam ze chodzi tu o to, iz uklad soczewek skupiajacych zbiera swiatlo z podobnej powierzchni co w przypadku starszych matryc (z jedna soczewka i pikselem 1.55 μm), ale dzieki mniejszemu rozmiarowi pikseli sa one luzniej ulozone na matrycy przez co oddzialywania miedzy nimi sa mniejsze.

  3. cedrys
    cedrys 27 maja 2010, 10:46

    Ciekawe jak się taką mikrooptykę wykonuje w procesie litograficznym. Z pewnością taki dwuelementowy kondensor jest sprawniejszy optycznie a ponadto można go ulepszać, np. korygując aberrację chromatyczną. Ciekawe również na ilu soczewkach się skończy i czy wymyślą zoom piezoelektryczny, gdzie będzie można soczewki przesuwać osiowo albo tilt przez pochylanie mikrosoczewek w narożnikach w zależności od zastosowanego obiektywu. W ciekawych czasach żyjemy. No, no -- viva Sony!

  4. sparky81
    sparky81 27 maja 2010, 10:49

    "Matryca może rejestrować filmy wideo w rozdzielczości HD 720p, a także obrazy o wysokiej czułości w rozdzielczości 3.55 Mpix i przy prędkości 5.4 kl/s. W tym wypadku wykorzystuje się sygnał sczytany przez cztery sąsiednie piksele. "

    czekam na ta technologie w 40mp nastepcy a900.... 40mp dla detali lub 10mp dla wysokiego iso i szybkostrzelnosci...

  5. gregg
    gregg 27 maja 2010, 11:35

    co to za słowo "sczytany"?

  6. rolech
    rolech 27 maja 2010, 11:40

    gregg - link

    a jedna z osob ladnie to wyjasnila w komentarzach w podanym linku:

    "Czesto używane w informatyce jako określenie dotyczące odczytania pewnej kompletnej porcji danych związanej z jej umiejscowieniem na innym nośniku danych. Np. sczytanie zdjęć z aparatu, sczytanie z różnego rodzaju rejestratorów itp."

  7. amas
    amas 27 maja 2010, 12:08

    cedrys, w zasadzie nie ma znaczenia czy aberracja jest większa czy mniejsza, skoro całe światło pada na powierzchnię jednego piksela. Jak na jednym pikselu chciałbyś oszacować np. aberrację chromatyczną?
    W praktyce zapewne okaże się, że ta matryca niczym szczególnym nie będzie się wyróżniac...

  8. Matt
    Matt 27 maja 2010, 12:18

    moze raczej zczytać? chyba ten kto to wymyslil zbyt wiele wczesniej nie "sczytal"

  9. cedrys
    cedrys 27 maja 2010, 12:28

    Matt, cz jest spółgłoską bezdźwięczną i dlatego poprzedzamy ją również bezdźwięcznym s. Jak nie lubisz zasad spraw sobie "NOWY SŁOWNIK ORTOGRAFICZNY" PWN.

    amas, przestudiuj zasadę działania filtrów Bayera oraz proces demozaikowania obrazu a przekonasz się, że aberracja chromatyczna ma znaczenie. Już wcześniej na ten temat czytałem ale nie mam linka.

  10. gregg
    gregg 27 maja 2010, 12:44

    To może tak?
    czytać => sczytać
    czytać => fczytać :)))))) (zamiast wczytać) :))))

  11. Domino
    Domino 27 maja 2010, 14:01

    gregg- niestety nie masz racji.
    tu chodzi o slowotworcze - spis, spisac i spisany / sczytac, sczytany.
    Twoje wczytac i to inne slowo poniewaz nie istnieje samodzielnie jako "wczyt", zato zaistnialo samodzielnie jako wczytac. I dlatego dane wczytujemy.

    sory za brak polskich zn.

  12. Domino
    Domino 27 maja 2010, 14:05

    wczyt
    link

  13. rolech
    rolech 27 maja 2010, 16:52

    Panowie, starczy slowotworstwa. Wracamy do matryc

  14. Bilbo
    Bilbo 27 maja 2010, 17:40

    Sony chyba sczytuje .... a może szczytuje ... ?
    ;)
    sorki nie mogłem się powstrzymać ;D

  15. Yura
    Yura 27 maja 2010, 18:30

    @cedrys - no to mi też wytłumacz, do czego miałaby służyć korekcja aberracji dla jednego piksela - i nie wiem czy chodzi Ci o korekcje aberracji pochodzącej z obiektywu (to miałoby jakiś tam sens, ale dla tak małego obszaru jak piksel , to chyba by się pryzmat przydał, a nie dwie soczewki), czy chodzi ci o korekcję spodziewanej aberracji z soczewek nad pikselem - a to wydaje mi się kompletnie bez sensu, bo po co. Przecież dla piksela Bayera chodzi tylko o natężenie światła, a nie o informacje o długości fali.
    Jak dla mnie dwie soczewki są po to, aby skuteczniej załamać światło, dzięki czemu soczewki można przybliżyć bardziej do sensora - w końcu po coś ten "thinner film electrode" z rysunku jest "thinner" :)

  16. cedrys
    cedrys 27 maja 2010, 19:02

    Yura, gdyby chodziło o samo przybliżenie mikrosoczewki wystarczyłoby zmniejszyć jej ogniskową, co w efekcie dałoby miniaturę rybiego oka. Weź zrób eksperyment z silna lupą (jednosoczewkową) i umieść pod nią płytkę z zielonego szkła, następnie zogniskuj obraz słońca na okręgu powiedzmy 60% średnicy lupy. Zobacz jak równomierny będzie rozkład jasności na tej powierzchni. Fotosensory (zwane fotodiodami) mają różną konstrukcję: jedne podobnie do fotorezystorów mają postać meandra inne postać mozaiki. Nieważne jak są skonstruowane, ważne aby kondensor równomiernie oświetlał powierzchnię fotosensora, gdyż tylko wtedy zostanie wyłapana najdokładniej energia fotonów. Jeśli mikrosoczewka będzie miała aberracje chromatyczną to rozkład będzie nierównomierny i będą obszary "przepalone", jak na zdjęciu - a przepalone znaczy utracone bezpowrotnie. Na tym poziomie nie ma już RAW-ów. Długość fali ma oczywiście znaczenie.

  17. Yura
    Yura 28 maja 2010, 04:12

    Dalej nie rozumiem. Przecież piksel na matrycy, to kolektor - kawałek krzemu i nieważne gdzie uderzy foton, ważne że uderzy. Informacja jest zbierana na zasadzie jest / nie ma, a nie czy jest w środku, czy z boku.
    Skoro jedna soczewka ma za zadanie "ścisnąć" światło tak żeby trafiało w detektor, a nie latało i obijało się po "infrastrukturze", to druga ma chyba to tylko usprawnić? Cały czas mi się rozchodzi po co druga soczewka, jak nie właśnie po to.

  18. cedrys
    cedrys 28 maja 2010, 07:59

    Yura, nie jest tak jak sobie wyobrażasz, dlatego nie pasuje Ci ta druga soczewka. Jeden piksel to studzienka fotonowa o rzeczywistych wymiarach i zdolności wyłapywania fotonów dochodzącej do kilku tysięcy. To nie jest abstrakt matematyczny punktu w przestrzeni euklidesowej. Dno tej studzienki przypomina powierzchnię nowoczesnego fotoogniwa a ściany boczne wykorzystują zjawisko całkowitego wewnętrznego odbicia. Spróbuj sobie wyobrazić gdy promień pada na tradycyjną silnie wypukłą mikrosoczewkę w narożniku, pod dużym kątem do osi optycznej. Częściowo przechodzi on przez nią i trafia na sąsiednią rozmazując obraz, co powoduje spadek rozdzielczości w narożnikach. Nowe rozwiązanie zmniejsza ten szkodliwy efekt. Sony wie co robi...

  19. Szabla
    Szabla 28 maja 2010, 11:26

    Ale piksel jedynie przetwarza sygnał świetlny na prądowy... ;)

  20. cedrys
    cedrys 28 maja 2010, 12:43

    Szabla, tak, bo to jest przetwornik jednej formy energii na drugą. Jak każdy przetwornik ma swoją sprawność i jest ona dużo mniejsza od 100%. Taką najprostszą formą są coraz popularniejsze ogniwa fotowoltaiczne.
    Ostatnio zrobiłem sobie światłomierz do kontroli oświetlenia monitora podczas wywoływania RAW-ów. W Netto kupiłem dwa gadżety: jeża-latarkę z takim ogniwem o wymiarach 1"x1" (10 zł) oraz multimetr cyfrowy (25 zł). Jeża rozbiłem i wydobyłem z niego tylko to ogniwo. Po podłączeniu do miernika daje ono napięcie 0,1 V (za ciemno) do 2,2V (za jasno). Komfort to 0,7V - 0,9V. Przykręcając żaluzje ustawiam sobie to napięcie na 0,8V i wywołuję zdjęcia. Oczywiście dobrze jest jak monitor jest skalibrowany co jakiś czas. Jak ktoś ma więcej kasy może sobie takie urządzenie kupić gotowe. W efekcie zdjęcia wyglądają bardziej profesjonalnie, mają jednakową równowagę bieli.

  21. amas
    amas 28 maja 2010, 14:57

    cedrys, wyrażaj się trochę precyzyjniej, bo nie do końca wiadomo, o co ci chodzi. Jak twierdzisz, że nierównomierne oświetlenie powierzchni piksela (np. z powodu aberracji) może powodowac przepalenia, to coś tu jest nie halo. Przepalenie następuje, gdy czujnik (pixel) osiągnie limit swojej pojemności (wyrażanej w elektronach, czyli ładunek elektryczny). Fotony wybijają elektrony, pixel je zbiera i potem to jest czytane i przetwarzane. Skoro na światłoczułą powierzchnie pada tyle samo fotonów, tylko nieco inaczej rozłożonych, to "wyprodukują" one mniej więcej ten sam ładunek.
    Podaj jakiegoś linka, jak masz informację o zasadzie działania detektora, bo chętnie poczytam i może się dokształcę.

  22. cedrys
    cedrys 28 maja 2010, 15:33

    amas, w internecie masz pełno artykułów na ten temat, ale jak to w internecie: są bzdury pomieszane z nieaktualnymi śmieciami. Weź np. taki: link
    Wstaw do googla zapytanie studnia fotonowa a jak znasz angielski to photon well. Jeszcze lepsze są artykuły na stronach producentów, ale trzeba sobie zdawać sprawę z tego, że to wszystko jest popatentowane. Z kolei czytania opisów patentowych nie polecam. U Optycznych za szkolenie odpowiada dr Kokosa. Koniec tematu.

  23. amas
    amas 28 maja 2010, 15:46

    No i widzisz... czegoś takiego jak photon well nie ma... Zapewne chodziło o studnię potencjału, albo "electron well". Dlatego pisałem o precyzyjnym wyrażaniu się, bo to nie jest dyskusja o nowej fryzurze Dody, tylko ściśle techniczne sprawy.

  24. cedrys
    cedrys 28 maja 2010, 16:23

    amas, a to co?, niedowidzący: www.opticsinfobase.org › Optics Express › Volume 17 › Issue 15

  25. amas
    amas 28 maja 2010, 23:44

    A czytasz to, na co się powołujesz? Tam używają terminu quantum well. I tylko tego. Ta konwersacja zrobiła się już bezsensowna.
    Wracając do artykułu - różnica w porównaniu z obecnymi matrycami z mikrosoczewkami jest taka, że powierzchnia zbierająca mikrosoczewki jest większa w stosunku do powierzchni piksela, i pewnie nie udało im się (albo nie opłacało) zrobić odpowiednio precyzyjnej/sprawnej pojedynczej mikrosoczewki, to zrobili dwie, a potem swoje robi już marketing.

  26. nowoka1na
    nowoka1na 31 maja 2010, 03:08

    Nie irytujcie mnie proszę tymi drobnomieszczańskimi dywagacjami o poprawnej polszczyźnie, kiedy mowa o zwrotach oczywistych:
    nie ma wyrazu "sczytać" , nieważne jak bardzo byście chcieli. Jest to wyraz należący do gwary środowiskowej, czyli jest grypsem, powiedzonkiem, slangiem itd. Nie ma go w słowniku, chyba, że mowa o wydaniu podwórkowym. W tekście jest po prostu błąd, albo jak kto woli - pisany jest po części slangiem. To ta sama szuflada co "szkło" w przypadku obiektywu.
    Jak się pojawi w powszechnych publikacjach zylion razy to może zostanie zaadaptowany. Puki co - JEST TO SLANG.

  27. tonto27
    tonto27 31 maja 2010, 20:07

    zamiast poprawić dynamikę to oni bawią się ze zmniejszaniem pikseli .... kiedy się doczekamy od SONY matryc które zamiast liniowo rejestrują logarytmicznie ... polecam wszystkim zainteresowanym zobaczy link ..... przetwornik .LINLOG ..eliminuje bolączki obecnych matryc ..możne to nie w temacie ale coś ciekawego zamiast bzdurnych soczewek nad soczewkami i małymi pikselami ...

  28. tonto27
    tonto27 31 maja 2010, 21:23

    www.photonfocus.com/html/eng/cmos/linlog.php

  29. Szabla
    Szabla 1 czerwca 2010, 00:17

    dżizas... ;))))

Napisz komentarz

Komentarz można dodać po zalogowaniu.


Zaloguj się. Jeżeli nie posiadasz jeszcze konta zarejestruj się.