AI pomoże w odszumianiu zdjęć
Naukowcy z firmy NVIDIA, Uniwersytetu w Aalto oraz MIT opracowali algorytm wykorzystujący sztuczną inteligencję do odszumiania zdjęć. Ciekawostką jest nowe podejście do zagadnienia.
Dotychczasowe próby uczenia sieci neuronowych wykorzystywanych do odszumiania obrazu polegały na wprowadzeniu par zdjęć: wypełnionego zakłóceniami oraz wolnego od nich. Tym razem zastosowano nowe, a w pewnych przypadkach znacznie prostsze podejście - do systemu wprowadza się jedynie zaszumione obrazy. Proces wykorzystuje tzw. głębokie uczenie (deep learning), a do opracowania nowego algorytmu póki co wykorzystano 50000 zdjęć.
![]() Źródło: news.developer.nvidia.com |
![]() Źródło: news.developer.nvidia.com |
![]() Źródło: news.developer.nvidia.com |
![]() Źródło: news.developer.nvidia.com |
Komentarz można dodać po zalogowaniu.
Zaloguj się. Jeżeli nie posiadasz jeszcze konta zarejestruj się.
Niesamowite... piorunujące !!!
Z tak efektywnym odszumianiem parcie na większe matryce nie będzie miało sensu, przynajmniej dla 99% użytkowników.
Niedługo i bokeh w ten sposób się będzie robiło. To co obecnie jest w telefonach to dopiero początek.
Ja czekam na matryce 35mm z wbudowanym TOF. Najbliżej do pomysłu ma Sony który z półprzepuszczalnym lustrem :)
Jakiś czas temu w PSie wprowadzono funkcję poprawy poruszonych zdjęć. Też zapowiadano to jako wielką rewolucję a wyszło jedno wielkie gówno, z którego nikt nie korzysta.
"Niesamowite... piorunujące !!!" - pod warunkiem, że to prawda. Żeby nie było tak jak z procesorami a9 w telewizorach LG. Porównywane są dwa obrazy tzw. Conventional i ten piękny po obróbce przez procesor a9. Jest tylko jedno małe zastrzeżenie, że obraz pod nazwą Conventional jest tak kiepskiej jakości, że prawie tam nic nie widać. Nawet najtańszy telewizor, pokonał by Conventional.
99% użytkowników będzie chciało zobaczyć szczegóły na zdjęciach. Cera skóry jak u manekina niekoniecznie będzie mile widziana (zapewne nie u wszystkich).
A Corel zrobił program do dodawania ruchu np. chmur lub wody do pojedynczego zdjęcia (za niecałe 70 USD) link
@ac
A przepraszam, co dostaniesz dzisiaj robiąc fotkę na ISO 400000?
W przypadku kolorowej ciapki na zdjeciach pandy czy jedzenia to wydaje się możliwe ale tą astronomią to bym nie przesadzał - tam już teraz panuje zaawansowana obróbka i stakowanie nie sądzę aby to pomogło istotnie przy obróbce punktowych obiektów
Gdyby chłopaki z MIT czytywali forum Optyczne.pl, to nie marnowaliby czasu na wymyślanie jakichś bzdurnych algorytmów.
@fucjusz to nie panda lecz koala :)
kebab666
@fucjusz to nie panda lecz koala :)
Przed odszumianiem to była panda ;)
@este
"Przed odszumianiem to była panda ;)"
:-))))))))
Czekać tylko momentu kiedy to AI będzie robiła zdjęcia a nie "fotograf".
A z mniej pesymistycznych - czyżby otwierał się nowy rozdział dla małych matryc?
mkol, nie trzeba czekać, google clips to aparacik który sobie przyczepiasz i o nim zapominasz a on sam robi zdjęcia i filmy gdy algorytm uzna że dzieje się coś ciekawego, eliminując z procesu tworzenia fotografii najsłabsze ogniwo czyli fotografa :-D
a odszumianie... takie samo działa u nas cały czas "w oczach".
czyli nareszcie zbliżamy się w fotografii do natury, odchodząc od bezdusznej reprodukcji poziomów natężenia światła w matrycach aparatów i jeszcze bardziej bezdusznych procesów chemicznych w kliszy :-P
@Beginner,
"Gdyby chłopaki z MIT czytywali forum Optyczne.pl, to nie marnowaliby czasu na wymyślanie jakichś bzdurnych algorytmów"
Algorytmy wymyślają się same :) Wrzucasz milion zdjęć zaszumionych, milion bez szumu i masz algorytm*
*dobranie odpowiednich zdjęć to główny problem.
"Niedługo i bokeh w ten sposób się będzie robiło" - jak sie ma dostep do oryginalnego "Dual pixel" to juz mozna
@mkol: "Czekać tylko momentu kiedy to AI będzie robiła zdjęcia a nie "fotograf"."
link
Takie algorytmy juz funkcjonuja w swiecie rendererow. Corona, Vray, Octane, FinalRender juz to wdrozyly, gdy tylko Nvidia to opracowala. Tak, ze przewidywania autora o rewolucji w cyfrowym swiecie troche spoznione.
Oczywiście że to już funkcjonuje, na moim Samsungu 55' po włączeniu starego filmu przez jakieś 2 sekundy widzę tak jak wygląda w naturze czyli zaszumiony, szary, piksekseloza jakaś ale po chwili telewizor jak by się nauczył odpowiedniego poprawiania i obraz staje się wyraźny ładny bez zarzutu.
Producenci dodadzą ten algorytm do swoich aparatów i będą się chwalić jeszcze większym świetnym ISO nie zmieniając nic w matrycy ;)
Z tymi namisami to przesadzili :)