J  |  19. 04. 2016 16:16

Já to stále nechápu. Že je to dobrá hračka tomu rozumím, ale cílit na filmaře? To jsou v Hollywoodu takový nýmandi, že nemají přesnou představu o tom jak má záběr vypadat, že neví kam vlastně chtějí mít zaostřeno a s jak velkou HO, že to budou ladit až po natočení? Vždyť výsledek po úpravách a randrování bude stejně srovnatelný s normálním videem, v kině rozdíl nepoznám, tak proč si to nepromyslí předem a nenatočí to konvenční kamerou rovnou tak jak to dělali do teď a s polovičními náklady (a asi i časem)? Mám dojem že je to možná dobré na nějaký výzkum, produktovou fotografii, nebo mapování prostoru - možná vytváření prostředí do her, ale film? Jsem vážně zvědavý jestli se to chytne, nebo to čeká stejný osud jako ty předchozí...

Odpovědět  |  Souhlasím  |  Nesouhlasím
Pike  |  20. 04. 2016 09:34

Asi tím cílí na "skutečné" 3D filmy nebo aktuálně populární virtuální realitu. Problém vidím v tom, že to co představili zatím nevypadá ani vzdáleně jako něco, co by bylo dodělané, funkční řešení. Podle mě tlačí PR, aby si jich všiml nějaký větší hráč v oboru a koupil je - koneckonců i ty jejich předchozí "revoluční produkty" žádnou revoluci nepředvedli.

Odpovědět  |  Souhlasím  |  Nesouhlasím
J  |  20. 04. 2016 10:19

Dělám občas anaglyfy, takže vím, že pro 3D iluzi se musí každému oku přidělit obraz z trochu jiného úhlu - tak jak to oči v reálu vidí. Když tedy koukám na předmět v prostoru vidím pozadí za ním každým okem z jiné strany. Mozek zjišťuje vzdálenost předmětu podle úhlu jaký při jeho sledování svírají oči a tím vytváří prostorové vnímání. To nelze nasnímat z jednoho místa i když bude mít každý pixel informaci o vzdálenosti bude tam jednoduše chybět ten kousek obrazu který bych z druhého úhlu (druhého oka) viděl. Neříkám, že z toho nějaký pseudo 3D efekt nepůjde udělat (tak jak to dělají některé dnešní TV), ale rozhodně to nebude plnohodnotné, to lze vytvořit jen dvěma kamerami (fotoaparáty) posunutými od sebe o vzdálenost očí a následným spojením těchto obrazů - tak jak se to dělá odjakživa.

Odpovědět  |  Souhlasím  |  Nesouhlasím
Pike  |  20. 04. 2016 22:03

Já myslím, že to je nepochopení toho, čím se lytro ohání. Lytro tvrdí, že scénu rovnou snímají jako 3D obraz - ve videu uvádí, že každý pixel v každém snímku videa má tři údaje o pozici daného pixelu v prostoru snímané scény a informaci o barvě, tedy v podstatě je každý snímek rovnou 3D modelem dané scény. Z něj nebude tedy problém dopočítat údaje pro druhé oko, pokud bychom uvažovali konveční 3D, které se dnes běžně v kině/tv užívá nebo třeba tu VR. Těžko říct, jestli mají v záloze nějakou technologii, která by to uměla ukázat nativně - moc bych na to nesázel, ani to video neukazuje o moc víc než uměly mini lytro kamerky, nemluvě o tom, že tam u těch ukázek občas probleskne, že to je "computer generated". Věřím spíš tomu, že to v reálu bude bublina. Už jen představa, že zachycuji 755 Mpx RAW tempem 300 snímků za vteřinu s ekvivalentem 16 EV - nedovedu si představit, jak a kam ty data ukládají a na čem je zpracovávají je úsměvná.

Odpovědět  |  Souhlasím  |  Nesouhlasím
L.  |  21. 04. 2016 09:11

No, 3D model sice mohou udělat, ale za překážky ani Lytro nevidí, kdežto druhé oko (trochu) ano. Leda by měli ještě nějaký chytrý algoritmus co ty chybějící kousíčky doaproximuje.

Odpovědět  |  Souhlasím  |  Nesouhlasím
J  |  21. 04. 2016 19:54

Je to přesně jak napsal L. plnohodnotně to prostě nejde...

Odpovědět  |  Souhlasím  |  Nesouhlasím
digitalrev Tv  |  19. 04. 2016 22:52

to Lytro 3. gen:
jde tam udělat krémový bokeh ?
jak to vypadá ?
jako klasické gaussovské rozetření z Ps a podobných programů,
anebo jako Nikkor 85mm 1.4, Zeiss Otus atd ?

Odpovědět  |  Souhlasím  |  Nesouhlasím
Zasílat názory