¿Qué cámara digital elegirías para usar objetivos manuales?

Más
8 años 7 meses antes - 8 años 7 meses antes #49 por AlbertTRAL

fotogramos escribió: Albert,
Un hipotético sensor Foeon full frame ¿qué rendimiento habría dado con objetivos angulares simétricos?
Creo que la primera cámara sin anti aliasing fue la kodak dcs 14n y el sensor CCD de la M9 es una evolución posterior de aquel, que tenía 14mpx. Yo tuve esa cámara y la posterior, la slr/n. Eran lentas, estaban pensadas para el estudio y la iluminación muy controlada, porque daban mucho moiré y artefactos raros, pero los colores eran realmente muy bonitos.

¡Mi reino por un módulo Ricoh con el foveon! :)

Creo que mejoraría al nivel de la Sony A7S con sus megapozos, es decir, mejoraría sin duda el corrimiento de color pero no la pérdida de nitidez ya que el IR blocking sigue existiendo y éste es el principal causante del inconveniente, aunque desconozco de qué grosor lo implementa Sigma (¿Alguien tiene idea? aunque debe ser grueso visto el planteamineto de la SD Quattro dirigida sólo a ópticas reflex con una distancia de registro de 44mm... :( ).

dukenuken escribió: Aqui hay un ensayo bien simple y facil de entender donde aplican una deconvolución ciega y no iterativa:
www-rohan.sdsu.edu/doc/matlab/toolbox/images/deblurr9.html

Claramente si no iteras o no puedes de alguna manera estimar mas o menos bien el PSF, la deconvolucion resultante no sirve de mucho. Con esto lo que quiero decir es que si Leica aplica una correccion en el smearing, como minimo deberia saber la distancia pupila-stack, por eso digo que si la camara no sabe que objetivo tiene puesto no va a aplicar ninguna correccion al RAW, ese el razonamiento que aplique al proponer el experimento. Que opinas Albert ?

Desde ya te digo que la respuesta es no, Leica no aplica en los RAW una deconvolución ni de coña. No se el orden de complejidad de esos algoritmos pero se escapan a la potencia de calculo que tienen esas camaras. El camino que ha seguido Leica para mitigar el smearing es el diseño del hardware y han hecho lo que han podido (reducir el sensor stack y aplicar offset en los fotositos alejados del centro).
Las correcciones por deconvolución se suelen aplicar en microscopios y telescopios, muchas veces offline (no en tiempo real) utilizando metodos iterativos para encontrar un PSF que realmente mejore la imagen.

Creo que es exactamente cómo apuntas el experimento, sin duda.

Sigo sin ser tan rotundo cómo tú, ya que, cómo hemos visto, se tienen que deconvolucionar unos 5 píxeles de diámetro cuando la deconvolución de la distorsión geométrica puede estar en el entorno de los 35 píxeles y las cámaras la gestionan sin problemas de potencia de cálculo.

Creo que la necesidad de esa potencia que apuntas aparece cuando tenemos que implementar una deconvolución ciega e iterar (astronomía) pero en este caso que nos ocupa del sensor, la PSF (point spread function o función de dispersión del punto) se tiene totalmente modelizada en todos sus parámetros y se sabe exactamente a dónde irá a parar el punto (al igual que se sabe con la distorsión geométrica). A ver si podemos avanzar con una prueba, sería interesante.

Salud, AlbertTRAL
LFI Gallery
Última Edición: 8 años 7 meses antes por AlbertTRAL.

Por favor, Identificarse o Crear cuenta para unirse a la conversación.

Más
8 años 6 meses antes #50 por dukenuken

AlbertTRAL escribió:

fotogramos escribió: Sigo sin ser tan rotundo cómo tú, ya que, cómo hemos visto, se tienen que deconvolucionar unos 5 píxeles de diámetro cuando la deconvolución de la distorsión geométrica puede estar en el entorno de los 35 píxeles y las cámaras la gestionan sin problemas de potencia de cálculo.

Creo que la necesidad de esa potencia que apuntas aparece cuando tenemos que implementar una deconvolución ciega e iterar (astronomía) pero en este caso que nos ocupa del sensor, la PSF (point spread function o función de dispersión del punto) se tiene totalmente modelizada en todos sus parámetros y se sabe exactamente a dónde irá a parar el punto (al igual que se sabe con la distorsión geométrica). A ver si podemos avanzar con una prueba, sería interesante.


Hola Albert!
El coste computacional varia sobre todo con la cantidad de datos de entrada, la complejidad del algoritmo y el coste de cada instruccion, da igual si el desplazamiento de un pixel son 35 unidades o 5. Ahi radica mi duda...

Si en ambos casos, correccion geometrica o deconvolucion el tamaño de datos de entrada y salida son los mismos (18Mpx) y suponiendo que las operaciones de deconvolucion fueran comparables a las de una correccion geometrica (desconozco el algoritmo) cosa que dudo porque una correccion geometrica es muchisimo mas facil de hacer, digamos que se podria modelar casi con una funcion "campo-vectorial simple" mientras que una deconvolucion es probable que implique calculos bastante mas complejos.
Lo que quiero decir es que puedes tener que dos algoritmos tengan un Big-O de O(1) (constante) y uno ser 10 o 100 veces mas lento que otro segun que instrucciones requiera en segun que hardware.

Bueno el caso es que hize la prueba con mi M9P + Lux35 FLE codificado y sin codificar y estos son los resultados para un tercio de la imagen (donde ya deberia verse smearing):
Archivo Adjunto:
deconvolucion by Luis , en Flickr

No voy a decir que imagen es codificada cual no, para no para no condicionar al observador, pero vamos, que son iguales... no hay deconvolucion :(

El siguiente usuario dijo gracias: AlbertTRAL

Por favor, Identificarse o Crear cuenta para unirse a la conversación.

Más
8 años 6 meses antes #51 por AlbertTRAL
Gracias por la prueba Luis, sinceramente yo las veo prácticamente idénticas, tal vez el dng pueda decir algo, pero creo que la muestra no ayuda a discernir diferencias ya que es una imagen con baja acutancia en general. Creo que para ver algo mas claro, se debería usar una carta de calibración con varias estrellas de siemens, por ejemplo, me refiero a que si no soy capaz de ver una corrección geométrica de 35px que sé positivamente que existe, difícilmente podré evaluar una corrección de 5px de la que no estoy seguro de su existencia...

Pienso que sigues siendo realmente radical al evaluar la corrección geométrica como "muchísimo mas fácil", tenemos que tener en cuenta que esta corrección geométrica varía con la distancia al centro con una función no lineal de al menos sexto orden... yo personalmente no me atrevo a emitir un juicio tan taxativo desconociendo ambas funciones para poder comparar su carga computacional y si utilizamos una aproximación campo vectorial tabulada, la carga computacional sería idéntica para ambas tabulaciones una vez establecidas estas tablas relacionales por firmware...

Sigamos que, cómo el chiste, si hay un San José, saldrá...jejeje. Intentaré hacer alguna prueba con la cámara de algún amigo de la merienda de los jueves... espero mas pronto que tarde...

Salud, AlbertTRAL
LFI Gallery

Por favor, Identificarse o Crear cuenta para unirse a la conversación.

Más
8 años 6 meses antes #52 por dukenuken
Jeje si quizas soy demasiado categorico (fiel a mi estilo). Realmente no tengo idea si es una cuestion de coste computacional o no lo hicieron por otro motivo. Pero he trabajado con procesadores dedicados (GPUs) y te dire que es HW muy especifico, que operaciones de pixel normales lo hacen impresionantemente rapido y tal, pero cuando quieres aplicar una formula y esta formula depende de pixeles aledaneos o instrucciones para los que no esta realmente optimizado el HW, va lento que te mueres. La velocidad de las GPU en gran medida es debido a que puedes hacer stream processing, algo que se lleva muy mal con lo que dije antes de "leer pixeles aledaneos" por los accesos a memoria fuera de una unidad de stream. Es una charla que da para mas que un foro... pero es interesante.

La toalla tienes razon, tiene muy poca acutancia y lo peor es que es solo un canal, a ver si ahora en un rato puedo probar con otra que tenga algo mas de detalle gordo, algo donde se pueda ver mejor tanto el smearing como la no-correccion (o correccion si la hay).

Sabes, yo creo que otro de los motivos por los que no han metido una deconvolucion tiene que ver con que es probable que las variaciones del hardware (montura, sensor, óptica) se desvie del modelo y en algunos casos termine produciendo artefactos en la imagen. Es decir, que joda mas la imagen de lo que la arregla....

Por favor, Identificarse o Crear cuenta para unirse a la conversación.

Más
8 años 6 meses antes #53 por dukenuken
Otro comentario a destacar:
"Finally, the M9 does not have a precise idea of the working aperture (it computes it by comparing TTL light with an external sensor), and the deconvolution function to apply would depend on the precise aperture to be effective, because the amount of diffusion due to the glass in front of the sensor depends on the lens aperture."

theonlinephotographer.typepad.com/the_online_photographer/2013/10/two-reasons.html?cid=6a00df351e888f8834019b00270b9e970b#comment-6a00df351e888f8834019b00270b9e970b

En respuesta a aquel comentario de Bruno Masset.

Por favor, Identificarse o Crear cuenta para unirse a la conversación.

Tiempo de carga de la página: 0.106 segundos