¿Qué cámara digital elegirías para usar objetivos manuales?
- AlbertTRAL
- Fuera de línea
- Leicanista Avanzado
- Mensajes: 339
- Gracias: 150
¡Mi reino por un módulo Ricoh con el foveon!fotogramos escribió: Albert,
Un hipotético sensor Foeon full frame ¿qué rendimiento habría dado con objetivos angulares simétricos?
Creo que la primera cámara sin anti aliasing fue la kodak dcs 14n y el sensor CCD de la M9 es una evolución posterior de aquel, que tenía 14mpx. Yo tuve esa cámara y la posterior, la slr/n. Eran lentas, estaban pensadas para el estudio y la iluminación muy controlada, porque daban mucho moiré y artefactos raros, pero los colores eran realmente muy bonitos.
Creo que mejoraría al nivel de la Sony A7S con sus megapozos, es decir, mejoraría sin duda el corrimiento de color pero no la pérdida de nitidez ya que el IR blocking sigue existiendo y éste es el principal causante del inconveniente, aunque desconozco de qué grosor lo implementa Sigma (¿Alguien tiene idea? aunque debe ser grueso visto el planteamineto de la SD Quattro dirigida sólo a ópticas reflex con una distancia de registro de 44mm... ).
Creo que es exactamente cómo apuntas el experimento, sin duda.dukenuken escribió: Aqui hay un ensayo bien simple y facil de entender donde aplican una deconvolución ciega y no iterativa:
www-rohan.sdsu.edu/doc/matlab/toolbox/images/deblurr9.html
Claramente si no iteras o no puedes de alguna manera estimar mas o menos bien el PSF, la deconvolucion resultante no sirve de mucho. Con esto lo que quiero decir es que si Leica aplica una correccion en el smearing, como minimo deberia saber la distancia pupila-stack, por eso digo que si la camara no sabe que objetivo tiene puesto no va a aplicar ninguna correccion al RAW, ese el razonamiento que aplique al proponer el experimento. Que opinas Albert ?
Desde ya te digo que la respuesta es no, Leica no aplica en los RAW una deconvolución ni de coña. No se el orden de complejidad de esos algoritmos pero se escapan a la potencia de calculo que tienen esas camaras. El camino que ha seguido Leica para mitigar el smearing es el diseño del hardware y han hecho lo que han podido (reducir el sensor stack y aplicar offset en los fotositos alejados del centro).
Las correcciones por deconvolución se suelen aplicar en microscopios y telescopios, muchas veces offline (no en tiempo real) utilizando metodos iterativos para encontrar un PSF que realmente mejore la imagen.
Sigo sin ser tan rotundo cómo tú, ya que, cómo hemos visto, se tienen que deconvolucionar unos 5 píxeles de diámetro cuando la deconvolución de la distorsión geométrica puede estar en el entorno de los 35 píxeles y las cámaras la gestionan sin problemas de potencia de cálculo.
Creo que la necesidad de esa potencia que apuntas aparece cuando tenemos que implementar una deconvolución ciega e iterar (astronomía) pero en este caso que nos ocupa del sensor, la PSF (point spread function o función de dispersión del punto) se tiene totalmente modelizada en todos sus parámetros y se sabe exactamente a dónde irá a parar el punto (al igual que se sabe con la distorsión geométrica). A ver si podemos avanzar con una prueba, sería interesante.
Salud, AlbertTRAL
LFI Gallery
Por favor, Identificarse o Crear cuenta para unirse a la conversación.
- dukenuken
- Fuera de línea
- Leicanista Experto
AlbertTRAL escribió:
fotogramos escribió: Sigo sin ser tan rotundo cómo tú, ya que, cómo hemos visto, se tienen que deconvolucionar unos 5 píxeles de diámetro cuando la deconvolución de la distorsión geométrica puede estar en el entorno de los 35 píxeles y las cámaras la gestionan sin problemas de potencia de cálculo.
Creo que la necesidad de esa potencia que apuntas aparece cuando tenemos que implementar una deconvolución ciega e iterar (astronomía) pero en este caso que nos ocupa del sensor, la PSF (point spread function o función de dispersión del punto) se tiene totalmente modelizada en todos sus parámetros y se sabe exactamente a dónde irá a parar el punto (al igual que se sabe con la distorsión geométrica). A ver si podemos avanzar con una prueba, sería interesante.
Hola Albert!
El coste computacional varia sobre todo con la cantidad de datos de entrada, la complejidad del algoritmo y el coste de cada instruccion, da igual si el desplazamiento de un pixel son 35 unidades o 5. Ahi radica mi duda...
Si en ambos casos, correccion geometrica o deconvolucion el tamaño de datos de entrada y salida son los mismos (18Mpx) y suponiendo que las operaciones de deconvolucion fueran comparables a las de una correccion geometrica (desconozco el algoritmo) cosa que dudo porque una correccion geometrica es muchisimo mas facil de hacer, digamos que se podria modelar casi con una funcion "campo-vectorial simple" mientras que una deconvolucion es probable que implique calculos bastante mas complejos.
Lo que quiero decir es que puedes tener que dos algoritmos tengan un Big-O de O(1) (constante) y uno ser 10 o 100 veces mas lento que otro segun que instrucciones requiera en segun que hardware.
Bueno el caso es que hize la prueba con mi M9P + Lux35 FLE codificado y sin codificar y estos son los resultados para un tercio de la imagen (donde ya deberia verse smearing):
deconvolucion by Luis , en Flickr
No voy a decir que imagen es codificada cual no, para no para no condicionar al observador, pero vamos, que son iguales... no hay deconvolucion
Por favor, Identificarse o Crear cuenta para unirse a la conversación.
- AlbertTRAL
- Fuera de línea
- Leicanista Avanzado
- Mensajes: 339
- Gracias: 150
Pienso que sigues siendo realmente radical al evaluar la corrección geométrica como "muchísimo mas fácil", tenemos que tener en cuenta que esta corrección geométrica varía con la distancia al centro con una función no lineal de al menos sexto orden... yo personalmente no me atrevo a emitir un juicio tan taxativo desconociendo ambas funciones para poder comparar su carga computacional y si utilizamos una aproximación campo vectorial tabulada, la carga computacional sería idéntica para ambas tabulaciones una vez establecidas estas tablas relacionales por firmware...
Sigamos que, cómo el chiste, si hay un San José, saldrá...jejeje. Intentaré hacer alguna prueba con la cámara de algún amigo de la merienda de los jueves... espero mas pronto que tarde...
Salud, AlbertTRAL
LFI Gallery
Por favor, Identificarse o Crear cuenta para unirse a la conversación.
- dukenuken
- Fuera de línea
- Leicanista Experto
La toalla tienes razon, tiene muy poca acutancia y lo peor es que es solo un canal, a ver si ahora en un rato puedo probar con otra que tenga algo mas de detalle gordo, algo donde se pueda ver mejor tanto el smearing como la no-correccion (o correccion si la hay).
Sabes, yo creo que otro de los motivos por los que no han metido una deconvolucion tiene que ver con que es probable que las variaciones del hardware (montura, sensor, óptica) se desvie del modelo y en algunos casos termine produciendo artefactos en la imagen. Es decir, que joda mas la imagen de lo que la arregla....
Por favor, Identificarse o Crear cuenta para unirse a la conversación.
- dukenuken
- Fuera de línea
- Leicanista Experto
"Finally, the M9 does not have a precise idea of the working aperture (it computes it by comparing TTL light with an external sensor), and the deconvolution function to apply would depend on the precise aperture to be effective, because the amount of diffusion due to the glass in front of the sensor depends on the lens aperture."
theonlinephotographer.typepad.com/the_online_photographer/2013/10/two-reasons.html?cid=6a00df351e888f8834019b00270b9e970b#comment-6a00df351e888f8834019b00270b9e970b
En respuesta a aquel comentario de Bruno Masset.
Por favor, Identificarse o Crear cuenta para unirse a la conversación.