Blog

Desde que realicé el curso de ACES, su implementación ha permitido una gran profundización en los conceptos sobre la administración del color y una ruta indispensable para la construcción de nuevos métodos de trabajo. Inicié con diez publicidades para la cadena hotelera española Barceló, donde se combinaron cámaras Red, Sony Alfa y dron DJI. Los resultados fueron excelentes al volcar todo ese registro a un solo espacio: ACES. Al ser un trabajo colorizado a distancia, la virtud de trabajar scene referred permitió tener un punto de partida muy cercano al trabajo realizado por el DP, generando un alto nivel de acierto y aprobación por parte de la agencia, el director y el DP. Para entender mejor este nuevo método de trabajo instruido por Edi Walger, cree dos proyectos en paralelo, uno en ACES cct y otro Display referred, lo que me permitió ir entendiendo las diferencias en los puntos de partida de cada uno y la manera de corregir en cada caso. Después realicé la correción de un videoclip de la artista sudafricana Alice Phoebelou, una historia fantástica de una chica que viaja por la galaxia. Muy colorido y con momentos complicados por ciertos niveles de sobre exposición sobre su rostro, fue una pieza muy interesante para el manejo de la saturación vibrante llena de matices y gran rango dinámico. Sin embargo, todas estas piezas tenían como ODT rec 709, ya que su espacio de divulgación era internet. Estos fueron los pasos de preparación para abordar dos proyectos de mayor envergadura: dos largometrajes que debía corregir fuera de mi sala en los espacios de una casa de post producción en República Dominicana. Para el primero de estos proyectos me acompañé de la asesoría formal de Edi, lo cual fue una decisión mas que acertada. Lo primero que se puso en manifiesto rápidamente fue que mi vocabulario técnico, mi nivel de seguridad y calidad de presentación de mi propuesta de trabajo había subido notablemente de nivel (concursé con otros coloristas internacionales y les cuento que ninguno mencionó ACES en su flujo), logrando que me otorgaran el contrato. Junto a Edi construimos un pipeline que incluyó el flujo de trabajo para Vfx en ACES, un nuevo reto para la casa de efectos que vio con buenos ojos comenzar a implementarlo en Nuke, algo que no habían hecho nunca.

El largometraje "Papi" de la directora puertoriqueña Noelia Quintero basado en la obra de la músico y novelista Rita Indiana, fue fotografiado por PJ López ( quien tiene uno de los rentals mas grandes de Latinoamerica), y estuvo bajo la producción de los estudios Pinewood. Usaron Red 8k como única cámara. Dados los resultados finales que se lograron en esta película, me entregaron otra producción:

" Sin aliento" un policial del director y actor italiano Ettore D'Alesandro. Filmado en Arri con lentes anamórficos, representó un reto mas complicado en lo técnico ya que su DP no presentó la misma consistencia técnica y narrativa que en la otra producción, además de que el director estaba decidido a conseguir un look bastante distante al registro original. En ambos casos pude implementar ODT P3 y contar con monitores FSI y proyector Barco en sala, un despliegue de color y rango dinámico nuevos para mi, lo cual disfruté notablemente. Luego comentaré en otra publicación sobre las dificultades encontradas, como el dominio de la piel o las alteraciones producidas por ciertas luces de neon Para finalizar les comento sobre el último trabajo en ACES, un cortometraje en blanco y negro del realizador venezolano radicado en NY Diego Murillo. Una vez mas trabajar en cct con material Arri brindó la profundidad y riqueza tonal que buscaban en esta historia. Gracias Edi y a todos los que conforman este grupo por ser un gran incentivo profesional y de mejoramiento diario. Tan pronto tenga permiso de mostrar imágenes de estas producciones las estaré compartiendo. Apenas han pasado unos meses de haber realizado el Curso de ACES, falta mucho camino por recorrer.

Rafael Lacau - Colorista


Me encontré muchas veces intentando explicar que para archivos de 8 bits, las codificaciones Log no traen ventajas, sino mas bien dificultades. La explicación del porqué llevaría algunos caracteres más, los cuales están a continuación de este párrafo.
Una impresora no posee tinta gris. El gris lo consigue alternando puntitos negros sobre la hoja blanca. Este método se denomina Halftoning, el cual consigue un tono medio a través de un tramado. Los monitores también utilizan este método, denominado Dithering. A diferencia de la impresora, cada primario aditivo del monitor puede emitir una gran variedad de tonalidades por canal RGB, por lo que utilizaría entonces diferentes niveles de brillo de un mismo rojo, verde o azul.
Tanto los puntos de impresión como los “picture elements” o pixels son tan pequeños que a la distancia desde cual los visualizamos seríamos incapaces de individualizarlos, resultando en estímulos integrados espacialmente, lo cual da lugar a la sensación de tonos medios o colores secundarios “sintéticos”.
El monitor tiene una ventaja sobre la impresora: puede generar intensidades por pixel. Pero así y todo cada pixel posee una resolución binaria, la cual define su profundidad. En general un monitor mínimamente posee la capacidad de reproducir 256 intensidades de un mismo primario, y con un archivo de 8 bits por canal se puede aprovechar al 100% el Bit Depth.
Una superficie plana iluminada con luz artificial retratará siempre un gradiente, de mayor o menor contraste, y esto se debe al natural decaimiento de la luz. Al fotografiar este plano, al gradiente se lo retratará con algo de ruido, factor natural de la captación fotográfica. Esta variación tonal aleatoria oculta muchas veces un problema que encuentran los displays al enfrentar una alta definición contra una baja profundidad de bits.
El HDTV posee una resolución full de 1920 píxeles de ancho. Para dibujar un gradiente horizontal perfecto que va del negro al blanco sería necesario un valor para cada pixel, lo cual exige una profundidad igual o mayor que 1920 valores de código, lo cual se cubre con no menos de 11 bits (2¹¹=2048). Entonces 10 bits, que son 1024 valores, nunca podrían generar un gradiente horizontal perfecto sin repetir valores cada dos píxeles. Mucho menos con 8 bits que son apenas 256 valores. Y si intentáramos dibujar un gradiente de menor contraste, que va del gris medio hacia el blanco, entonces necesitaríamos 12 bits para no repetir valores.
Pero entonces, por qué no notamos esa repetición de valores?
Esto se debe a que existe un umbral de diferencia perceptible (Just-Noticeable Difference JND), y esta guarda relación con el rango dinámico del monitor y la relación de la profundidad del pixel. Un monitor de rango dinámico estandar SDR con 256 o 1024 valores de código puede mantenerse por debajo del JND. Diferentes estudios de la percepción humana como las leyes de Weber-Fechner, DeVries-Rose, y ensayos de Schreiber y Barten definen umbrales JND a diferentes niveles de iluminanción, resultando en una respuesta no lineal al estímulo, por lo que la ecuación de cómo funciona la percepción humana es extensa debido al complejo mecanismo visual.
El problema es cuando la profundidad, al ser poca en relación al contraste de nuestro monitor, aún intentando echar mano del recurso del dithering, hace visible una discontinuidad en un gradiente.
A este fenómeno se lo denomina Banding.
Es un digital artifact, una imprecisión de los valores discretos frente al contínuo analógico. A veces en un mismo gradiente se hacen visibles varias franjas, como si se trataran de escalones en una rampa.
Qué sucede cuando se corrige color a una imagen de apenas 8 bits? Se corre el gran riesgo de generar banding.
Cámaras que codifican Log y graban internamente con sólo 8 bits, al deshacer su codificación y pasar a 709 en post harán visible en sus gradientes contrastados el banding, por lo que no se recomienda utilizar codificaciones Log en 8 bits. En todo caso, se podría grabar con un grabador externo de 10 bits la señal de esta cámara y reducir la posibilidad de aparición de banding.
Las herramientas para “reducir” banding realmente no existen, sino que son meros generadores de ruido en las fronteras del banding, lo cual muchas veces son efectivos si lo que se prefiere es un artifact mas analógico que digital.

El pixel como tal es adimensional. No posee una medida absoluta, sino relativa. Y esto corre tanto para la definición como para el color. Y aunque la primera característica es fácil de interpretar, la segunda no lo es tanto.

A veces conviene traer razonamientos correctos que explican un fenómeno ya comprensible para así comprender mejor otros fenómenos más abstractos.

Como el archivo digital de imagen está construido por píxeles, estos se transformarán en algún momento en puntos visibles. Pero conocer la cantidad de píxeles de un archivo no nos dice nada en cuanto al tamaño real al cual podremos representar la imagen. Esto es porque el pixel es una medida relativa, en cambio el metro es medida absoluta. Una hoja por ejemplo no puede medirse en píxeles, pero sí en relación al metro patrón, el cual es un objeto real. El pixel es virtual, no posee dimensiones de longitud.

Definiendo entonces el PPI (pixel per inch) se establece la relación entre longitud real y puntos virtuales, de tal manera de poder representar al pixel con un tamaño en particular. El PPI expresa la cantidad de píxeles que entran en una pulgada, por lo cual define la longitud del archivo de acuerdo a la cantidad de píxeles del archivo. Falta entonces definir de qué color serán estos puntos que representarán al pixel, lo cual debería estar expresado en el pixel bajo un modelo matemático.

Pero el pixel tampoco expresa por sí mismo a un color. Sólo es color gracias a un dispositivo físico que lo transforma en real, como la impresora, el proyector o el monitor. Y por ello el dispositivo condiciona el color expresable por el pixel.

Los números que expresan el valor del pixel pueden redactarse bajo diferentes lenguas matemáticas, las cuales definen el modelo de color. Por ejemplo YUV, RGB, Lab o XYZ son Modelos, los cuales pueden expresar exactamente un mismo color con diferentes triplets de números. Es como mencionar el color Rojo en diferentes lenguas: Rouge, Red, Vermelho.

Pero Rojo en realidad todavía no significa aún un color muy determinado. Para precisar qué es “rojo”, será necesario un dispositivo que lo represente. Por ejemplo un proyector, una pantalla, una hoja con el color impreso. De acuerdo con la tecnología de representación color se podrán lograr diferentes rojos, pues en general los dispositivos crean sus paletas de color a través de la combinación de apenas tres primarios. Por lo que los colores más puros serán siempre estos tres colores sin mezcla alguna. Entonces, bajo un modelo RGB, el 100% de un primario con 0% de los otros dos generarían un límite extremo en términos de pureza cromática. Pero aún el pixel es virtual, un triplet numérico que no significa ningún color determinado, sino simplemente un “máximo” de algo que desconocemos aun.

Estos tres valores extremos de los primarios RGB puros serán mensurables cuando el dispositivo de reproducción transforme estos valores virtuales en reales. Allí serán definidos en términos absolutos, definiendo así el Gamut nativo del dispositivo.

Para compatibilizar los colores reproducibles entre diferentes tecnologías de dispositivos color se han acordado estándares, los cuales se respetan para definir Gamuts acordes a las recomendaciones de televisión HD 709, UHD 2020 o para proyecciones de cine el DCI P3. Todos los fabricantes de dispositivos entonces deberían idealmente reproducir los colores del estandar y limitar la reproducción de colores fuera de estandar que el dispositivo puede generar, y su correcta reproducción en todos los tonos intermedios logrados con la mezcla de estos tres primarios.

A este proceso se lo denomina calibración.

Sin embargo estos estándares de TV no definían un rango dinámico específico, sino sólo el aspecto de pureza cromática de los colores primarios, y nada respecto a los niveles de brillo para el negro y el blanco, o en otras palabras, no estandarizaban el rango dinámico.

Un archivo de imagen en sus dimensiones espaciales puede ser impreso en hojas A4 o en más grandes como las A3, A2 etc, pero esto no mejoraría la nitidez de la imagen. Simplemente los píxeles se imprimen más grandes, ocupando más puntos de la hoja, lo cual no genera ningún beneficio en términos de definición. Deberíamos tener archivos con más cantidad de píxeles para imprimirlos en mayor tamaño para no comprometer la definición.

Si el ancho de la página fuera la pureza cromática, el alto de la página sería entonces el rango dinámico. Una imagen wide gamut y high dynamic range entonces podría “imprimirse” en una gran hoja ancha (wide) y alta (high).

Respecto al gamut y rango dinámico, para que este pixel no sea visible como unidad, necesitaríamos mayor cantidad de bits por pixel, en vez de cantidad de píxeles por archivo. Si el cambio de tono de un pixel se hace muy “distinguible” al cambiar un sólo valor RGB, puede querer decir que no tenemos suficiente profundidad de pixel, medida en bits.

Por lo que imágenes de gamut ancho y alto rango dinámico necesitan archivos con muchos bits por pixel. Tal como necesitábamos archivos con muchos píxeles para imprimir hojas grandes sin hacer visibles a estos píxeles impresos, ahora serán necesarios más bits para no distinguir discontinuidad en un gradiente.

La TV HDR se define bajo la Rec.2100, la cual posee el gran gamut heredado del 2020, con UHD (casi 4K), y exige una profundidad mayor entre 10 y 12 bits según la variante HLG, HDR10 o DoVi.


En una imagen con píxeles escritos en valores RGB, la saturación como tal no existe. Para poder modificarla habrá entonces que transformar el color a valores HSL, por ejemplo.

Una vez en este modelo de color, el canal “S” es modificable con funciones matemáticas sencillas. Por ejemplo, para escalar la saturación simplemente se multiplican los valores del canal S.

Multiplicar en el modelo RGB es lo que aplica el parámetro Gain. Este nombre tan raro fue heredado de los antiguos controles analógicos de señales, donde se aplicaba una ganancia a la señal con el objetivo de escalarla. Así que para controlar la saturación en general se utiliza la función multiply. Pero esta no es la única función aplicable a S.

Así como en RGB existe también Lift (invertir-multiplicar-invertir), existe también la opción de realizar esta secuencia de funciones sobre el canal S.

A este parámetro se lo suele denominar Vibrance.
Muchos coloristas suelen desconcertarse con este parámetro pues altera también la luminosidad de los colores. Esto es debido a que Saturación está calculada en el espacio HSL y no en un modelo de cromaticidad como YUV o Lab. El modo en que se considera la saturación en HSL es sobre un criterio muy limitado, donde un color se considera totalmente saturado si uno de los canales RGB posee valor cero.
Otra función menos frecuente sobre el canal S es la suma. Add realiza lo que el parámetro Offset aplica en RGB. Pero en S, el resultado es bien diferente.
DaVinci Resolve denomina a este parámetro como Color Boost. ¡Pero no es igual a Vibrance!
El nombre del parámetro Col Boost hace suponer a muchos usuarios (además de la descripción del manual) que este control es similar a Vibrance, pero no es así, puesto que desplaza la saturación de todos los valores, realizando el clipping en el valor cero y el cien, como sucede también con Offset en RGB.

La respuesta no será teórica, sino práctica:
Simplifica.
El rango dinámico y gamuts de cámaras supera lo reproducible por los monitores. Y tanto fotógrafos como coloristas, queremos trabajar con toda la información nativa y no sólo con lo que un Display podría reproducir. Es por ello que el espacio de trabajo Display Referred es un compromiso, puesto que en este flujo lo capturado se convierte a lo reproducible, lo cual equivale a una información mucho menor.
Los espacios de trabajo Scene Referred conservan toda la información nativa de la escena capturada, y ACES es un espacio de trabajo capaz de almacenar todo lo comprensible por el sistema visual humano, rango dinámico y gamut mayor que lo que cualquier cámara puede llegar a capturar.
El comportamiento de los algoritmos de color variarán según el espacio de trabajo, y para realizar corrección de color existe una variante cc de ACES, la cual es similar al espacio logarítmico, muy familiar para los que realizaron trabajos en ecosistemas de Digital Intermediate (DI) vía Kodak Cineon. Las funciones de grading para cine ya no son las clásicas de video, como Lift Gamma Gain (LGG), siendo reemplazadas por Offset, Contrast y Pivot.
En DVR, las funciones “Log” para trackballs son las indicadas para ACEScc.
Esto suele incomodar a coloristas que sienten que en su oficio ya han aprendido todo, y resulta que el trabajo que tan bien realizan con LGG - conocido como Telecine Style - en ACES no obtiene los resultados que esperaban. Simplemente deberán migrar al DI Style.
Superado este punto, ACES simplifica el intercambio entre aplicaciones de color o de VFx, gracias a que esta administración color es de código abierto lo cual facilita su soporte por casi la totalidad de desarrolladores de software, y gran cantidad de fabricantes de hardware.
ACES es gratis, cualquiera lo puede soportar.
No sólo por ser gratis es ventajoso, sino que además su desarrollo es público. Desde un foro abierto se definen grupos de trabajo para poder proponer futuras mejoras al sistema.
Al leer un archivo de cámara, este se transformará primero a ACES para luego transformarse a un estandar de visualización, asegurando la continuidad en la monitorización calibrada.
El punto de partida para el fotógrafo será entonces el mismo que consigue en la monitorización de campo, iniciando el Grading con el colorista desde esta referencia inicial.
El departamento de VFx podrá recibir archivos previamente volcados a ACES, manteniendo el total de datos originales de cámara sin necesidad de adivinar cual es la representación correcta de este archivo exr. El balance del colorista puede aplicarse en el espacio ACES sin pérdidas, o bien exportar como metadatos este balance a un compositor de tal manera de que la composición sea realizada sobre la imagen nativa, previa al balance pero monitorizada con el balance aplicado.
La ida y vuelta o Roundtrip de VFx ahora es perfecta.
El paso final del grading, el cual consta de los ajustes de masterización para diferentes tecnologías de Display SDR y HDR se facilita en ACES debido a que el color se ha realizado sobre un espacio total, visualizando a través de una transformación relativa hacia un determinado Display. Al modificar la salida hacia un Display con un estandar diferente obliga al colorista a realizar un pequeño ajuste o Trim Pass, con el objetivo de evitar pérdidas de detalle en estándares de menor gamut o rango dinámico, pero sin necesidad rehacer el Grading por completo.
Recapitulando, ACES facilita la monitorización, el punto de partida del grading, la compatibilidad entre aplicaciones, el roundtrip con VFx y el proceso de multimastering.
Edi Walger - ColorDoctor