EL ABC DE LA EDICIÓN
Hoy en día, la edición no lineal (NLE) es el lenguaje común hablado a nivel doméstico como profesional. Es importante conocer el ABC de la NLE cuando vayamos a comprar o montar un sistema para editar nuestros propios videos, como lo hacen los profesionales.
La edición puede constar de una parte de gráficos, otra de audio y otra de video; una buena dosis de pre producción, inspiración, paciencia y la postproducción. La suma de todo esto nos dará nuestra producción final.
Muchas cosas han cambiado desde finales de los años 80, cuando copiábamos de un video a otro usando los botones de Rec, Play y Pause, o cuando aparecieron los primeros controles de edición al corte, o los mezcladores y tituladoras. Con la invención del Amiga en los 80, seguido del Apple Macintosh y, posteriormente del PC, compañías como Adobe, Avid, Pinnacle y Ulead han hecho un largo recorrido.
Desde las soluciones de software más baratas, hasta los sistemas llave en mano de más de 100.000.-€ el único punto en común de todos los sistemas de edición basados en ordenador, es el software basado en el interfase gráfico de usuario (GUI)
Timeline vs Storyboard.
Los programas de edición tienen dos tipos de interfase: el más tradicional es la línea de tiempos (timeline) y luego el storyboard. Algunas soluciones más avanzadas usan los dos sistemas.
Cada uno tiene sus ventajas. Por ejemplo, después de digitalizar o transferir una grabación desde una cámara de video hasta el disco duro vía protocolo FireWire, si lo que queremos es ajustar un clip, moverlo o borrarlo, el storyboard es el sistema más rápido y eficaz para hacer esto.
El iMovie de Apple o VideoWave de Ulead son el perfecto ejemplo de storyboard. Un icono con una imagen, llamado “picon” o “thumbnail”, representa cada clip; podemos mover fácilmente varios clips en el orden deseado y poner transiciones entre ellos de la forma más rápida y sencilla posible. Está basado en los storyboards de las películas de Hollywood en el cual se puede ver rápidamente cada clip y ponerlo en el orden que queramos.
Timeline tiene sus propias ventajas. Los paquetes profesionales tienen una línea de tiempos de edición de izquierda a derecha, donde cada evento sucede en orden cronológico y el tamaño del clip es proporcional a su longitud. Esto contrasta con el storyboard, donde cada clip está representado por un icono del mismo tamaño sin indicación de su duración. Al mismo tiempo, las ediciones basadas en línea de tiempos ofrecen un número “casi” ilimitado de pistas (capas) de audio y video que se superponen unas a otras. De este modo, se pueden reproducir múltiples clips al mismo tiempo con efectos como imagen sobre imagen, transparencia variable o corrección de color. Los clips de audio también se reproducen paralelamente, permitiendo escuchar la voz del narrador, un efecto de sonido especial o una música de fondo. Podemos elegir el número de pistas de audio y video dependiendo de lo sofisticado de nuestro proyecto y del número de fuentes de imagen y sonido que usemos. La potencia real de la edición por línea de tiempos está en la facilidad para sincronizar todos los eventos en tiempo hasta el nivel de frame o cuadro. Este nivel de precisión no es posible en el storyboard.
El inicio.
Los profesionales del video suelen poner, al principio de sus proyectos, sesenta segundos de barras de color con un audio de 1KHz. Esto lo hacen para que el operador que vaya a reproducir ese video posteriormente, pueda ajustar los parámetros de reproducción, tanto de imagen como de sonido.
Posteriormente, hay que mostrar la información del video: quién, qué y dónde; duración y tipo de audio (mono, estéreo, 16 bits) seguidos de diez segundos de negro donde nuestro proyecto empezará con un Fade-in. Evidentemente todo esto es muy relativo y cada uno puede poner lo que le dé la gana. Sólo se indica a título orientativo.
Los créditos iniciales, después del Fade-in, pueden crear expectación al respetable. El software de edición permite usar efectos especiales y transiciones para crear créditos muy vistosos. Funciona igual que un tratamiento de texto; fuente, tamaño, color, estilo, una pequeña animación automática y nuestra creatividad. Existen otros paquetes externos, más complejos y mucho más avanzados, que nos permiten crear todo tipo de combinaciones con los créditos. Boris Graffiti, Title Deko, Inscriber, Flying Fonts, entre otros.
Continuación de la edición.
Una vez tengamos ya el inicio, dedicaremos nuestros esfuerzos a la producción. Algunas veces, no dispondremos de los clips necesarios para la edición porque no se han podido grabar. En este caso, podemos incluir en la línea de tiempo un clip negro de, aproximadamente, la misma longitud que tenga el futuro clip. Así nos aseguramos ese espacio en la edición y podremos continuar trabajando en nuestro proyecto.
Cuando empecemos a editar nuestro video, deberemos decidir cómo editamos el material. ¿Qué editamos primero, el audio o el video? La respuesta depende del tipo de producción que queramos hacer. Si nuestro proyecto es del tipo documental (muchos paisajes con narración) podemos empezar poniendo la música de fondo (colchón) y sobre la música ponemos la narración y cortamos los clips de las imágenes. Podemos incluir fotos fijas y gráficos y hacer transiciones desde y hacia ellos. También podemos animar esos gráficos haciendo panorámicos y zooms. (Todos hemos visto los documentales de la II Guerra Mundial con esas fotos fijas en blanco y negro, moviéndose en todas las direcciones) Para eso tenemos la herramienta de Motion.
¿Y toda esta tecnología?
El software de edición de hoy en día nos proporciona una cantidad de herramientas a una fracción del coste de hace algunos años. Sustituir cien kilos de hardware antiguo por un veloz ordenador y un software de edición, no va a conseguir que hagamos una buena historia. Es importante que nuestro video tenga un comienzo, un desarrollo y un final, con un punto de vista lógico y agradable para el público. Las nuevas tecnologías no lo van a conseguir si no ponemos nosotros de nuestra parte. Sólo cuando tengamos claro el funcionamiento básico de nuestro programa de edición, será cuando podamos sacarle el máximo partido a nuestro trabajo. Para ello, deberemos conocer su funcionamiento, acudiendo a la ayuda (pulsando F1) o leyendo tutoriales al efecto o, simplemente el manual de instrucciones.
Ejemplo: ¿sabéis para qué sirven estas funciones en Adobe Premiere?
Lo dicho, tenemos que conocer el ABC de nuestra NLE.
Cámara
Principios Básicos
Lentes
Distancia Focal
El visor de la Cámara
Balance de Blanco
La exposición
Indicadores de grabación
Principios Básicos
Cámaras, principios básicos
A partir de la base que hasta ahora hemos estudiado, vamos a iniciar el primero de una serie de módulos sobre la cámara y el equipo relacionado a ella.
El CCD
El verdadero corazón de una cámara de video es su dispositivo de imagen. En la mayoría de los casos esto significa uno o más CCDs (un chip de computadora llamado Dispositivo de Carga Acoplada). La luz del lente puede ir directamente a un CCD o puede ser dirigida a través de un prisma a dos otres CCDs.
A mayor cantidad de pixeles (puntos de sensibilidad de luz) en el área meta (target) del chip, mayor resolución o claridad tendrá el CCD. Los tamaños más comunes de estos dispositivos son 1/3, ½ y 2/3 de pulgada.
Resolución de video
La resolución es una medida de la capacidad de la cámara para reproducir detalles. A mayor resolución, la imagen lucirá más definida.
El sistema NTSC puede producir potencialmente una resolución de alrededor de 300 líneas horizontales en un patrón de prueba. (Esto después de que ha pasado a través del proceso de transmisión; esto no es lo que se ve en una sala de control). Esta resolución es el límite de lo que los espectadores con visión 20/20 pueden observar en una pantalla de televisión a una distancia normal.
"Normal" significa en este caso, una distancia de 8 veces la altura de la pantalla. Si la altura es 16 pulgadas (un tubo de imagen de 25 pulgadas), la distancia normal de observación será de aproximadamente dos metros y medio.
HDTV/DTV (televisión de alta definición - televisión digital) con su alta resolución permiten tanto pantallas más grandes como distancias más lejanas.
Las líneas de resolución medidas por un patrón de prueba (como el que se muestra aquí) no deben ser confundidas con las líneas del barrido horizontal en el proceso de transmisión de televisión - usualmente 525 y 625 - que discutimos anteriormente.
Aunque la mayoría de los televisores tienen la capacidad para más o menos 300 líneas de resolución, las cámaras tendrán la capacidad de una resolución más alta - 1000 líneas o más.
La pregunta obvia es por qué molestarse por la resolución mayor de la cámara si la mayoría de los televisores no pueden reproducir la misma calidad. Como en la mayoría de los aspectos de la producción de televisión, al partir de una mejor calidad, mejor calidad tendrán los espectadores - incluso con todas las pérdidas que trae consigo la transmisión.
Determinando la resolución
Los gráficos que contienen cuadros y flechas de líneas en un fondo luminoso pueden indicar los límites de definición. Dentro de un área específica de uno de estos gráficos de resolución hay líneas un ancho fijo. Números como 200, 300, etc. Aparecen en el cuadro al lado de la línea de densidades.
Para establecer los límites de resolución de la cámara se coloca el gráfico de resolución de manera que se cubra todo el encuadre y se observa el punto del gráfico donde las líneas comienzan a perder definición y se confunden unas con otras.
Las cámaras de alta calidad tienen una resolución de 850 líneas aprox.; y las de HDTV/DTV, rondan las 1000 (de acuerdo a este gráfico).
Resolución del color
La resolución de la que hemos estado hablando se basa en la definición del componente blanco y negro (luminancia) de la imagen de televisión. Se descubrió temprano en experimentos con la televisión a color que el ojo humano percibe detalles preponderando las diferencias de brillo (luminancia) sobre la información de color.
Cuando el sistema de televisión a color fue desarrollado, fue creado un sistema ingenioso y altamente complejo para agregar una resolución de color más baja que la existente señal para blanco y negro. Al usar este sistema, la información de color puede ser agregada a la señal monocromática sin que ocurra una expansión muy grande de la capacidad de transportar información de la señal básica de luminancia.
Nivel mínimo de luz
Las cámaras de video requieren cierto nivel de luz para producir imágenes de buena calidad. Este nivel de luz se mide en foot-candles o lux. Un foot-candle o pié-candela es la medida de la intensidad de la luz producida por una vela a un metro de distancia (bajo condiciones muy específicas).
Aunque producirán imágenes aceptables en las condiciones de luz más pobres, la mayoría de las cámaras de video profesionales requieren un nivel de luz de 150 a 200 foot-candles para producir una fotografía de calidad óptima. A este nivel de iluminación el lente de la cámara se puede utilizar con una abertura de diafragma alrededor de f/8 (que proporciona una profundidad de campo razonable).
Como el nivel de luz puede aumentar en una escena, el diafragma del lente se debe colocar debajo (un f/stop más alto) para mantener el mismo nivel de exposición en el objetivo de la cámara. Si esto no se hace la imagen lucirá deficiente, en relación con lo que se vio anteriormente, y los altos niveles de ruido electrónico ocasionarán problemas.
Bajo condiciones de poca luz, el video pronto comenzará a lucir oscuro, con pérdida de los detalles en las áreas sombreadas. Para compensar esto, las cámaras profesionales poseen un selector de ganancia con varias opciones que puede amplificar la señal de video desde 3 hasta 28 unidades (decibeles o dB's).
Algunas cámaras pueden producir video aceptable al nivel de luz en un cuarto con una iluminación ténue. Pero, mientras más decibeles tenga el selector de ganancia, habrá más pérdida en la calidad de la imagen. Específicamente, el ruido de video aumenta y la claridad del color disminuye.
Módulos de visión nocturna
Para situaciones que requieren video bajo condiciones de menor nivel de luz, hay módulos de visión nocturna disponibles; estos usan multiplicadores electrónicos de luz para amplificar la luz que pasa a través del lente. El mejor de estos amplificadores de luz puede producir video definido y claro durante la noche usando solo la luz producida por las estrellas. Bajo condiciones "sin luz", la mayoría de estos módulos emiten su propia iluminación infrarroja invisible, que luego se traduce en imagen visible.
En años recientes los camarógrafos de noticias han encontrado estos dispositivos de visión nocturna muy útiles para trabajos que solo pueden hacerse de noche, cuando cualquier tipo de luz artificial llamaría la atención y comprometería la historia que se está cubriendo.
Lentes
Principios Básicos
Generalmente no pensamos mucho acerca de los lentes de la cámara aparte de protegerlos y ocasionalmente limpiarlos. Pero las variables asociadas con los lentes de la cámara tienen una enorme influencia sobre cómo se verá la imagen. Cuando el camarógrafo comprende esto, tiene bajo control un significativo poder creativo.
Antes de que podamos entender como operan algunos de estos controles creativos, necesitamos conocer la información básica sobre los lentes -- empezando con su más simple atributo: la distancia focal. La distancia focal de un lente afecta la apariencia del sujeto en diferentes formas.
Distancia Focal de los Lentes
La distancia focal es la distancia existente desde el centro óptico del lente al plano focal (CCD o película) de la cámara, cuando el lente está enfocado al infinito. Cualquier objeto a gran distancia es considerado como el infinito. Ya que esta distancia interna cambia cuando los lentes no están enfocados al infinito debemos especificar al mismo como medida estándar.
La distancia entre el centro óptico y el plano focal es medida generalmente en milímetros. En el caso de lentes con distancia focal fija (lentes primarios), podemos hablar de lentes de 10 mm, de 20 mm, de 100 mm, etc. Como veremos esta es una designación que nos dice mucho sobre como los lentes reproducirán la imagen.
En los lentes primarios la distancia focal no puede variar. Los lentes primarios a veces son preferidos por los operadores de cámara en el cine y en video profesional debido a su óptica excepcional, resultados predecibles y porque se encuentran disponibles en muchos formatos especializados.
Muchos usuarios de video cámaras comerciales utilizan una montura VL que acepta cientos de lentes de alta calidad diseñados para cámaras fotográficas de 35mm.
Lentes Zoom
Hoy en día la mayoría de las video-cámaras poseen objetivos tipo zoom. A diferencia de los lentes primarios que están diseñados para operar en una sola distancia focal, un objetivo zoom puede variar continuamente su distancia focal desde la perspectiva de gran angular hasta teleobjetivo. Para obtener esto, los objetivos zoom poseen numerosos lentes de cristal precisamente pulidos y calibrados.
Los diferentes grupos de lentes deben moverse a velocidades precisas (y en ocasiones diferentes) mientras el objetivo es accionado.
Angulo de Visión
El ángulo de visión está directamente asociado con la distancia focal del lente. Las gráficas animadas de abajo muestran esta relación.
Mientras mayor sea la distancia focal será mas angosto el ángulo de visión. Un lente teleobjetivo tiene una distancia focal larga y un ángulo estrecho de visión (ilustrado por el área amarilla cuando el dibujo muestra el 100mm).
Para ejemplo en particular un lente de 20mm es normal (como lo muestra el área ancha amarilla). A los 5mm es creado un efecto de gran-angular. Cuando se aumenta al doble la distancia focal de un lente, se duplica el tamaño de la imagen creada en el plano focal o plano de la película; y, como es de suponerse, funciona de manera inversa.
Zoom vs. Dolly
Otra manera de lograr este efecto es por supuesto, reubicar (con el dolly) la cámara aproximándola o alejándola del sujeto en materia. Aunque pueda parecer que esto produciría el mismo efecto que un “zoom in” y “zoom out”, esto no es cierto.
Cuando se ajusta un zoom, se aumentan ópticamente partes pequeñas de la imagen para llenar la pantalla. Cuando se usa un dolly, se mueve físicamente la cámara completa cerca o lejos del sujeto. Este movimiento asemeja la forma de cómo veríamos al sujeto y su entorno si camináramos hacia o desde él.
Rango del Zoom
Cuando en fotografía se habla de un lente de 50 mm, un 28 mm, o un 400mm uno puede intentar visualizar inmediatamente el efecto de cada uno. Sin embargo, debido a que un zoom no posee una distancia focal determinada, las cosas no son tan simples con este tipo de lente. En vez de especificar una distancia focal particular especificamos un rango focal.
El rango de zoom es usado para definir el rango de distancia focal de un lente zoom. Si el rango máximo al que un lente en particular puede ser aplicado es de 10mm a 100 mm, se dice que posee un rango de 10:1 ("diez a uno"; 10 veces la distancia focal mínima de 10mm es igual a 100mm).
Esto está claro, pero con esta designación aún no se puede saber cuáles son las distancias focales mínima y máxima. Un zoom 10:1 puede ser por ejemplo un lente de 10 a 100mm, o uno de 100 a 1000mm -- la diferencia sería dramática.
Para resolver este problema nos referiríamos al primero como un 10 X 10 ("diez por diez") y al último como un 100 X 10. El primer número representa la distancia focal mínima y el segundo número el factor de multiplicación. De esta manera un lente 12 X 20 tendrá una distancia focal mínima de 12 mm y una distancia focal máxima de 240 mm.
Los lentes zoom, en la mayoría de las cámaras de video, poseen rangos entre el 10:1 y el 30:1. El efecto de un zoom de 30:1 es mostrado aquí.
Algunos lentes usados con cámaras grandes montadas en trípode pueden poseer rangos que en exceso de 70:1. En este caso, una cámara cubriendo un partido de fútbol, puede hacer zoom out y obtener una toma de todo el campo, y haciendo un zoom in, llenar la pantalla solamente con una imagen de la pelota situada en el centro de la cancha.
Lentes Zoom Motorizados
Los lentes zoom eran originalmente controlados manualmente, empujando y jalando anillos y perillas de mano. Hoy en día los lentes zoom están generalmente controlados por motores servo-controlados de velocidad variable. Este tipo de lentes eléctricos son usualmente conocidos como zooms servo-controlados.
Aunque los lentes controlados electrónicamente pueden lograr acercamientos suaves a velocidades variables, no permiten generalmente un cambio rápido de lente. Un zoom manualmente controlado puede ajustar sus planos más rápidamente entre cada posición. Esta diferencia en velocidad de respuesta puede significar la oportunidad de obtener una nueva toma en el momento crítico de la acción, o posiblemente perderla.
Lentes Complementarios
Aunque la mayoría de los camarógrafos trabajan limitándose a las posibilidades del rango del lente zoom de sus cámaras, es posible modificar la distancia focal de la mayoría de los lentes (zooms o primarios) usando un lente complementario positivo o negativo.
Un lente complementario positivo -- comúnmente conocido como un convertidor o lentilla angular -- incrementará el ángulo de visión (reducirá el rango de distancia focal efectiva) de un lente zoom. Proporcionalmente un lente complementario negativo comúnmente conocido como un extensor de rango o un extensor--incrementará la distancia focal y estrechará el ángulo de captación. (Los efectos del extensor angular, el normal y un extensor 2X son ilustrados arriba.)
Un lente complementario negativo 2X puede cambiar un objetivo de distancia focal fija de 100mm a 200mm, o puede cambiar un lente zoom de 12-120mm en uno de 24-240mm. En algunos lentes zoom, los extensores 2X no son realmente "complementarios"; sino que están integrados al lente. Algunos cambian automáticamente ante alguna necesidad específica y otros deben ser accionados manualment
Distancia Focal
Es la distancia en milímetros que existe entre el centro óptico del lente y la superficie de la película o censor de la imagen, cuando ésta se encuentra proyectada.
El visor de la Cámara
El visor (viewfinder) además de permitirnos observar la imagen captada a través del lente de la cámara despliega algunos datos de información importante.
Tipos de visores
El visor puede ser un monitor de rayos catódicos (CRT, como los usados en las televisiones y computadoras de escritorio), o una pantalla plana de cuarzo líquido (LCD, similar a las usadas en computadoras laptop).
A diferencia de las cámaras de estudio que normalmente utilizan pantallas de por lo menos 7 pulgadas, los visores de muchas cámaras pueden ser mas pequeños. Estos están integrados de una pantalla miniatura (CRT o LCD) en la que se monta un ocular magnificador.
Aunque los visores de color han ido ganando popularidad, algunos operadores profesionales prefieren la definición superior de un visor blanco y negro.
Selección del visor para ojo izquierdo o derecho
En las cámaras que poseen visores de montura lateral, algunas veces el visor puede ser deslizado de un lado a otro de la cámara según las preferencias del operador para ver con el ojo izquierdo o derecho. Cuando el visor es deslizado, la imagen quedará boca abajo a menos que exista un dispositivo de inversión.
Mantener el ojo pegado a un visor durante períodos largos de tiempo puede ser muy fatigante. Las cámaras con pantalla plana de LCD pueden ser más cómodas. También son muy útiles cuando se toman ángulos muy altos o bajos.
Este tipo de visores también pueden ser usados para componer tomas en las que nosotros mismos queremos salir (una vez montada la cámara en un tripie el visor es girado 180 grados para poder observarlo).
La principal desventaja de la pantalla plana de cuarzo líquido es que la imagen pierde contraste y brillantez cuando es usada bajo luz brillante, lo cual dificulta el enfoque preciso.
Una vez que se acostumbre a su operación, los visores tipo goggle (similares a los goggles de realidad virtual), permiten gran flexibilidad al operador. Este tipo de visor puede ser usado para complementar un visor estandart. Ya que el visor está conectado a la cámara por un cable largo, podemos fácilmente sostener la cámara por encima de nuestra cabeza, colocarla a nivel de suelo, o incluso tomar hacia nuestras espaldas con la cámara al hombro.
Para el trabajo profesional el mejor visor es un monitor externo AC/DC en color con buen brillo, de tres a cinco pulgadas (cualquier monitor de color de alta calidad funciona). Aunque este tipo de monitor requiere alimentación independiente y limita la movilidad, es la única manera segura de monitorear efectos de iluminación y evaluar con certeza cuestiones como la profundidad de campo.
Areas de seguridad en la cámara
Debido al sobrescaneo y otro tipo de problemas que suceden entre la cámara y el receptor en nuestro hogar, una pequeña área alrededor de la imagen generada por la cámara es cortada antes de ser vista.
Para compensar esto, los directores deben asumir que aproximadamente el 10% de la imagen que presenta el visor probablemente no será visible para el espectador en su casa.
Esta área (enmarcada por las líneas rojas en la fotografía) es conocida de diferentes maneras como área de seguridad, y área esencial.
También existe un área "más segura", denominada como área de seguridad de texto, dicha área está contemplada para el materíal escrito de importancia. Esta última proviene de la era de la TV blanco y negro, cuando las televisiones usualmente sobrescaneaban las imágenes tanto como un 20%.
Tomar y Proteger
Con la televisión de alta definición (HDTV/DTV) abriéndose camino poco a poco en la televisión comercial, es necesario considerar otro tipo de área de seguridad. HDTV/DTV usa un encuadre de 16:9, y NTSC y PAL usan un radio estándar de 4:3.
Para asegurar la vigencia a futuro de sus programas, algunos productores están actualmente grabando en el formato 16:9. Pero, por necesidades inmediatas de transmitir en el formato 4:3, tienen que lograr que sus escenas funcionen en ambos formatos.
El término "tomar y proteger" (shoot-and-protect) identifica el proceso de grabar escenas en formato 16:9 asegurándose de que el área correspondiente al formato 4:3 contenga toda la información esencial de la escena. Para lograr esto un marco de 4:3 es super-impuesto sobre el visor de formato 16:9 como aquí se muestra.
Ajustando la imagen al visor
Debido a que la imagen en el visor de la cámara proviene de una pantalla miniatura, es común que existan variaciones de brillo y contraste. Además con los visores de tubo puede existir también un problema eléctrico de enfoque y la ocasional falta de centrado apropiado de la imagen.
El ajuste de la imagen del visor no afecta en ninguna manera a la señal de video que genera la cámara. Sin embargo, los ajustes efectuados a la cámara sí afectan a la imagen del visor.
Los visores deben reflejar con precisión la naturaleza y calidad del video que proviene de la cámara. Para tener la certeza de que el contraste y la brillantez del visor son correctos, pueden ser seleccionadas las barras de color generadas por la cámara (si están disponibles en la cámara que esté usando), éstas barras pueden ser verificadas en el visor. Entonces los controles de brillo y contraste del visor pueden ser ajustados a un rango continuo de tonos desde el negro sólido al blanco visible.
Si la cámara no tiene un patrón de prueba incluído, la calidad de la cámara debe ser verificada (con la ayuda de un patrón de prueba y un monitor externo confiable) antes de que los controles del visor sean ajustados.
Verificando la precisión del visor
Aunque la mayoría de los visores tipo CCD normalmente permanecen estables durante algún tiempo, la precisión de un visor de tubo puede deteriorarse hasta el punto de no mostrar con veracidad la señal de salida de la cámara. Verificar ésto es relativamente fácil.
Primero, debe cerciorarse de que el monitor se encuentra perfectamente alineado con la ayuda de un patrón de prueba. La salida de la cámara en cuestión es vista en un monitor independiente mientras está enfocada a un patrón de prueba, el visor debe coincidir en los mismos bordes del patrón que los que se observan en el monitor.
Cualquier discrepancia entre la imagen del visor y el monitor debe ser obvia. La alineación del visor debe ser ajustada por un ingeniero o técnico.
Ocasionalmente el enfoque eléctrico también se desajustará en un visor de tubo. Esto dificulta el enfoque óptico hasta que el problema es corregido con un patrón de prueba y un ingeniero debidamente equipado con un juego de desarmadores.
Si usted usa anteojos el visor de la cámara puede presentar problemas, muchas monturas de visor poseen un control en el lente de magnificación para graduar la misma. Esto es conocido como corrección de dioptría.
Si la cámara no tiene este control, algunos oculares pueden ser adquiridos de manera independiente con diferentes graduaciones dióptricas que eliminan la necesidad de usar anteojos mientras se usa la cámara.
Balance de Blanco
Balance de color
Las cámaras no-profesionales normalmente están equipadas con un sistema de balance de blanco automático que continuamente controla el video y hace intentos de ajustar el balance de color. Un sensor en la cámara promedia la luz de la escena y automáticamente ajusta el balance de color interno de la cámara en un valor predeterminado.
No obstante, como con todos los circuitos automáticos, el balance automático de color se basa en algunas suposiciones - que pueden no ser válidas en muchos casos.
En este caso, se supone que cuando todas las fuentes de luz y color en la escena son promediadas, el resultado será blanco o gris (descolorido) neutro (es decir, el promedio de todos los colores serán equivalentes a gris o blanco). Las variaciones de esto son compensadas por el circuito de balance de color.
Pero entonces se presenta un problema si hay colores fuertes o dominantes dentro de la escena, o (con ciertas cámaras) si la cámara y el objeto son iluminados por diversas fuentes de luz.
El circuito automático de balance de color trabaja razonablemente bien bajo condiciones apropiadas. Pero en el campo profesional no puede confiarse de los circuitos automáticos para producir un color preciso. No hay ningún sustituto para un operador de cámara inteligente, equipado con un cartón o un papel en blanco. (Esto tiene que ser el recurso técnico más barato en el campo del video).
Balance de blanco con un cartón blanco
Como hemos expuesto previamente, el rojo, el azul y el verde deben estar presentes en ciertas proporciones para crear el blanco. Es relativamente fácil balancear a blanco (balance del color) una cámara profesional para producir un color exacto.
Con la cámara enfocada sobre una tarjeta totalmente blanca, el operador presiona el botón de balance de blanco y los canales de color de la cámara se ajustan automáticamente para producir blanco "puro". La cámara, en efecto, supone que lo que tiene delante es blanco y balancea los circuitos electrónicos de modo que lo tome como tal.
Aunque el foco no es crítico, la tarjeta debe ocupar todo el encuadre con la fuente de luz dominante de la escena. Este proceso es lo que se conoce como balance de blanco de la cámara.
En condiciones de trabajo profesionales, cuando la fuente de luz dominante en una escena cambia, la cámara debe balancearse nuevamente (debe reprogramarse el balance de blanco). Si se pasa de la luz del sol a la sombra, la cámara necesitará un nuevo balance de blanco. Igual ocurre, si pasamos de interiores a exteriores, y cuando transcurren varias horas grabando bajo la luz del sol.
No hacer el balance de color de la cámara puede provocar cambios de colores (en tonos de piel en particular) entre una escena y otra. Esto será particularmente objetable durante la edición cuando intente unir dos escenas con tonalidades diferentes. (Por ejemplo, tonos de piel que cambian en cada corte de manera desagradable).
Engañando a la cámara
Usted puede también "engañar" a la cámara durante el balance de blanco para crear ciertos efectos. Un ambiente cálido en una escena puede ser creado haciendo el balance de blanco sobre una tarjeta azulada; Un velo azul puede lograrse haciendo el balance sobre un cartón amarillo.
En un esfuerzo para compensar los colores presentados como "blanco", los circuitos de balance de blanco de la cámara llevarán al balance de color a adaptarse al color que está en la tarjeta.
Aunque en cierto grado el balance de blanco puede ser modificado electrónicamente en post-producción, siempre es preferible establecer desde el principio el balance de color en la cámara. Como el balance de color involucra la interrelación de tres colores, no es siempre posible ajustar simplemente uno de los colores sin afectar los demás.
Nivel de negro y balance negro
Las cámaras profesionales también tienen ajustes para el nivel de negro y balance de negro. Estos son usualmente configurados tapando el lente (para que no entre ninguna luz) y permitiendo a los circuitos automáticos balancear adecuadamente los tres colores para lograr el negro óptimo, mientras, a la vez, se establece el nivel de video para el negro.
La reproducción del color es subjetiva
Aunque hay una gran cantidad de equipo para medir de con precisión el color, este, como una percepción humana, sigue siendo bastante subjetivo. De hecho, al juzgar el color, el ojo humano puede ser fácilmente engañado. Para explicar este problema, nosotros necesitamos estudiar los dos tipos principales de iluminación: la luz del sol y la luz incandescente.
La luz del sol contiene una severa mezcla de todos los colores de luz por igual. El color de la luz se mide en grados Kelvin (K). Sobre la escala de Kelvin, la más baja temperatura de color es la luz roja, y la más alta, es el color azul.
Comparada a la luz del sol, que tiene una temperatura de color de sobre 5,500°K, la luz de un foco normal de 100 vatios tiene una temperatura de color 2,800° K. Las luces estándar para la producción de campo de video tienen 3,200° K.
Podemos ver la diferencia en la siguiente foto, que se ilumina del lado izquierdo por la luz del sol y del lado derecho por una luz incandescente de interiores.
Mediante un proceso de consistencia aproximada de color, el ojo humano puede ajustarse automáticamente a los cambios de temperatura de color en un rango de 2,800° a 5,500° K.
Por ejemplo, si se observa un pedazo de papel blanco en la luz del sol, no se tiene ningún problema en verificar que eso es blanco. Igualmente, cuando se toma el mismo pedazo de papel blanco bajo la iluminación de una luz incandescente normal, se seguirá viendo blanco.
Pero, por alguna medida científica, el papel ahora refleja mucha más luz amarilla. Una luz amarilla (3,200°K) que cae sobre un objeto blanco crea un objeto amarillo. Pero, como se sabe que el papel es blanco, su mente dice, "Yo sé que el papel es blanco." Y de esta manera (mediante la consistencia aproximada de color), usted mental e inconscientemente ajusta su balance interno de color para hacer que el papel parezca blanco.
De este modo somos capaces de ajustar mentalmente todos los otros colores para percibirlos en una perspectiva apropiada. Aunque hacemos tales correcciones de color para tener alrededor "escenas del mundo real", no tendemos a hacer lo mismo cuando vemos televisión o fotos a color. En este caso generalmente tenemos un standard de color en nuestra visión (luz del sol, una fuente de iluminación artificial, o cualquier otra).
Ya que sabemos que la percepción humana del color es bastante subjetiva, es crucial que confiemos en alguna medida científica objetiva o la normas standard para que el equipo de video pueda balancearse de manera precisa y consistente. El instrumento de medición del que se habló anteriormente es el vectorscopio.
Color adecuado vs. color verdadero
Podemos asumir que los televidentes quieren ver colores reproducidos de la manera más precisa y fiel posible. Algunos estudios han demostrado, sin embargo, que las preferencias de color se inclinan hacia la exageración. Los espectadores prefieren ver tonos de piel más saludables de lo que ellos realmente son, así como también el pasto más verde, y el cielo más azul. Desde el punto de vista del vectorscopio, esta preferencia no significa que los matices son imprecisos, sino que son "más fuertes" y más saturados.
La exposición
Sin luz (natural o artificial) no hay foto, pero en la correcta interpretación de la iluminación se basa un elevado porcentaje de posibilidades del éxito final de la fotografía.
¿Qué es la exposición?
Hablamos de exposición cuando nos referimos a la cantidad de luz que llega a los sensores de nuestra cámara (o a la película, en la fotografía tradicional), cantidad que puede ser controlada por medio de la abertura o de la velocidad de obturación del diafragma.
Una mayor o menor abertura regula la intensidad de la luz que alcanza los sensores.
Una más o menos rápida velocidad de obturación determina el tiempo que dura la exposición a dicha luz
Nuestra cámara dispone de un sistema de medición (técnicamente, un exposímetro) que informa en todo momento del ajuste correcto a realizar. Un mismo valor de exposición podrá conseguirse mediante diferentes combinaciones de abertura y velocidad, y la decisión de cuál de las opciones nos conviene más estará condicionada por:
• Que deseemos utilizar una velocidad de obturación rápida a fin "paralizar" la imagen lo más posible.
• Que la deseemos lenta para obtener una imagen deliberadamente borrosa.
• Que nos interese una abertura pequeña porque necesitemos una gran profundidad de campo.
• Que necesitemos abrir mucho el diafragma porque queramos enfocar de forma selectiva, despreciando la nitidez del resto de la foto.
Es fácil comprender que la correcta exposición es una de las claves para obtener una buena fotografía. En modo automático, las cámaras pueden decidir por sí solas la combinación entre abertura y velocidad aunque, eso sí, sin tener en absoluto en cuenta los cuatro condicionantes antes indicados. Sin embargo, la imagen final puede no salir como se esperaba, puesto que la cámara mide de forma estándar y, por ejemplo, no considera la posibilidad de que el objeto a fotografiar se esté moviendo con rapidez.
Cuando la exposición no es correcta, pueden producirse fallos que a todos nos han sucedido en alguna ocasión. Así, si la cámara deja entrar demasiada luz se presentará un fenómeno de sobreexposición, perdiéndose los detalles de las zonas más brillantes y observándose en cambio con nitidez las zonas que en teoría debían aparecer en sombra en la fotografía.
Por el contrario, si la luz que alcanza los sensores es insuficiente se presentará un fenómeno de subexposición, en el que las zonas más brillantes pierden detalle y las sombras quedan mucho más oscuras.
Indicadores de grabación
Indicadores a tener en cuenta en el uso de algunas cámaras:
* Leyenda REC en rojo (que la cámara esta grabando)
* Leyenda STBY, Stand By- en verde (que la cámara no esta grabando)
* Advertencia de batería baja (Imagen de una pila titilando)
* Los minutos de cinta remanente
* Necesidad de balance de color (Imagen W.B. titilando)
* Filtro ND colocado (interior / exterior)
* Posición del zoom (indicando cuanto mas se puede aplicar o retirar el zoom) . Wide / Tele
* Estado manual o automático del foco (MF o imagen de una mano)
* Estado manual o automático del iris (en estado manual indica la apertura del mismo, por ej. F6.8)
* Monitoreo de nivel de audio
* Contador de pietaje de la cinta
* "Patrón Zebra" para monitorear y ajustar los niveles de vídeo
* Marcos superimpuestos para area de seguridad, y encuadres en formato 4:3 o 16:9.
* La presencia de ajustes predeterminados de la cámara
*Aviso de falta de cinta
Edición
Sistemas de edición
Los sistemas de edición lineal se fundamentan en equipos de reproducción y de grabación. Requieren que las ediciones se hagan en forma lineal o cronológica. Esto es equivalente a escribir un artículo en una máquina de escribir. El material debe estar muy bien organizado antes de comenzar (si quiere un resultado bien organizado), porque una vez que está entintado el papel, los cambios son muy complicados de hacer. Por el contrario, la edición no lineal sería el equivalente a escribir con cualquier procesador de palabras en una computadora.
El concepto detrás de la edición lineal es sencillo: una o más cintas con el material original se transfieren segmento por segmento a otra cinta en otro grabador. En el proceso, los segmentos originales pueden ser acortados o reacomodados en otro orden, se eliminan las tomas malas y se pueden agregar efectos de audio y video.
Las fuentes contienen el material original, y el grabador editor, que es controlado por un controlador de edición, se utiliza para controlar todas las máquinas y completar el master editado.
El operador que edita, utiliza el controlador de edición para mover las cintas de uno a otro lado y así encontrar el inicio (y posiblemente el final) de cada segmento seleccionado. Entonces el controlador de edición se encarga automáticamente de ubicar los puntos, colocar las cintas en puerta, grabar la toma y hacer cada edición individual.
En los sistemas más sencillos los puntos de entrada y salida se referencian por unos pulsos grabados en la cinta – 24 pulsos por segundo en video PAL y 30 por segundo en video NTSC. El método de edición que referencia las entradas y salidas a la cuenta de los pulsos de control track se llama edición por control track.
La edición por control track tiene dos importantes limitaciones. Primero, exige que el equipo haga un conteo de millares de pulsos de control track. Por razones mecánicas esto es sumamente difícil. Durante la edición se está constantemente moviendo cintas hacia adelante y hacia atrás a diferentes velocidades mientras marca los puntos de entrada y salida. Si el equipo pierde la cuenta apenas por una fracción de segundo, el punto de edición se correrá por uno o más cuadros y dañará lo que de otra forma hubiese sido una edición perfecta.
Los editores experimentados saben mirar el contador de pulsos a medida que mueven la cinta. Si el contador se congela por un instante, significa que el equipo ha perdido la cuenta de los pulsos de control. Los problemas se reducen a video-tapes imperfectos o problemas con el control track ya grabado.
Como el control track se mantiene en la memoria volátil del editor, no hay forma de reproducir automáticamente las decisiones de edición después que el equipo se ha apagado (en caso de que quiera hacer alteraciones en sus decisiones de edición) esta es la segunda desventaja.
La edición lineal fue la primera aproximación a la edición y todavía se usa ampliamente. Aunque es la manera más rápida de ensamblar una secuencia sencilla, no permita la variedad de opciones que un sistema no-lineal sofisticado ofrece al editor.
Edición por ensamblaje e inserción
Hay dos tipos de edición que puede hacerse en un sistema lineal. Cuando se utiliza la edición por ensamblaje (assemble editing) se edita toda la información de video y audio, además de su respectivo control track en la secuencia de grabación.
Como afirmamos anteriormente, el control track es difícil de grabar sin problemas de precisión en cada punto de edición. Cualquier error temporal (en esta fase particularmente mecánica del proceso) resulta en un salto en el video. Por ello, el método de edición por ensamblaje no es de mucha utilidad. Apenas tiene sentido cuando hay que ensamblar muy rápidamente una secuencia.
La edición por inserción (Insert editing) requiere un paso adicional; primero debe grabarse un control track estable y continuo en toda la cinta que va a utilizar, y luego se inserta sobre alguna parte de la copia final otra imagen (insert) o sonido (audio dub).
La edición no-lineal
La edición no-lineal (también llamada de acceso aleatorio) permite insertar segmentos, eliminarlos, y cambiarlos de posición en cualquier momento durante la edición.
Durante la edición no-lineaI los segmentos originales de video se transfieren digitalmente al los discos duros de una computadora (digitalización) antes de comenzar a editar. Una vez que se han convertido en información digital el sistema de edición los puede ubicar y presentar en cualquier orden, instantáneamente.
Durante la edición no-lineal puede agregarse una cantidad considerable de efectos especiales incluyendo fades (fundidos), disolvencias, títulos y corrección de color por escena.
También puede mejorarse el sonido durante la edición con filtros y efectos sonoros diversos. En algunos sistemas es posible hasta comprimir y expandir la longitud del audio y el video (acelerar o ralentar).
La mayoría de los editores no lineales utilizan una o más líneas de tiempo (time line) para representar la secuencia de edición, e infinidad de pistas tanto de audio como de video (por ejemplo pudiese tener música de fondo en una línea de tiempo, el sonido de fondo original de campo en otra línea y la voz de un locutor en una tercera). Con un Mouse puede seleccionar y mover los distintos elementos de audio y video, transiciones, efectos especiales, etc., en la línea de tiempo. Ensamblar un proyecto es tan sencillo como seleccionar y mover los distintos elementos en la pantalla del computador.
Hay además una variedad de filtros que pueden ser aplicados: blur (fuera de foco), corrección de color, recortado, aumento de resolución, niebla, distorsiones geométricas, etc.
A pesar que todos estos sistemas no lineales exigen cierto tiempo para ser dominados, una vez que conozca un sistema, las habilidades pueden ser transportadas a otros fácilmente.
En la edición no-lineal los segmentos de video y audio no quedan grabados permanentemente, como en la edición lineal. Las decisiones de edición existen en la memoria del computador como una serie de marcadores que dicen dónde ubicar la información en cuestión en el disco.
Ello implica que uno puede revisar la edición y modificarla en cualquier momento del proceso. También significa que usted puede fácilmente (y hasta interminablemente) experimentar con alternativas de audio y video para evaluarlas.
El producto final puede ser obtenido de dos maneras. Puede ser "impreso" (grabado) directamente en cassette o dvd desde el editor no lineal, o puede ser transferido guardado en disco rígido para ser utilizado más adelante. Este último método, que usualmente se utiliza en noticieros, requiere de un sistema de archivo de alta capacidad.
Con algunas limitaciones es posible insertar - sustituir - nueva información de video y audio en otro momento (i.e. cambiar una toma, agregar una pista de música). No es posible, sin embargo, alargar o recortar segmentos del master ya editado, para esto es necesario volver a digitalizar.
Cómo crear una edición en papel
Independientemente, del método de edición que elija, usted puede ahorrarse mucho tiempo analizando previamente el material y generando un montaje en papel.
En primer lugar, usted no necesariamente conoce todo lo que realmente tiene grabado, qué utilizará y qué eliminará - hasta tanto evalúe todo su material. Además, anotando los códigos de entrada y salida, podrá tener una idea de cuánto durará cada segmento y en total, su producción.
Un formato de edición en papel, como el que se presenta aquí (abreviadamente), le dará una idea de como esta información es presentada.
Cassette Toma Código de entrada Código de Salida Descripción de escena.
2 14 00:22:45:12 00:23:32:01
Existen programas de computación diseñados para crear estas listas. Algunos permiten reubicar las escenas en la pantalla y editarlas en cualquier orden. Calculadoras de time code, anexas al programa facilitan la labor.
Si usted esta haciendo un guión de noticias en un computador, los códigos de tiempo y las descripciones de las escenas pueden ser transcriptas mientras usted ve las escenas en el monitor.
Cuando usted termina de marcar todas las escenas, puede dividir la pantalla de la computadora horizontalmente, colocando el código de tiempo y la lista de escenas en la parte superior y su procesador de palabras para escribir su guión en la parte inferior.
Continuidad en Edición
La edición es la fuerza creativa de la realidad fílmica y la base del arte cinematográfico.
(V.I. Pudovkin, 1915). Desde que esta frase fue enunciada hace más de 80 años, la edición cinematográfica (y de video) se ha tornado cada vez más importante.
La edición da forma a la estructura, el contenido, la intensidad y el ritmo, según la intención general de la producción.
Empezaremos con la continuidad de edición.
La continuidad de edición consiste en la organización de las secuencias y de las tomas para sugerir una sucesión de eventos. Dándole las mismas tomas a un editor este podría sugerir muchas alternativas distintas.
Empezaremos con un ejemplo sencillo de solo dos tomas.
* Un hombre voltea sorprendido.
* Otro hombre toma una pistola y dispara en dirección a la cámara.
En este orden, da la impresión que el primer hombre recibió un disparo, sin embargo si invertimos el orden de las escenas el primer hombre es testigo de un disparo.
Veamos qué podemos hacer con tres tomas.
* Gente saltando de un carro.
* El carro está en llamas.
* Una explosión.
En el orden 1-2-3 de las secuencias, las tomas sugieren que las personas saltan de un carro segundos antes de que se incendie y explote.
En el orden 2-3-1 la gente salta del caro luego de un incendio provocado por una explosión.
Si la secuencia es cambiada al orden 2-1-3, da la impresión que como resultado de un incendio los pasajeros saltan de un carro justo a tiempo para escapar de una devastadora explosión.
Todo esto con sólo tres escenas para trabajar
Cuando cientos de tomas y secuencias están disponibles, el editor tendrá un importante control sobre la continuidad básica y el mensaje de la producción.
Cambiando la continuidad
La edición de continuidad en principio guía al público a través de una sucesión de eventos, mostrándoles lo que quieren ver cuando lo quieren ver. Al final, usted ha contado una historia o ha orientado de manera lógica una serie de situaciones hacia una conclusión.
Los buenos editores en algunas oportunidades, evitan lo esperado para generar un mayor efecto dramático. El no llenar las expectativas puede ser utilizado para crear tensión en el público. Veamos en esta simple secuencia:
* Un hombre trabaja hasta tarde en un escritorio.
* Tocan la puerta.
* El hombre del escritorio rutinariamente dice: "entre".
* Luego de ver hacia arriba, la calmada expresión del hombre del escritorio, cambia por una expresión de alarma.
¿Por qué? No lo sabemos. ¿Dónde está la toma del quién o qué entró? ¿Qué sucede si no cortamos a esa toma esperada? El público quedará con curiosidad y angustia o dependiendo de cómo es manejado con frustración y resentimiento.
Otro ejemplo: En una presentación sobre los cambios del billete de 100 pesos, el vocero de la casa del tesoro explica los detalles referentes a las modificaciones que necesariamente deberíamos ver. Supongamos que durante toda la explicación vemos en un plano general a los dos hombres examinando con cuidado el billete.
Seguramente nosotros, como público, queremos ver el billete de 100 pesos, para poder apreciar las variaciones mencionadas; si no las vemos, nos sentimos frustrados.
Entonces, a menos que usted desee dejar al público en expectativa por unos instantes (para crear un efecto dramático) siempre mantenga en mente lo que usted considera que el público quiere ver en un momento determinado. Si mantiene esta premisa, su lista de decisiones de edición se creará prácticamente sola.
En noticias y documentales, debería presentar los eventos en un orden lógico para evitar confusiones y malos entendidos. Como hemos destacado, en este tipo de producción se debe ser lo más claro y concreto posible.
En producciones dramáticas hay muchas más alternativas creativas. De hecho, en los programas dramáticos es preferible dejar una ventana abierta a las interpretaciones individuales.
Tiempo condensado
En cine y video el tiempo es frecuentemente condensado y expandido.
Por ejemplo: usted quiere relatar la historia de una chica que sale a una cita importante. El proceso de verla seleccionando su ropa, tomando una ducha, secando su cabello, vistiéndose, maquillándose, viéndose en el espejo, para luego conducir al punto de encuentro, podría llevarse fácilmente 90 minutos. Ese es el tiempo total disponible de la mayoría de las producciones cinematográficas y aún no ha empezado la cita.
Desde sus inicios, el negocio del cine educó al público para asumir que ciertas cosas no serian mostradas. Por ejemplo los 90 minutos del ejemplo anterior pueden ser presentados en 19 segundos.
* Una toma de la chica terminando una conversación telefónica y saliendo rápido del encuadre. (3 seg.)
* Toma rápida de ella sacando ropa del closet ( 2 seg.)
* Toma en la ducha a través de una puerta empañada (2 seg.)
* Un par de tomas secándose el cabello (4 seg.)
* Una toma saliendo por la puerta principal de la casa ( 2 seg.)
* Unos segundos conduciendo (4 seg.)
* Finalmente llegando al lugar acordado (2 seg.)
O qué tal esta alternativa:
* Una toma de la chica colgando el teléfono y saltando rápido para salir del encuadre.
* Una toma de ella llegando al punto de encuentro.
Tiempo extendido
Ocasionalmente el editor o el director quieren alargar el tiempo real de lo que sucede, para crear un efecto dramático.
El director Alfred Hitchcock (Psicosis, North By Northwest, Psycho, etc...) utilizó el ejemplo de una escena donde un grupo de personas estaban sentadas en una mesa para cenar y explotó una bomba de tiempo. En la versión en tiempo real de la escena, las personas están sentadas en la mesa y la bomba se apaga. Termina la escena, termina la gente.
Pero Hitchcock era famoso por el suspenso y el verdadero suspenso no hubiese sido creado de esta manera.
En una segunda versión la gente se reúne, habla, casualmente se sienta a la mesa de la cena. Una toma de la bomba sonando debajo de la mesa, muestra al público lo que está pronto a suceder.
La gente, en desconocimiento de la bomba sigue su banal conversación.
Una toma más cerrada de la bomba, con cortes de la gente riendo y disfrutando la cena. Los cortes continúan y van interviniendo a un ritmo acelerado hasta que finalmente la bomba hace estallar la mesa de la cena en pedazos.
Esta última versión definitivamente crea un mayor impacto emocional.
Causa-efecto
Frecuentemente, parte de la edición de continuidad se hace para sugerir o explicar una causa. Un buen guión (potenciado por una buena edición) explica por qué las cosas suceden.
Un ejemplo sencillo: En una producción dramática se ve extraño a alguien respondiendo el teléfono a menos que éste hubiese sonado previamente. Un teléfono sonando sugiere una respuesta: el teléfono es atendido.
En una película dramática, podemos ver el cadáver de una mujer en el piso de una sala durante cinco minutos. Pero no veremos quién la mató hasta transcurrir 90 minutos.
En este caso el efecto anticipa la causa. Aún cuando la continuidad estricta del montaje nos impulsa a presentar una secuencia lógica de las escenas, podría ser más interesante (y más atractivo para el público) si presentamos el resultado primero y revelamos la causa gradualmente, en el transcurso de la pieza.
En oportunidades asumimos la causa. Si nos muestran una toma de alguien con todos los síntomas típicos del borracho (efecto), quizás con seguridad asumiríamos que ha bebido. (Causa).
Si vemos una toma de alguien intentando una difícil acrobacia en esquís por primera vez, seguida de otra toma de la misma persona llegando a su casa con un yeso en la pierna, asumimos que las cosas no salieron bien.
Volvamos al cadáver en el piso de la sala. Saber que el marido lo hizo quizá no será suficiente (podría ser para la policía, pero no para la mayoría de los espectadores). En causa - efecto está presente el por qué. Esto impulsa la motivación.
Motivación
Podemos pensar en cualquiera de los clásicos motivos: dinero, celos o venganza.
Pero incluso sabiendo que la motivación fue la venganza, puede que no sea suficiente para una producción bien pensada. La venganza debe tener una causa.
Para lograr la respuesta debemos llevar al espectador al inicio de los hechos. Podemos mostrar a la mujer con una cantidad de amantes. Vemos cómo el marido va acumulando la sospecha, los celos, el resentimiento y la ira, hasta que finalmente no puede contener más estos sentimientos negativos.
Ahora entendemos. Hemos visto causa-efecto y motivación. Así el hecho tiene sentido.
El editor debe percibir esta dinámica causa-efecto, de manera que la domine como una técnica a la perfección. El editor también debe conocer bien la psicología humana, para poder reflejar sentimientos y situaciones de manera realista. Usualmente, saben que no pueden revelar las respuestas de inmediato, ya que en cualquiera buena historia de misterio, parte de la diversión es que el público trate de intuir quién lo hizo y por qué.
Continuidad técnica
Cualquier cambio no deseado y notable y abrupto en el audio o video de un programa se le conoce como un problema de continuidad técnica.
Algunos problemas de continuidad son aceptables; otros no. Las noticias y los documentales están producidos bajo condiciones drásticamente diferentes. Allí podemos perdonar cambios en el balance de color de las tomas o en el sonido en diferentes locaciones.
Pero en producciones más sofisticadas no aceptamos las inconsistencias técnicas porque distraen nuestra atención de la historia. En este tipo de producciones el medio (televisión) debiera ser totalmente "transparente" y nada debe interponerse entre la el medio y el mensaje (la historia).
Problemas de continuidad de audio
Los problemas de continuidad de sonido pueden ser causados por múltiples factores entre los que encontramos variaciones entre una toma y otra de
* Ambiente sonoro (reverberación de una habitación, distancia al micrófono, etc.).
* Respuesta de frecuencia del micrófono o el equipo de sonido.
* Niveles de sonido.
* Sonidos de fondo.
En las producciones a una sola cámara muchas de estas inconsistencias no son fáciles de detectar en locación. Es tan sólo cuando las diferentes tomas aisladas se ensamblan en la edición, cuando los problemas de continuidad se hacen aparentes.
En un corte puede aparecer que el personaje suena más cerca o lejos o que el sonido de fondo (tráfico, aire acondicionado, o cualquier emisor de ruido) cambió.
Algunos problemas pueden ser minimizados con ayuda de un ecualizador gráfico, y reverberador en las manos adecuadas. Los cambios en el fondo pueden ser tapados con el uso de un sonido constante adicional como música, sonidos de calle, pájaros u otro sonido ambiente.
Es mejor prevenir que lamentar (asumiendo además que podamos resolver los problemas de alguna manera).
Primero, está atento al hecho de que los micrófonos usados a diferentes distancias reproducen el sonido de manera diferente. Esto se debe a cambios en la acústica además del hecho de que algunas frecuencias específicas disminuyen su intensidad con la distancia. Aunque la mayoría de los micrófonos direccionales costosos minimizan el efecto de distancia la mayoría presentan efectos de "proximidad" o presencia. Un buen par de audífonos aislados permite detectar esas diferencias.
Con la creciente confiabilidad de los micrófonos inalámbricos, muchas facilidades de producción equipan a cada actor con su propio micrófono personal. La distancia al micrófono no varía (usualmente está escondido en la misma ropa), y por el efecto de proximidad del micrófono, el ruido de fondo queda prácticamente eliminado.
Finalmente, verifique los cambios en los sonidos de ambiente. Por ejemplo, el ruido de una motocicleta o un vehículo pasando puede desaparecer abruptamente al cortar a otra toma grabada a otro momento.
Aún si el sonido no desaparece totalmente, el nivel puede variar cuando cortamos de un actor a otro. (La escena a la derecha haría un bello fondo para una entrevista, pero la caída de agua crearía problemas gigantescos al audio, especialmente en una producción dramática.)
Problemas de continuidad de video
El Video tiene sus propios problemas de continuidad; por ejemplo cambios en:
* Balance de color.
* Balance tonal.
* Niveles de luz; exposición.
* Opticas de cámara; definición.
Calidad de grabación.
Al intercortar escenas de cámaras con características de respuesta al color notablemente diferentes (balance de color) será evidente para la mayoría de los televidentes.
Para disminuir este defecto, todas las cámaras deberían ser balanceadas de color antes de la grabación. Esto es especialmente importante en producciones multi-cámara.
Una vez que se ha hecho el balance adecuadamente, debe grabarse un patrón de barras con colores primarios y secundarios al inicio de cada cinta. Esto se utilizará para balancear la reproducción de la cinta con los tonos adecuados.
Algunas veces se escapa algún problema, en especial cuando se utilizan cámaras distintas o se graba bajo condiciones diferentes. Fíjese en las fotografías arriba, que hay varias cosas distintas: el color de piel, el balance de color, contraste y brillo.
Los sistemas de edición suelen utilizar un vectorscopio para ajustar los colores en la cinta al inicio de cada sesión. Esto es también parte del software de casi todos los sistemas de edición no lineal hoy en día.
La audiencia es particularmente crítica de los cambios en la tonalidad de piel. En muchos casos, un ingeniero de video, equipado con las herramientas adecuadas podrá ajustar la señal para que al menos el tono de piel se parezca. Los fondos - en virtud de que la audiencia probablemente no tiene una referencia exacta de sus colores reales - es menos crítico.
Continuidad en la música de fondo
La música de fondo puede emparejar la transición entre segmentos y mantener cierta unidad en la producción - siempre que esté bien utilizada.
La música de fondo deberá contribuir con la ambientación general sin llamar la atención a sí misma. Deberá seleccionarse música que mantenga el tono, ritmo y temporalidad de la producción. En general deberá evitarse canciones cuando hay locución o diálogo que pueda competir.
Idealmente, el inicio de la música debería coincidir con el inicio del segmento de video y concluir con el video. Esto no ocurre casi nunca sin cierta ayuda intencional del productor.
Con los sistemas de edición de hoy en día la música puede ser alargada o recortada para acompañar las selecciones de video. Esto es aún más fácil si la música tiene secciones repetitivas y ciertas pausas. Igualmente puede acelerarse o realentarse las imágenes en estos equipos, aunque esto siempre debe ser considerados como un último recurso.
Una falla notable de continuidad sucede cuando se decide hacer “fade out” – fundido - a la música en mitad de un tema para hacerla coincidir con el final del video.
La retromedición del tema puede aliviar este problema. En retromedición se inicia la música para hacer coincidir su final con el final del video. Esto se hace midiendo desde el final y restando el tiempo del segmento en cuestión.
Por ejemplo, si una selección musical fuese de 3 minutos y el video de 90 segundos la música se haría comenzar a los 90 segundos para por “fade in” junto al video. A los 90 segundos ambos terminarían simultáneamente.
Esto es muy sencillo de lograr en un sistema de edición computarizado no-lineal. En sistemas lineales es algo más difícil y requiere un mínimo de planificación.
Técnicas de continuidad
Un editor puede hacer resaltar cualquier producción, sin perder la continuidad básica de una historia, con inserts y cutaways (cortes de acción alterna).
Insertos
Un insert es un primer plano de algo que existe en la escena principal tal como ha sido presentada la toma de situación.
Los inserts agregan información necesaria, que de otra manera no sería visible o suficientemente clara.
En nuestro ejemplo anterior de un insert sería el primer plano de las manos de la trabajadora.
Cortes
A diferencia de los inserts, que muestra detalles importantes de la escena principal, los cutaways (cortes) nos sacan de la escena principal para agregar información relacionada a la historia, pero que no se presenta en ese lugar.
Aquí cortamos de una escena de un hombre bajando por un ascensor a la de otro que ya está en el nivel inferior.
Vínculos – el montaje intelectual -
Hace muchos años los cineastas rusos Pudovkin y Kuleshov, llevaron a cabo un experimento, en el cual incluyeron distintos cortes sobre la escena de un hombre sentado sin moverse y completamente inexpresivo. Las inserciones incluían un primer plano de un plato de sopa, un plano de una urna con un cadáver de una mujer y la toma de una niña jugando.
Para el público que vio la pieza editada, el hombre parecía involucrarse en cada escena. Cuando la toma del hombre se unía a la de la urna, el público pensó que el actor sufría una tremenda pena. Cuando el plano se presentaba junto al de la comida, el público veía al hombre hambriento y cuando con el de la niña, pensaron que el personaje experimentaba orgullo paterno.
Así una de los aspectos más importantes de la edición fue experimentalmente demostrado: el ser humano tiene la tendencia a tratar de establecer relaciones entre una serie de escenas consecutivas.
En una edición vinculante, escenas que solas parecen no estar asociadas, asumen una relación causa - efecto importante, al ser editadas de manera continua.
¿Recuerda la escena de la mujer que aparentemente fue asesinada por su esposo? ¿Qué sucedería si colocamos, luego de la toma del cadáver, una toma de la mujer tomando a escondidas grandes cantidades de dinero de una caja fuerte? ¿Está sugerida la relación entre estos dos eventos? ¿Tenemos ahora una pista de lo que pudo haber ocurrido?.
Edición temática
En la edición temática (también conocida como montaje) las imágenes son editadas juntas basadas en un tema central, exclusivamente. En contraste con la mayoría de las ediciones temáticas. La edición temática no tiene la misión de contar una historia desarrollando una idea en un orden lógico.
De una forma más general, la edición temática se refiere a una secuencia rápida, impresionista, de escenas desconectadas, ordenas con el objetivo de crear una sentimiento, una experiencia. Este tipo de edición es generalmente utilizada en videos musicales, comerciales y promociones (cine y TV). El objetivo no es trazar un hilo narrativo, simplemente se busca comunicar acción, entusiasmo, peligro, etc.
Montaje paralelo
Las primeras películas solían seguir una sola línea narrativa (generalmente con el personaje principal en cada escena). Hoy en día encontraríamos esta estructura narrativa demasiado aburrida. Las novelas, las comedias de situación y producciones dramáticas en general, e incluso los documentales, tienen con frecuencia varias historias que suceden simultáneamente. Cortando entre las mini-historias que suceden dentro de la historia principal, se acelera el ritmo y tempo aportando variedad y manteniendo el interés.
Esto es llamado acción en paralelo. Cuando el montaje sigue estas historias se le conoce como montaje paralelo.
En el ejemplo anterior del asesinato, la acción puede ser tan simple como cortar entre el esposo que asesina a su mujer y simultáneamente el trabajo del detective intentando averiguar lo ocurrido.
Solución a problemas de continuidad
Como hemos notado, el público ha aprendido a aceptar la reducción de enormes cantidades de material fílmico para mantener el ritmo de la historia en movimiento. Estos cortes pueden provocar algunos problemas de continuidad sobre la acción que no favorecen a la comprensión de la pieza. Cuando ello sucede, se llaman "saltos en el corte”, quedando un corte antiestético, burdo y discordante durante la acción o sobre el contenido.
Si usted es muy observador notará que muchas películas y series aportan buenos ejemplos de pequeñas faltas de continuidad, aquí presentamos algunos de ellos:
* En una toma de una pareja conversando sobre un bote, vemos cómo el viento sopla y mueve suavemente su cabello, pero en la toma de PP inmediata el viento inexplicablemente deja de soplar.
* Un primer plano de la actriz la muestra riendo pero en el plano de situación inmediato, vemos que ni sonríe.
* Un hombre camina abrazando por la cintura a su novia, pero la toma desde otro ángulo muestra su brazo sobre el hombro.
Estos son problemas relacionados a la grabación con una sola cámara, al estilo cinematográfico, donde puede transcurrir un tiempo largo entre la puesta en escena y la toma.
Sería ideal que estos problemas fuesen indicados durante la grabación, así nuevas escenas pudiesen ser re-grabadas de inmediato y no haría falta tratar de resolverlas durante la edición. De todas maneras muchos de estos problemas solo se ven en la post-producción al unir las escenas. Existen otras soluciones preferibles al costoso y lento proceso de re-rabación.
Solucionando saltos en la acción
Empecemos por analizar cómo los saltos al cortar, pueden ser solucionados en producciones de tipo dramático.
Una chica que está preparándose para una cita?
Supongamos que la vemos colgando el teléfono en la cocina y rápidamente sale por una puerta a la derecha del cuadro. Todavía no tenemos problemas.
Supongamos que luego de salir del cuadro (de izquierda a derecha) la próxima escena que fue tomada horas o días después, vemos a la chica entrando por la derecha (moviéndose de derecha a izquierda) en ruta a la ducha.
El público queda con una pregunta: Por que ella parece haber dado una vuelta en 180 grados y ha empezado a caminar en dirección contraria para ir al baño?
La solución a la mayoría de los problemas es la utilización de las tomas de recurso e inserciones que comentamos anteriormente.
En este problema en particular podríamos hacer un rápido primer plano de las manos de alguien (similares a las de la actriz) tomando una toalla. Así se introduce un poco de variedad visual a la escena y cuando cortemos a la chica entrando al baño, el público no estará en posición de notar el cambio de dirección tan fácilmente.
Si eso no funciona, podría considerar agregar la escena frente al closet decidiendo qué ponerse, antes de la toma del baño. O también podría recortar el inicio y el final de las escenas para que el público no esté muy seguro en que dirección salió o entró al cuarto. Todos estos trucos pueden ser utilizados para tapar los problemas de continuidad.
Edición de entrevistas
Las entrevistas casi nunca son presentadas por completo. Un público acostumbrado al dinamismo, pronto se aburriría de escuchar respuestas que bordean el tema, poco elocuentes o que simplemente son aburridas. En entrevistas usted terminará grabando por lo menos diez veces más de lo que se ve al final.
El editor debe entonces, cortar el material sin dejar secciones importantes fuera y sin crear cambios fuertes, en el ritmo, el carácter, cadencia o dirección retórica de la pieza. No es un trabajo sencillo.
Para empezar, el cortar un diálogo resulta molesto y provoca un salto evidente en la imagen de la persona que está hablando. Una solución presentada aquí es incluir una toma de recurso de tres o cuatro segundos, insertada encima del corte de la tomas que provocan el salto.
Esto supone que la edición de sonido es uniforme, antes de insertar la imagen.
Estas inserciones pueden ser tomas de reacción del entrevistador, simplemente mirando al invitado durante su discurso u otras tomas de recurso, por ejemplo, que hagan referencia el tema que habla.
Generalmente, estas tomas de apoyo están en una cinta aparte, como complemento al video utilizado para grabar la entrevista. En edición lineal el proceso de grabación en dos cintas separadas hacen la labor mucho más sencilla. Luego retomaremos este aspecto.
Como los editores dependen enormemente de este video de apoyo, el “B roll”, o material de apoyo, resuelve una gran variedad de problemas de edición. Es importante tomar siempre el tiempo necesario para realizar tomas de apoyo variadas en cada entrevista. Serán muy útiles en el momento de la edición.
Cambios Abruptos en el Tamaño de la imagen
Otro tipo de salto de imagen surge al editar de manera consecutiva grandes cambios del tamaño de la misma imagen.
Pasando directamente desde un plano general (Toma de situación) a un primer plano puede resultar muy abrupto. Un plano medio entre ambos es generalmente necesario para suavizar la transición y orientar al público a la nueva información que le interese.
Por ejemplo, si corta de la toma de la izquierda directamente desde la toma de la derecha, el público tendría dificultad averiguando dónde ocurrió la acción, o incluso si esta fue la primera escena.
Sin embargo, si usted corta a plano medio, como se muestra en la imagen anterior, antes del primer plano, el ambiente general donde se desarrolla la escena queda evidente.
Una secuencia bien marcada según la fórmula 1 - 2 - 3 cubre este ejemplo.
1. Un plano general momentáneo (también denominado plano maestro o toma de situación o establecimiento).
2. Un corte a plano medio.
3. Cortes a varios planos en primer plano.
De ser necesario para salir de una escena, la secuencia puede ser montada a la inversa.
A veces es necesario volver al plano general para recordar al público dónde se lleva a cabo la escena y la situación. Esto es especialmente importante durante o después del movimiento de los actores. Cuando usted corta de nuevo a un plano general lo hace para recordar al público dónde se está desarrollando la escena.
De todas maneras esta formula desde un PG-PM-PP es tradicional (en algunos estudios de cine es una orden mantener esta rutina). En ocasiones el editor pensará que es mejor utilizar otro método.
Por ejemplo, iniciar una escena con un primerisimo primer plano de un objeto fundamental, centrando así la atención del espectador en ese objeto. En una escena dramática el primer plano puede ser de un marco de fotografías roto, una pistola o cualquier objeto importante en el argumento. Una vez que está marcada esa importancia la cámara puede hacer un travelling, o un zoom hacia atrás para mostrar el entorno de la escena, o bien por corte directo.
Angulos de toma
Otro tipo de salto en la edición se produce cuando se corta entre dos tomas que son casi idénticas.
Un corte de este tipo, aparenta ser un error. Es difícil justificar una nueva toma que no es significativamente distinta.
Para evitar este problema algunos productores utilizan la regla de los 30 grados.
Según esta regla una nueva toma del mismo sujeto es justificable solo si cambia el ángulo de la cámara por lo menos en 30 grados.
En cambio, si realiza una toma de dos personas a una toma de una persona, sería correcto aún si es desde el mismo ángulo, ya que la toma de las dos personas es muy distinta a la toma inicial.
Salto de Eje
Y finalmente, llegamos a uno de los problemas de continuidad más comunes, cruzar la línea o saltar el eje.
Cada vez que un nuevo encuadre de cámara supera 180 grados al anterior emplazamiento usted habrá cruzado la línea - salto de eje- y la acción se verá invertida.
Esta situación es muy difícil de resolver durante la edición, sin embargo algunas de las técnicas enunciadas pueden ayudar. Pero lo mejor que se puede hacer es cuidarse mucho de no cruzar el eje durante la grabación para así evitar este problema.
Los seguidores de futbol saben que la acción se ha invertido cuando el director corta a la cámara que está en el otro lado del campo. Por esta razón nunca es presentado este cambio durante una jugada, solo en las repeticiones. Además es justificado y explicado, solo si esa toma muestra algo que la otra cámara no pudo apreciar.
Cuando una situación se presenta en vivo, esta falla queda evidenciada de inmediato. El problema es menos obvio cuando los actores deben ser grabados desde distintos ángulos durante una grabación con una sola cámara.
Supongamos que usted quiere un primer plano del hombre a la derecha. Si la cámara estuviese ubicada sobre el hombro derecho de la mujer (detrás de la línea azul),
este hombre terminaría viendo a nuestra izquierda durante su conversación con la pareja, en lugar de mirar a nuestra derecha como lo vemos en la foto (usted ha "saltado el eje").
Nota: sin embargo la cámara ubicada enfrente de la línea azul podría ser utilizada sin generar este problema. Una ubicación lógica de la cámara en este caso sería sobre el hombro izquierdo del hombre o la mujer (posición de cámara # 2 en el dibujo)
Si todos los primeros planos son tomados desde el frente de la línea azul, la línea visual de cada persona (la dirección y ángulo de la mirada de cada actor) sería coherente con lo que vimos en la toma de situación.
Ocasionalmente un director romperá la regla de los 180 grados para crear un efecto dramático. Por ejemplo durante la secuencia de una corrida, un director puede decidir intencionalmente saltar el eje en varias tomas para comunicar confusión y desorientación. (esto puede evidenciar uno de los efectos del salto de eje). Otro uso común para el cambio de eje es cuando se intenta hacer una elipsis de tiempo. Por ejemplo, una marcha llegando al obelisco y en la toma siguiente a Plaza de Mayo.
Si la confusión no es el objetivo, un editor debe siempre recordar, mantener el punto de vista del público presente mientras desarrolla el montaje.
Lineamientos
Los actuales sistemas de edición no lineal son capaces de crear cualquier efecto que se pueda imaginar. Esto es tentador. Sin embargo, cuando las técnicas de producción monopolizan la atención, la audiencia se desvía de lo que en realidad es el mensaje central. Los productores profesionales -- o debemos decir, los verdaderos artesanos de este arte -- saben que las técnicas de producción son mejores cuando son transparentes; es decir cuando son imperceptibles para la audiencia promedio.
Esto es especialmente cierto en lo que respecta a las técnicas de edición.
Así que con el objeto de hacer la edición tan imperceptible y discreta como sea posible, debemos considerar varios lineamientos. Como en el caso de los lineamientos para una buena composición, no nos referimos a reglas. Además aprovecharemos estos módulos para presentar varios conceptos de edición, o pautas para tener en cuenta. Como se verá, muchos de ellos se adaptan para las técnicas de producción estilo cine, con una sola cámara.
Lineamiento # 1: La edición funciona mejor cuando tiene un motivo. Al hacer cualquier transición o corte hay un riesgo de interrumpir la concentración de la audiencia y perder la concentración en la historia. Cuando los cortes y las transiciones tienen una razón derivada del contenido de la producción, es casi seguro que pasarán desapercibidas.
Por ejemplo, si alguien da un vistazo a un lado durante una escena dramática, ello nos motiva a cortar a lo que sea que llamó la atención del actor. Cuando una persona deja de hablar y otra comienza, esto genera una razón para hacer un corte de una persona a la otra. Si escuchamos una puerta que se abre, o alguien que grita fuera de cámara, se espera ver lo que produce ese sonido. Si alguien recoge un objeto y lo detalla, es natural insertar una toma del objeto.
Lineamiento # 2: Cuando sea posible, corte durante el movimiento del sujeto. Si el corte es motivado por la acción, esa acción desviará la atención del corte, haciendo la transición más fluida. Los pequeños saltos de edición son también menos obvios, porque los espectadores están concentrados en la acción.
Si un hombre se levanta de una silla, por ejemplo, se puede hacer el corte en medio de la acción. En este caso cada una de las tomas tendrá parte del movimiento. Al cortar tenga en cuenta la regla de los 30 grados.
Mantener consistencia en la acción y los detalles
Editar una producción realizada con una sola cámara, requiere mucho cuidado en los detalles. Los directores por lo general dan al editor muchas tomas de la misma escena. No solo se debe cuidar de la posición relativa de las extremidades, sino también los gestos y del nivel de las voces.
También se debe estar seguro de que nada cambie durante la escena (cabello, vestuario, ubicación, etc.
Fíjese como en estas fotos que del primer plano de la mujer a la toma de situación donde ella continúa su diálogo, la posición de su rostro cambia.
Parte del arte de actuar es mantener consistencia absoluta en las tomas. Esto quiere decir que durante cada toma los movimientos y gestos del actor deben coincidir con ciertas palabras del diálogo.
El trabajo del Director de Continuidad es velar porque el vestuario, los accesorios, los peinados, el maquillaje, etc. así como la utilería (objetos móviles en el set) sean consistentes entre tomas.
Es muy fácil que un objeto en el set sea tomado al final de una escena y luego puesto en otro lugar antes de comenzar a rodar la siguiente toma. Cuando se editan las dos tomas consecutivamente el objeto desaparecerá, o peor aún, se moverá instantáneamente de un lugar a otro al ocurrir el corte.
¿Qué problema se percibe en usar estas dos tomas juntas? Seguramente se dio cuenta de la obvia desaparición del zarcillo, ¿pero se percató del cambio en la posición de su cabello en la frente?
Entradas y salidas de cuadro
Como editor, con frecuencia se debe cortar una escena donde alguien sale de cuadro a otra donde la persona entra.
Es mejor cortar la primera escena cuando los ojos de la persona pasan por el borde derecho del cuadro (asumiendo que está saliendo por el lado derecho) y luego colocar la siguiente escena seis cuadros antes de que los ojos de la persona entren a cuadro (que sería por el lado izq. de la escena).
Estos seis cuadros son significativos. La vista del espectador tarda 1/5 de segundos en llegar de un extremo del cuadro al otro. Durante este tiempo lo que sea que este pasando en la pantalla se hace confuso y los espectadores necesitan unos instantes para enfocarse en la nueva acción. De otra manera, el intervalo perdido puede crear un pequeño salto en la acción.
Un editor puede usar las distracciones en la escena para tapar esos pequeños errores que acarrean inevitablemente las producciones con una sola cámara. Un editor sabe que cuando alguien habla en la escena, la atención se centra en la boca o los ojos de la persona, y a los espectadores se les escapan las inconsistencias en otras partes de la escena.
O, como hemos visto, algunas escenas se pueden agregar para desviar la atención. Recuerde el papel que desempeñan las inserciones y tomas de recurso a la hora de esconder un salto.
Lineamiento # 3: Tenga en mente las posibilidades y las limitaciones del medio. Recuerde esto:
La televisión es un medio de "close-ups" (rimeros planos)
Un editor debe tener en cuenta que una cantidad significativa del cuadro se pierde en los sistemas de transmisión de 525 y 625 líneas. La única manera de mostrar los detalles necesarios es a través de los primeros planos. Excepto por tomas de situación diseñadas para orientar a la audiencia acerca de la ubicación de los objetos, el director y el editor deben hacer énfasis en los primeros y medios planos.
Hay algo que recordar de todo esto. Los close-ups de gente son adecuados para entrevistas o dramáticos, pero no para comedia ligera.
En comedia, los planos medios proporcionan un ambiente liviano, trivial y no involucran al espectador en el tema del programa, o en los pensamientos y emociones de los actores.
En contraste, en las entrevistas y las producciones dramáticas es apetecible usar close-ups extremos para las reacciones de los sujetos y para aportar datos acerca del carácter general de la persona.
En los dramas un director con frecuencia quiere comunicar algo que ocurre en la mente de un actor.
En estos dos casos los primeros planos son la clave.
Lineamiento #4: Cortar la escena en el segundo en el que el motivo de la escena ya ha quedado establecido. Generalmente, el hacer demasiado extensa una escena, toma o situación, la hace menos efectiva. Siempre y cuando esto no esté hecho a propósito.
Un ejercicio bueno para percibir esto es ver comerciales de tv.
Si se le pregunta a alguien que le pareció una película y contesta "Fue un poco lenta", probablemente usted evitará ver esa película. "Lento" es asociado con aburrido.
El ritmo de una producción recae principalmente en la edición, aunque la mejor edición del mundo no es capaz de salvar un guión aburrido (y lento) en primera instancia.
¿Cuánto debe durar una escena? Primero, piense que el interés de la audiencia decae rápidamente una vez que la información esencial es captada. Las tomas con información nueva estimulan el interés de la audiencia.
Complejidad y familiaridad sobre el tema
La duración de la toma está en parte determinada por la complejidad y la familiaridad del tema.
¿Cuánto le toma al espectador captar el elemento clave en una escena? ¿Puede ser entendido en un segundo, o el tema exige tiempo de estudio?
No se necesita una toma de quince segundos del Obelisco, por el hecho de que la hemos visto cientos de veces. Una toma de uno o dos segundos (de 30 a 60 cuadros) sería suficiente para recordarle a los espectadores su simbolismo (a menos, por supuesto que su objetivo sea algún área específica de daño, restauración o algo por el estilo).
Lo contrario sucede cuando lo que mostramos no es algo común o requiere de mayor detenimiento.
Cuando se usa el montaje en mosaico, las tomas pueden durar solo una fracción de segundo (10 a 15 cuadros). Obviamente, esto no es tiempo suficiente para captar todos los elementos de una escena. Pero la idea en este caso es simplemente comunicar impresiones generales, no detalles. Los comerciales con frecuencia utilizan esta técnica para expresar cosas excitantes o "buenos momentos".
El tipo de edición depende del tempo (ritmo) del contenido de la producción. Las escenas reposadas en el campo piden tomas más largas que escenas en el centro de la ciudad a horas picos. Se puede incrementar el ritmo de la producción haciendo cortes veloces en acciones rápidas.
Variar el ritmo (tempo)
Un ritmo rápido constante cansará a la audiencia; un ritmo lento constante la llevará a buscar algo más atractivo en otro canal.
Si el contenido de la producción no tiene un cambio natural de tempo, el editor (posiblemente con ayuda de la música) deberá editar los segmentos para crear cambios de ritmo. Esta es una de las razones por la que a los editores le agradan las historias paralelas en los dramas; el ritmo suele variar al cortar de una historia a la otra.
Existe un patrón general para editar el ritmo en las producciones? Un patrón que incluye variantes regulares en el ritmo.
Ya que la presentación es tan importante, los programas de televisión suelen mostrar los puntos más fuertes del programa que esta por comenzar. Para atrapar a la audiencia a lo largo de los comerciales, los noticieros regularmente "manipulan" las historias que vendrán en el próximo segmento antes del corte comercial.
Una vez que se logra ese “gancho” tiene que mantenerse. Si la acción o el contenido llegan al clímax demasiado pronto, el resto de la producción se irá al traste y puede perder a la audiencia.
Es mejor abrir con una propuesta fuerte de audio o video y luego llenar con información necesaria. En el proceso trate de construir gradualmente el interés hasta alcanzar el final. Un final fuerte dejará a la audiencia con una sensación positiva hacia el programa o el segmento.
Para poner a prueba sus producciones, los directores algunas veces presentan su trabajo a un grupo de público general en sesiones previas en las que hay distracciones leves y consistentes. (Lo que ocurre normalmente en las casas.) Entonces observan las reacciones del público a lo largo de la producción para determinar cuándo decae la atención.
Lineamiento #5: Enfatice el material de apoyo. Howard Hawks, un eminente cineasta americano, dijo: "una gran película se hace con tomas de recurso e inserciones." En la producción de video esto es llamado comúnmente "inserts o tomas de apoyo."
En las producciones dramáticas el insert puede consistir en detalles relevantes (inserciones y tomas de recurso) los cuales agregan interés e información. Un tipo de toma de recurso valioso, especialmente en las producciones dramáticas, es la toma de reacción; primeros planos que muestran cómo los demás reaccionan a lo que está ocurriendo.
Al usar imágenes suplementarias fuertes, se incrementa la cantidad de información expresada en un intervalo específico. Más información en un tiempo más corto nos lleva a un incremento aparente del ritmo.
El material principal en noticias y entrevistas consiste por lo general en tomas bastante estáticas de una "persona hablando". En este caso el material de apoyo consiste en escenas que apoyen, acentúen o de alguna manera reconstruyan visualmente lo que se está diciendo.
Por ejemplo, al hacer una entrevista con un inventor que ha perfeccionado una máquina de movimiento perpetuo, desearemos observar su creación tan detalladamente como sea posible -- e incluso el taller donde la construyó. Dada la escasez de máquinas de movimiento perpetuo, el material de apoyo será más importante que el material principal de una persona hablando. (Después de unos segundos habremos visto como es la apariencia del inventor y no tendrá mucho provecho mantener la toma de él hablando.)
Lineamiento #6: Si se tienen dudas, mejor omitir.
Si una escena realmente no agrega información necesaria, omítala. Al incluirla se detendrá el desarrollo de la historia y puede incluso confundirse con el objetivo de la producción y desviarse del mensaje central.
Las tomas de recurso inapropiadas pueden distraer al espectador del propósito central.
Por ejemplo, un orador en un discurso. Durante el mensaje el director vio espacio para incluir tomas de niños inquietos, parejas tomadas de manos y otras cosas "interesantes" que ocurrían en la audiencia.
Así, que en vez de dejarse envolver por el mensaje, la audiencia televisiva estaba conversando sobre, o al menos pensando en "esa linda niña sobre los hombros de su padre" o cualquier otra cosa. Debe haber un lugar y un tiempo para estas tomas de recurso, pero no en los momentos más dramáticos e inspirados del mensaje del orador.
Tratando de agregar interés a la producción el director, en este caso, solo tuvo éxito en desviar la atención lejos de lo que debió ser el mensaje central.
Así que, a menos que una inserción, una toma de recurso o un segmento agregue algo significativo a su mensaje central, es mejor omitirlo.
Time Code
Cuando trabajamos con tecnología digital en el registro de imágenes de video, las cámaras proveen un código de tiempo (en horas, minutos, segundos y frames) en simultáneo con lo que vamos grabando. El Código SMPTE/EBU (o simplemente "time code") es un código de ocho dígitos que permite especificar con precisión absoluta los puntos video y audio al momento de la ediciónl. Un punto cualquiera asignado en términos de “time code” no puede variar de una sesión a otra, de una máquina a otra, y ni siquiera de un país a otro.
Las decisiones de edición tales como "cortemos la escena en cuanto Sonia sonríe a cámara" dejan mucho espacio para la interpretación, por ejemplo, en el caso de que Sonia se sonría varias veces seguidas o cuando podemos confundir diferentes tomas de la misma escena.
Pero aunque una cinta dure 4 horas, "00:01:16:12" es un punto específico de esa cinta.
Comprendiendo el Código
Si tenemos una cadena de 8 números como 02:54:48:17, esto significaría: 2 horas, 54 minutos, 48 segundos y 17 cuadros.
Como los números de código se mueven de derecha a izquierda cuando se teclean en el computador de edición, debe escribirlos en orden de horas, minutos, segundo, y cuadros.
Si coloca sólo seis números en vez de ocho, la máquina asumirá "00 horas," en virtud de que la combinación de números tecleados apenas habrá llegado hasta minutos.
Si hay algo complejo con el time code, es el hecho de que no puede sumarse o restarse en base 10 al igual que la mayoría de los problemas matemáticos. Las horas van de 00 a 24. Los minutos y segundos van de 00 a 59, igual que en reloj digital, pero los cuadros (o frames) van de 00 hasta 24, cuando editamos en PAL y de 00 a 29 cuando editamos en NTSC.
Treinta cuadros (en el caso de NTSC), al igual que 5/5 de kilómetro, sería imposible de escribir porque 30 cuadros son 1 segundo. De igual forma, "60 minutos" son un número imposible en código de tiempo. Así, que como ejemplo, el cuadro que sigue a 04 horas, 59 minutos, 59 segundos y 29 cuadros cambiaría el contador a: 05:00:00:00.
Agregando el Código
El código de tiempo no es parte inherente de la señal de video; debe ser grabado en el video-tape durante la producción o después, mientras se visualiza el material (esto se hace generalmente cuando se quiere visualizar material en una cinta de menor calidad, VHS por ejemplo, para no dañar el original, entonces se le sobre imprime el “time code”.
Una vez grabados, estos ocho dígitos serán extremadamente útiles en todo el proceso de post-producción. Puede usar el código de tiempo para organizar los segmentos necesarios en una cinta y calcular sus duraciones específicas. Y el equipo de edición usará esos números para ubicar con absoluta precisión los puntos de edición y realizar las ediciones en esos puntos - y si fuese necesario, retornar a esos puntos más en el futuro para hacer nuevas ediciones.
Métodos de Grabación del Código
El código de tiempo puede ser grabado en la cinta de dos maneras posibles: como una señal de audio o como una señal de video.
Audio Track Time Code
El código de tiempo consiste de 2.400 bits de información por segundo. Aunque es información digital, puede ser grabada en un canal analógico de audio en la cinta de video.
Cuando se graba de esta manera se le conoce con el nombre de código longitudinal. Los pulsos digitales se convierten a una señal de audio de la misma forma en la que un módem convierte los pulsos digitales a sonido para la transmisión por vía telefónica.
Aunque el sistema longitudinal de código es el más fácil de grabar, tiene dos desventajas importantes. En primer lugar, puede leer confiablemente de la cinta en movimiento. Esto puede representar un problema cuando se arranca y detiene constantemente la cinta durante la edición.
En segundo lugar, cuando una cinta de video se duplica, el canal de audio puede sufrir cierta pérdida de calidad de la señal que deriva en una pérdida de información en los pulsos digitales de alta frecuencia - especialmente cuando la cinta se mueve en ambas direcciones a velocidades variables en un sistema de edición.
Para resolver este inconveniente un procedimiento de enganche de código - jam sync - puede ser utilizado para regenerar el código longitudinal cuando se realiza una nueva copia. Sin embargo, ello requiere de un equipo adicional.
Aunque el código longitudinal puede funcionar en las circunstancias adecuadas, hay un método de trabajo más confiable.
El Código como Parte de la Señal de Video
VITC (vertical-interval time code en Inglés o código de tiempo de intervalo vertical) y otros sistemas que graban el código de tiempo con los cabezales de video, tienen varias ventajas.
En primer lugar, grabar el código con el video, no ocupa un canal de video que podría necesitarse para otras cosas. Segundo, en más confiable y menos susceptible a ser afectado por problemas técnicos. Y por último el código está siempre visible- aún cuando la cinta no se está moviendo.
El código grabado en un canal de audio (longitudinal) puede ser grabado mientras se graba el material en cámara, o luego a medida que se visualiza. Cuando el material se graba como parte del video (VITC), tiene que ser grabado a medida que el video se graba en la cinta. De otra forma, habría que copiar toda la cinta para agregarle código.
Muchos sistemas de edición tienen pequeñas pantallas de lectura de código en la parte superior del controlador de edición, tal como vemos aquí.
Sistemas más sofisticados super imponen los números de código sobre el mismo video, tal como mostramos en la fotografía de la dama sobre el caballo. En este caso, los números de código pueden ser superpuestos temporalmente sobre la imagen (código desplegado), o puede ser permanentemente insertados en la imagen (copias manchadas o con código a la vista).
En el primer caso, un equipo electrónico lee la información digital del código de la cinta y genera los números para ser insertados por “key” sobre la imagen. La desventaja de este procedimiento es que sólo puede verse el código cuando se utiliza equipo especial, o un controlador de edición adecuado.
Una vez que los números de código han sido manchados sobre la imagen permanentemente el video y el código pueden ser visualizados en cualquier VCR y monitor.
La evaluación de una cinta de esta forma, es lo que llamamos una edición en papel y puede ahorrar mucho tiempo una vez que se encuentre frente al editor.
Veamos algunos problemas
Si un segmento dura 8 segundos, 20 cuadros, y otro 6 segundos, 19 cuadros, la duración de conjunta de los dos segmentos es de 15:09.
Fíjese como en este ejemplo a medida que sume el total de cuadros obtendrá 39. Pero, como sólo podemos tener 30 cuadros en un segundo, debemos agregar un segundo a la columna de segundos y dejar sólo 9 cuadros. (39 menos 30 = 09 cuadros). Sumando 9 segundos (8 más el 1 que llevamos) más 6 resulta en 15 segundos, para un total de 15:09.
8 segundos, 20 frames
6 segundos, 19 frames
= 15:09
Si el punto de entrada de video es 01:22:38:25 y la salida 01:24:45:10 ¿cual es la duración del segmento?
· salida - 01:24:45:10
· entrada - 01:22:38:25
· total - 00:02:06:15
La respuesta se obtiene simplemente sustrayendo la cifra menor de la mayor. Notemos que como no es posible sustraer 25 cuadros de 10 cuadros tenemos que cambiar el 10 a 40 tomando prestado un segundo de 45. Para aquéllos que tienen que hacer estos cálculos constantemente, existen programas de computadora y calculadoras dedicadas que simplifican estas tareas.
Código de Tiempo Drop-Frame. Nociones para el trabajo en NTSC
En NTSC, el código SMPTE/EBU asume una resolución temporal de 30 cuadros por segundo. Aunque suena lindo, esto solo funciona así en la televisión en blanco y negro. Por razones técnicas, cuando el estándar NTSC de color y HDTV/DTV fueron establecidos, se decidió trabajar con una resolución temporal de 29.97 cuadros por segundo. A pesar de que la diferencia entre 30 y 29.97 pareciera insignificante, en algunas aplicaciones puede resultar en imprecisiones tremendas.
Si toma una velocidad de 30 cuadros por segundo en vez de 29.97, tendrá un error de a 3.6 segundos cada 60 minutos. Como la televisión es un negocio que se mide en segundos, hubo que diseñar un método para compensar este error en la lectura del código. Eliminar 3.6 segundos al final de cada hora, no resolvía el problema (en particular si uno era el patrocinados al final de la hora al cual le cortaban 3.6 segundos de su anuncio).Entonces, ¿cómo se resuelve este problema?
Bien, 3.6 segundos equivalen a 108 cuadros de video adicionales cada hora (3.6 multiplicado por 30 cuadros por segundo). Para mantener la precisión de lectura, 108 cuadros deben ser eliminados de la cuenta cada hora, y esto debe de hacerse de manera que evite confusiones.
Lamentablemente, no estamos operando con números redondos.
En primer lugar, se decidió que la compensación de los 108 cuadros 108-frame tenía que ser distribuido homogéneamente a través de la hora. Mejor descontar aquí y allá que todo de una sola vez.
Si usted descuenta 2 cuadros por minuto, terminaría descontando un total de 120 cuadros por hora en vez de 108. Sería de lo más sencillo pero agrega un error en la dirección contraria de 12 cuadros. Pero, como no podemos descontar medios cuadros de la cuenta del código, esto es tan cerca como podemos estar de compensar la lectura cada minuto.
¿Y qué hacer con los restantes 12 cuadros? La solución es no descontar 2 cuadros cada 10 minutos.
Eso, por supuesto suma en una hora los 12 cuadros, puesto que hay seis intervalos de 10 minutos en cada hora. Así, utilizando esta fórmula terminamos descontando 108 cuadros cada hora -- justo lo que estábamos buscando.
Como el descuento ocurre exactamente en el momento en que cambiamos de un minuto a otro, verá que el contador de time code literalmente y de manera automática salta los cuadros descontados cada vez que la corrección se ejecuta.
Aunque no parece la solución más elegante del mundo, funciona. También es obvio por que lo llamamos código drop-frame (elimina cuadros).
Para aplicaciones no críticas, como noticias, televisión industrial y comerciales, no suele usarse código drop-frame. Sin embargo, si usted produce programas de más de 15 minutos para ser transmitidos al aire deberá usar un editor con manejo de código en modo drop-frame.
La mayoría de los controladores de edición tienen un conmutador que permite seleccionar el tipo de código bien sea no-drop o drop frame. Los programas de computadora típicamente incluyen una caja de selección en pantalla.
Cuando su pc utiliza el modo drop frame se añade una señal adicional que conmuta automáticamente el equipo y advierte la presencia de código en esta modalidad.
El Montaje
En Un Parpadeo - Walter Murch
Prólogo
Pensar en Walter Murch me hace sonreír. No estoy seguro del porque. Debe ser la combinación de su personalidad única, la seguridad que inspira su competencia, su apacibilidad y su sabiduría. Un GeraId Mac Boing 'Boing crecido, todavía juguetón y enigmático, pero conectado a tierra por una inmensa inteligencia.
Quizás también sea porque fue un colaborador esencial en las películas que siento más logradas de las que rodé: la Conversación y El padrino, parle 11. Tengo un gran cariño por esas películas, y por The Rain people, porque son las más cercanas a la meta que me había impuesto de joven: sólo escribir historias originales y sus guiones. Esto es algo a lo que Walter siempre me animó, y conseguí lo mejor trabajando con él. Pero además Walter es un estudioso: filósofo, y teórico de cine, y también un director dotado, como lo demostró con su hermosa Return to Oz. Nada es tan fascinante como pasar el tiempo escuchando las teorías de Walter, sobre la vida, el cine, y los innumerables "bocato di cardinali" de sabiduría que va dejando caer, como un sendero de pan a lo Hansel y Gretel: guía y nutrición.
También sonrío porque somos tan distintos: yo tomo decisiones instantáneas confiando solo en mi emoción y mi intuición, Walter, en cambio, es pensativo, cuidadoso y metódico en cada paso. Yo alterno entre la exaltación y el desaliento, y Walter es constante, cálido y tranquilo. Tanto o más ingenioso e intuitivo que yo, él además tiene constancia.
Walter es un pionero, como me gustaría serlo, y es el tipo de persona que debe ser escuchada cuidadosamente y debe disfrutarse. Me imagino que usted pensará que quiero y respeto mucho a Walter Murch, y así es, ciertamente.
Francis Coppola, Napa, 1995
lgor Stravinsky amaba expresarse y escribió mucho sobre interpretación. Como él tenía un volcán interior, buscaba la restricción. Aquellos sin siquiera el vestigio de un volcán dentro de si mismos asentían acordando, alzaron sus batutas, y buscaron la restricción, mientras Sltravinsky conducía su propio Apollon Musagete como si fuera Tchaikovsky. Los que lo hemos leído, escuchábamos y nos asombrábamos.
De The Magic Lantern de Ingmar Bergman
La mayoría de nosotros buscamos –consciente o inconscientemente- un cierto grado de balance interno y de armonía entre nosotros y el mundo exterior, y si nos pasa que somos conscientes –como Stravinsky- de la presencia de un volcán interno lo compensaremos restringiendo. De la misma manera, alguien que lleve dentro un glaciar, buscará una entrega apasionada. El peligro está, como lo apunta Bergman, en que alguien con una personalidad glacial, con la necesidad de una entrega apasionada, lea a Stravinsky y aplique la restricción.
Muchos de los pensamientos que siguen, aunque fueron presentados ante el público en una conferencia, son verdaderamente notas admonitorias para mis métodos de trabajo, que he desarrollado para lidiar con mis propios volcanes y glaciales. Como tal, estos son una búsqueda de equilibrio personal, y quizás sean interesantes para los demás, más como los vislumbres de la propia búsqueda, que como los métodos específicos que la búsqueda ha producido.
Me gustaría agradecer a Ken Sallows el que me haya proporcionado la trascripción de la conferencia original y la oportunidad de presentarla a un público más amplio. Por razones cosméticas, le hecho ciertas revisiones y, agregado algunas notas a pie de página a lo que era, en su mayor parte, un diálogo improvisado entre el público y yo. También he puesto al día algunos puntos técnicos y he agregado un epílogo que considera el impacto que la tecnología no lineal ha traído al proceso de postproducción de cine.
Walter Murch Roma, agosto de 1995
Cortes y cortes ocultos
Frecuentemente la mayoría de lo que aprendemos sobre algo está en los extremos de las cosas; el hielo y el vapor pueden revelar más sobre la naturaleza del agua, que lo que puede el agua corriente. Es verdad que cualquier película que valga la pena filmar va a ser única, y que las condiciones bajo las que se hacen las películas son tan inconstantes, que es improbable poder hablar con propiedad sobre lo que es "normal", Apocalypse Now, para casi cualquier criterio de análisis, (plan de rodaje, presupuesto, ambición artística, innovaciones técnicas), se puede calificar como el equivalente cinemático del hielo y del vapor.
Simplemente teniendo en cuenta el tiempo que llevó completarla (estuve editando su imagen durante un año y me llevó otro año preparar y mezclar su sonido), resultó tener la post-producción más larga que cualquier otro film en el que haya trabajado después, y eso puede arrojar alguna luz sobre lo que es o lo que puede ser "normal".1
Uno de las razones para esa demora fue simplemente, la cantidad de película que se había rodado; 1,250,000 pies, (331.000 metros) o para ser más claro, más de 230 horas. Dado que la película terminada dura dos horas y veinticinco minutos, la proporción resulta de noventa y cinco a uno. Es decir, noventa y cinco minutos "invisibles" por cada minuto que encontró su lugar en el producto terminado. Por comparación, la proporción media para los films argumentales está alrededor de veinte a uno.
Viajar por ese paisaje de 95:1 era un poco como andar a través de un bosque espeso y salir de vez en cuando a un prado abierto, y zambullirse de nuevo en el bosque porque había áreas, como las escenas del helicóptero, donde la cobertura era sumamente alta, y otras donde la cobertura era correspondientemente baja. Solamente las escenas del Coronel Kilgore sumaban más de 220,000 pies, (67.000 metros) y como eso representa sólo alrededor de veinticinco minutos de película en el producto terminado, hay una proporción de alrededor de cien a uno. Pero muchas escenas de transición tenían sólo un plano filmado; Francis había usado tanta película y tiempo en los eventos grandes, que compensó con coberturas mínimas para algunas escenas de nexo.
Tomemos una de las escenas grandes como ejemplo; el ataque de los helicópteros en "Charlie's point," donde se escucha la "Cabalgata de las Valkyrias" de Wagner, fue organizado como un evento real y por consiguiente se filmó como un documental, en lugar de una serie de planos especialmente compuestos. Era una coreografía en una inmensa escala, de hombres, de máquinas, de cámaras, y de paisaje -como si se tratara de algún tipo de juguete diabólico al que se podía dar cuerda y poner en marcha. Una vez que Francis cantaba. "¡Acción! " el rodaje se parecía a un combate real: ocho cámaras rodando simultáneamente, (algunas en tierra y algunas en helicópteros), cada una cargada con unos mil pies (once minutos) de rollo de película.
Al final de cada una de esas tomas, a menos que hubiera habido un problema obvio, se cambiaban las posiciones de cámara y todo se repetía. De nuevo, y otra vez. Se siguió rodando hasta que, supongo, sintieron que tenían material suficiente, y entonces cada toma generó algo así como 8,000 pies (una hora y media). Ninguna toma era igual a otra, con un resultado similar al de un film documental.
Sin embargo, al final, cuando la película ya estaba en los cines, me senté y calculé el número total de días que (los editores) habíamos trabajado, dividí ese número por el número de cortes que había en el producto terminado, y el resultado fue de...... 1.47!
Lo que significa que, si hubiéramos sabido de algún modo exactamente que hacer desde el principio, habríamos tardado lo mismo si cada uno de nosotros hubiera hecho exactamente un empalme y medio por día. En otras palabras, si me hubiera sentado en mi banco por la mañana, hubiera hecho un corte, hubiera pensado sobre el próximo, y me hubiera ido a casa, y al día siguiente, hecho el corte sobre el que había cavilado antes, y hecho otro corte, e ido a casa, me habría llevado el mismo año que realmente me tomó el editar mis secciones de la película.
Puesto que lleva unos diez segundos hacer ese empalme y medio, el caso reconocidamente especial de Apocalypse Now y su exageradamente largo periodo de edición sirven para demostrar que la edición es, incluso en una película "normal"2, mucho más que yuxtaponer planos, es el descubrimiento de un camino, y que la mayoría del tiempo de trabajo de un editor no esta utilizado en cortar y pegar. Cuanto más filme hay para trabajar, por supuesto, hay un mayor número de caminos que pueden ser considerados, las posibilidades se multiplican y por consiguiente exigen más tiempo para su evaluación. Esto es verdad para cualquier película con una alta proporción de rodaje, pero en el caso particular de Apocalypse el efecto fue magnificado por un material sensible y emprendedor, una estructura especial, muchas innovaciones técnicas, y la obligación sentida por todos los involucrados de hacer el mejor trabajo que éramos capaces de hacer. Y quizás, la razón fundamental dada por el hecho de que era, para Francis, una película muy personal, a pesar de su gran presupuesto y la inmensa urdimbre del asunto. Lamentablemente muy pocos filmes combinan tales calidades y aspiraciones.
Por cada empalme definitivo en la película terminada hubo quince empalmes ocultos, probablemente hechos, considerados, y después deshechos y quitados de la película. Pero sobre todo, el resto de las once horas y cincuenta y ocho minutos de cada día de trabajo estuvieron invertidos en actividades que, de varias maneras, sirvieron para aclarar e iluminar el camino delante nuestro: proyecciones, discusiones, rebobinados, re-visionados, reuniones, agendados, ordenado de recortes, tomado de notas, revisado de apuntes, y mucho pensamiento deliberativo. Una inmensa cantidad de preparación, realmente, para llegar al momento breve de real acción firme: el corte, el momento de transición de un plano al siguiente algo que, apropiadamente hecho, debe parecer simple y fácil, incluso imperceptible.
¿Por qué funcionan los cortes?
Bien, el hecho es que Apocalypse Now, como toda otra película argumental (exceptuando quizás La Soga de Hitchcock3), está compuesta de muchos pedazos de diferentes de película, unidos y pegados en un mosaico de imágenes.
El misterio es que, sin embargo, la unión de esos pedazos (el "corte" en la terminología norteamericana) realmente parece funcionar, aunque representa un total e instantáneo desplazamiento de un campo visual a otro, un desplazamiento que a veces también incluye un salto hacia adelante o hacia atrás en el tiempo, así como en el espacio.
Realmente funciona, pero bien podría no hacerlo, porque nada en nuestra experiencia diaria parece prepararnos para semejante cosa.
Por el contrario, desde el despertar por la mañana, hasta que cerramos los ojos por la noche, la realidad visual que percibimos es un flujo continuo de imágenes unidas: de hecho, durante decenas o cientos de millones de años, la vida en la Tierra ha percibido al mundo de esta manera. Entonces de repente, al principio del siglo veinte, los seres humanos se encontraron con algo nuevo: la película editada.
Bajo estas circunstancias, no habría sido en absoluto sorprendente, el hallazgo de que nuestros cerebros habiendo sido "predeterminados” por milenios de evolución y de experiencia, rechazaran el montaje fílmico. Si ése hubiera sido el caso, entonces las películas de un solo plano de los Hermanos Lumière, o películas como "La Soga" de Hitchcock, se habrían vuelto la norma. Pero por varías razones prácticas (así como artísticas), es bueno que no ocurriera así.
La verdad de la cuestión es que una película realmente está siendo "cortada" veinticuatro veces por segundo. Cada cuadro es un desplazamiento del anterior, en un plano continuo, y el desplazamiento del espacio/tiempo de cada cuadro con relación al anterior es lo bastante pequeño (veinte milisegundos) como para que el público pueda notarlo como un solo movimiento dentro de un contexto en vez de veinticuatro contextos diferentes por cada segundo. Por otro lado, cuando el desplazamiento visual es lo bastante grande (como en el momento de un corte), nos obliga a que reevaluemos la nueva imagen como un contexto diferente, y milagrosamente, la mayoría de las veces no tenemos ningún problema en aceptarlo y comprenderlo.
Lo que nos parece dificultoso de aceptar es aquél tipo de desplazamientos que no son ni sutiles ni totales: por ejemplo, el corte de un plano entero, a un plano ligeramente más corto, donde se recorta a los adores a la altura de los tobillos.
El nuevo plano en este caso es lo bastante diferente para señalar que algo ha cambiado, pero no lo suficiente para hacernos revalorizar su contexto: el desplazamiento de la imagen no implica movimiento ni cambio de contexto, y la colisión de estas dos ideas produce una molestia mental, un salto un efecto desagradable, perturbador.5
De todos modos, el temprano descubrimiento en el siglo XX de que ciertos tipos de cortes "funcionan bien", llevó casi inmediatamente al descubrimiento de que podrían filmarse las películas en Forma discontinua, lo que fue el equivalente cinemático al descubrimiento del vuelo: en un sentido práctico, las películas no estaban más atadas a tierra, a la continuidad de tiempo y espacio.
Si solo pudiéramos filmar congregando todos los elementos simultáneamente, como en el teatro, el rango de posibles asuntos sería comparativamente estrecho. En cambio, la discontinuidad es el Rey: es el trecho central durante la fase de la producción, del rodaje, y casi todas las decisiones se relacionan directamente a ella de una manera u otra, ya sea para superar dificultades y/o para como sacar ventaja de sus fuerzas. 6
Otra consideración es que, aún cuando todo esté simultáneamente disponible, simplemente es muy difícil y complicado rodar tomas largas y continuas, y mantener a todos los elementos del rodaje Funcionando bien al unísono. Los directores de cine europeos tienden a hacer tomas "master" más complejas que los americanos, pero aún siendo Ingmar Bergman, hay un límite a lo manejable: una incorrección de cámara al final del plano, algún efecto especial que falle, alguien que se olvida de sus líneas o alguna lámpara que se quema o fusible que salte, y toda la toma entera tiene que repetirse.
Mientras más larga sea la toma, por supuesto, hay mayores probabilidades de un error.
Hay un problema logístico considerable para conseguir todo junto al mismo tiempo, así como un serio problema en hacer que todo funcione bien. El resultado es que, solamente por razones prácticas, no seguimos el modelo de los Hermanos Lumière o de La Soga.
Por otro lado, aparte de las materias de conveniencia práctica, la discontinuidad nos permite también escoger el mejor ángulo de cámara, para cada emoción y para cada momento de la historia, y usarla para lograr un impacto acumulativamente mayor. Si nos limitáramos a un flujo continuo de imágenes, esto sería muy difícil, y las películas no serian tan afiladas y precisas como lo son. 7
Y más allá, incluso, de estas consideraciones, cortar es más que conveniente porque la discontinuidad deriva en continuidad. Es en, y para sí mismo, por la misma fuerza de su precipitación paradojal, una influencia positiva en la creación de una película. Seguramente querríamos cortar, aún cuando la discontinuidad no tuviese un gran valor práctico.
El hecho central de todo esto es que los cortes funcionan. Pero la pregunta todavía permanece: ¿Por qué? Es algo parecido al caso de la abeja que no debería poder volar pero lo hace. Volveremos a este misterio en unos momentos
“Recorte los pedazos malos”
Hace ya muchos años, con mi esposa, Aggie, regresamos a Inglaterra para nuestro primer aniversario de bodas (ella es inglesa, pero nos casamos en los Estados Unidos) y allí me encontré por primera vez con algunos de sus amigos de la niñez.
¿Qué es lo que hace?" preguntó uno de ellos, y contesté que estaba estudiando edición de películas. "Oh, edición", dijo él, "eso es donde se recortan los pedazos malos." Por supuesto, me indigné y (educadamente) le dije: "Es mucho más que eso. Editar es estructurar, colorear, dinamizar, manipular el tiempo, y otras cosas, etc., etc.".
El pensaba, evidentemente en el cine casero; "Oop, aquí hay un pedazo malo, recórtelo y pegue el resto." Realmente, veinticinco años después, he empezado a respetar su sabiduría inconsciente.
Porque si, en cierto sentido, editar es recortar los pedazos malos, la pregunta fundamental es, ¿qué hace malo a un pedazo? Cuando usted está grabando un video casero y la cámara quedó encendida inadvertidamente, ése es obviamente un pedazo malo, y está claro que quiera quitarlo. La meta de una película casera es normalmente bastante simple: un registro sin reestructurar, de eventos en un tiempo continuo. La meta de las películas narrativas es mucho mas complicada, debido a la estructura de tiempo fragmentada y a la necesidad de mostrar estados interiores, por lo que se vuelve mucho mas complicado proporcionalmente, el identificar lo que es un "pedazo malo." Además, lo que es malo para una película, puede ser bueno para otra. De hecho, una manera de enfocar el proceso de fabricación de una película, es pensar en ello como la búsqueda de los "pedazos malos" para esa película en particular en la que está trabajando. Entonces, el editor se embarca en una búsqueda para identificar ésos "pedazos malos" y recortarlos, tal que al hacerlo no rompa la estructura de "los pedazos buenos" que quedan.
Lo que me lleva a los chimpancés.
Hace aproximadamente unos cuarenta años, después del descubrimiento de la estructura de la doble-hélice del ADN, los biólogos esperaban tener el mapa de la arquitectura genética de cada organismo. Por supuesto, ellos no esperaban que la estructura del ADN se pareciera al organismo que estaban estudiando (de la manera que un mapa de Inglaterra es parecido a Inglaterra), sino que cada punto en el organismo, se correspondiera de algún modo, a un punto equivalente en el ADN.
No es lo que encontraron, sin embargo. Cuando empezaron a comparar estrechamente los ADN del ser humano y del chimpancé, se sorprendieron al descubrir que son sorprendentemente similares. Tan parecidos (noventa y nueve por ciento idénticos) como para que el ADN sea inadecuado para explicar todas las diferencias obvias entre nosotros y los monos.
¿Pero de dónde salen las diferencias?
Los biólogos se vieron obligados a comprender que debe de haber algo más -- aún bajo mucha discusión- que controla el orden en que los varios pedazos de información guardados en el ADN son activados y los modos en que esa información se activa cuando el organismo crece.
En las fases tempranas de desarrollo fetal es difícil apreciar la diferencia entre el embrión humano y el del chimpancé. Pero, cuando crecen, alcanzan un punto donde diferencias se ponen en claro, y desde ese punto, se vuelven cada ver más obvias. Por ejemplo,
La opción de lo que viene primero, el cerebro o el cráneo. En los seres humanos la prioridad es el cerebro, y el énfasis está en aumentar al máximo el tamaño del cerebro. Cuando uno observa a un humano recién nacido se puede ver que el cráneo no está todavía totalmente cerrado alrededor de la cima de un cerebro todavía en crecimiento.
Con los chimpancés la prioridad se invierte: el cráneo primero, después el cerebro probablemente por razones que tienen que ver con el ambiente más rudo en el que nace el chimpancé. El orden de la sucesión del chimpancé es, "Llene el espacio vacío con tanto cerebro como pueda" Pero hay sólo una cantidad de cerebro que se puede meter allí, antes de que esté completamente lleno. Parece ser más importante para un chimpancé nacer con una cabeza dura que con un cerebro grande. Hay una interacción similar entre una lista interminable de cosas: El dedo pulgar y los demás dedos, la postura del esqueleto, ciertos huesos que se forman totalmente antes de ciertos desarrollos musculares, etc.
Mi teoría es que puede verse la información en el ADN como un film sin cortar y la secuencia misteriosa de códigos como el editor. Podría sentarse en un cuatro con un montón de rollos y otro editor podría sentarse en el modo vecino (con exactamente el mismo material y los dos harían películas diferentes. Cada uno va a tomar opciones diferentes sobre cómo estructurar, lo que es decir, cuándo y en qué orden se soltarán esos pedazos de información ¿Sabremos, por ejemplo, que el arma está cargada antes de que la Señora X entre en su automóvil, o es algo que sólo conoceremos después de que ella entre al automóvil? Cualquier opción crea un sentido diferente de la escena. Y usted procede y va amontonando una diferencia sobre la otra. Invirtiendo la comparación, se puede ver al humano y al chimpancé, como películas diferentes, editadas del mismo juego de rollos.8
No estoy asignando valores relativos al chimpancé o al ser humano. Simplemente digamos que cada uno es más apropiado al ambiente al que pertenece: yo estaría extraviado en una rama en el medio de la selva, y un chimpancé estaría extraviado escribiendo este libro. El punto no es su valor intrínseco, sino lo inadmisible que es cambiar de opinión en el proceso de crear a alguno de ellos. No empiece haciendo un chimpancé y después decida convertirlo en un ser humano. Eso produce un pastiche como el monstruo de Frankenstein, y todos hemos visto su equivalente en los cines: la película "X" habría sido una buena película pequeña, que hubiera satisfecho a su "ambiente," pero en el medio de la producción a alguien se le ocurrió una idea inflada sobre sus posibilidades, y, como resultado se volvió aburrida y pretenciosa. Era una película de chimpancé que alguien intentó convertirla en una película de ser humano y terminó sin ser ninguna de ambas.
O el Caso de la película "Y", que era un proyecto ambicioso, que intentaba abordar situaciones complejas, problemas sutiles, pero en el estudio ordenaron rodar material adicional, lleno de acción y de sexo, y, como resultado, sur gran potencial se redujo a otra cosa, sin ser humana ni chimpancé.
Más con menos
Nunca se puede juzgar la calidad de una mezcla sonora contando el número de pistas que se usaron para producirla. Se han conseguido mezclas terribles con cien pistas. De la misma manera, se lean hecho mezclas maravillosas, con sólo tres. Depende de las opciones iniciales que se tomaron, de la calidad de los sonidos, y cómo fue capaz, la mezcla de esos sonidos, de despertar emociones excitantes y escondidas en el corazón del público. El principio básico es: siempre intente nacer más con menos --con el énfasis en el intento. Puede no tener éxito siempre, pero al menos intente producir el efecto más grande en la mente del espectador, con el menor número de elementos en pantalla. ¿Por qué? Porque tiene que hacer lo que sea necesario para comprometer la imaginación del público, y sugerir siempre es más eficaz que exponer. Más allá de un cierto punto, por más esfuerzo que haya puesto en la riqueza de los detalles más animará al público a que se vuelva espectador en lugar de participante. El mismo principio es aplicable a todas las áreas de la producción fílmica: la actuación, la dirección de arte, la fotografía, la música el vestuario, etc.
Y, por supuesto, se aplica también a editar. Nunca se diría que una cierta película estaba bien editada porque tenía muchos cortes. Frecuentemente, toma más trabajo y discernimiento el decidir donde no cortar; no sienta que debe cortar, simplemente porque para eso le están pagando. Se le está pagando para tomar decisiones, para decidir donde cortar o donde no, el editor está tomando realmente, veinticuatro decisiones por segundo: "No. ¡No. No. No. No. No. No. No. No. No. Sí!"
Un editor hiperactivo, que cambia de planos muy frecuentemente es como una especie de guía turístico que no puede parar de señalar cosas: "Y allí tenemos el Techo de la Capilla Sixtina, y aquí tenemos a la Mona Lisa, y, a propósito, mire ésos azulejos..." Si usted está en un tour, quiere que el guía le señale algunas cosas, por supuesto, pero también querrá algo de tiempo para dar una vuelta y simplemente ver lo que usted ve. Si el guía (es decir, el editor) no tiene la confianza necesaria para permitir a las personas, que de vez en cuando elijan lo que deseen, o para dejar algunas cosas a su imaginación, estará persiguiendo una meta (el control total) que al final lo derrotará. Las personas se sentirán molestas y resentidas por la presión constante de su mano sobre sus nucas.
Bien, si lo que estoy diciendo es hacer más con menos, ¿hay entonces alguna manera de decir cuánto menos? ¿Es posible extrapolar esta conclusión lógica hasta el absurdo y decir, “no se debe cortar en absoluto?". Ahora hemos regresado a nuestro primer problema: la película es cortada por razones prácticas y la película es cortada porque el corte -ese súbito rompimiento de la realidad- es una herramienta eficaz en sí misma. Entonces, si la meta es hacer los menos cortes posibles, cuando usted tiene que hacer un corte, ¿Qué es lo que hace que sea un buen corte?
La regla de seis
La primer cuestión discutida en las clases de edición de las escuelas de cine, es lo que voy a llamar continuidad tridimensional: en el plano A, un hombre abre una puerta, camina hasta la mitad del cuarto, entonces la película corta al próximo plano, B, tomándolo desde ese mismo punto, a mitad de camino, continuando con él el resto de su camino a través del cuarto, donde el personaje se sienta en su escritorio, o algo así.
Durante mucho tiempo, y particularmente en los primeros años del cine sonoro, esta fue la regla. Uno debía esforzarse para conservar la continuidad del espacio tridimensional, y su violación era vista como un fracaso, ya sea por falta de rigor o de habilidad
Que las personas saltaran alrededor del espacio simplemente, no era permitido a excepción, quizás, de circunstancias de lucha extrema o de terremotos, donde había mucha acción violenta.
Coloco a esta continuidad tridimensional, al final de una lista de seis criterios con la que intento definir, que es lo que hace de un corte, un buen corte.
En el primer lugar de mi lista, está la Emoción, elemento al que se llega último, si se llega, en las escuelas de cine, porque es la cosa más difícil de definir y de tratar.
¿Cómo quiere que el público se sienta? Si los espectadores están sintiendo lo que usted quiere, que sientan, todo el tiempo a través de la película, ha hecho tanto cuanto le es posible hacer. Lo que el público recuerda finalmente no es la edición, no es el trabajo de cámara, no son las actuaciones, incluso ni siquiera la historia sino cómo se sintió.
Un corte ideal (para mí) es el que satisface los siguientes seis criterios: l) está en acuerdo con la emoción del momento; 2) hace avanzar la historia; 3) ocurre en un momento que es rítmicamente interesante y "correcto"; 4) reconoce lo que se podría llamar "la línea de la mirada”, es decir, lo concerniente con la situación y el desplazamiento del punto de interés de la mirada del espectador dentro del cuadro; 5) respeta "la geometría" la gramática de las tres dimensiones transpuestas por la fotografía a dos (las cuestiones del eje de acción, etc.); y 6) respeta la continuidad tridimensional del espacio real (adonde las personas están dentro del cuadro y sus posiciones relativas entre si).
1) la emoción 51%
2) la historia 23%
3) el ritmo 10%
4) la línea de mirada 7%
5) el eje de acción 5%
6) el espacio tridimensional de la acción 1%
La emoción, en el tope de la lista, es lo que se debe intentar conservar a toda costa. Sí encuentra que tiene que sacrificar alguna de esas seis cosas para hacer un corte, sacrifique subiendo, ítem por ítem, desde abajo.
Por ejemplo, si está considerando un rango de posibles cortes para un momento particular en la película, y encuentra que hay un corte que da la historia la emoción correcta y mueve la historia hacia adelante, y es rítmicamente satisfactorio, y respeta la dirección de la mirada y el eje de acción, pero no conserva la continuidad de espacio tridimensional, entonces, ese es el corte que debe hacer. Si ninguno de los otros cortes posibles mantiene la emoción correcta, sacrificar la continuidad espacial entonces bien merece la pena.
Los valores que puse después de Cada ítem están ligeramente exagerados, pero no demasiado: Nótese que los dos de arriba de la lista (emoción e historia) valen la pena mucho más que los cuatro de abajo juntos (ritmo, dirección de la mirada, eje de acción, y continuidad espacial), y cuando se mira bien, en la mayoría de los casos, el del tope de la lista -la emoción-es más importante que los otros cinco juntos.
Y hay un lado práctico en esto, si la emoción es correcta y la historia avanza de una manera única e interesante, con el ritmo correcto, el público tenderá a estar desprevenido de (o indiferente a) los problemas de edición en lo concerniente a los ítem de abajo, tales como la mirada, el eje, la continuidad espacial, etc. El principio general parece ser que, satisfaciendo el criterio de los ítems más altos de la lista, se tiende a disimular los problemas con los ítems más bajos de la lista, pero no al revés: por ejemplo, consiguiendo que el 4 (dirección de la mirada) trabaje correctamente minimizará un problema con el 5 (eje de acción), pero si el 5 (eje de acción) es correcto y el 4 (dirección de la mirada) no, el corte será fallido.
Ahora, en la práctica, se encontrará con que los tres primeros ítems de la lista (emoción, historia, ritmo) están extremadamente conectados entre sí. Las fuerzas que los mantienen unidos son como las ligaduras entre protones y neutrones en el núcleo del átomo. Ellos tienen, lejos, las ataduras más firmes, y las fuerzas, que interconectan a los tres ítems más bajos son progresivamente más débiles.
Generalmente se podrá satisfacer a todos los seis criterios: el espacio tridimensional y el eje de acción, y la dirección de la mirada, y el ritmo, y el avance de la historia, y conservar la emoción, se encontrarán juntos en el mismo lugar. Y, por supuesto, siempre se debe intentar esto, si es posible. Cuando esto sea posible, nunca debemos aceptar menos.
Lo que estoy sugiriendo es una lista de prioridades. Si tiene que sacrificar algo, no pierda la emoción antes que el avance de la historia. No deje de hacer avanzar la historia por el ritmo, no deje al ritmo antes de la dirección de la mirada, no deje la dirección de la mirada antes del eje de acción, y no deje al eje de acción, antes de la continuidad espacial.
Desorientar
Subyacente a estas consideraciones debe estar la preocupación fundamental de un editor; ponerse él/ella en el lugar del público. ¿Qué va a pensar la audiencia en cualquier momento en particular? ¿Hacia dónde van a estar mirando? ¿Qué quiere que piensen sobre esto o aquello? ¿Qué es necesario que piensen? Y, por supuesto, ¿Qué quiere que sientan? Si tiene presente esto (que es la preocupación de cada mago), entonces usted será una especie de mago. No en un sentido sobrenatural, sino sólo un mago cotidiano y trabajador.
El trabajo de Houdini era crear un sentido de maravilla, y para lograrlo, él no quería que usted mirara hacia aquí (a la derecha) porque allí era donde él se estaba deshaciendo de sus cadenas, por lo que siempre buscó una manera de hacerlo mirar hacia allá (a la izquierda). Él estaba "desorientándolo", como dicen los magos, estaba haciendo algo para lograr, que un noventa y nueve por ciento de las personas miraran "aquí" cuando así él lo quería. Y un editor puede, hace, y debe hacer eso.
A veces, sin embargo, al entretenerse en los detalles, puede perderse la apreciación global. Cuando eso me pasa, normalmente es porque he estado mirando la imagen como la miniatura que esta en el cuarto de edición, en lugar de verla como el mural que se volverá cuando se proyecte en un cine. Algo que restaurara la perspectiva correcta rápidamente, es imaginarse uno muy pequeño, y la pantalla muy grande, y pretender que está mirando la película terminada en un cine de mil asientos, lleno de personas, y que la película esta más allá de la posibilidad de cualquier cambio. Si todavía le gusta lo que ve, estará probablemente bien. Si no probablemente, tendrá ahora una idea mejor para corregir el problema. Uno de los trucos que acostumbro a hacer para ayudarme a lograr esta perspectiva, es recortar en un papel pequeño, las siluetas de un hombre y una mujer, y ponerlas una a cada lado de la pantalla del editor: el tamaño de las figuras (unos diez cm. de alto) es proporcionalmente correcto para hacer que la pantalla, parezca como si tuviera unos diez metros de ancho.
Mirando fuera del borde del cuadro
El editor es una de las pocas personas que trabajan en la producción de una película, que no conoce las condiciones exactas bajo las que fue rodada (o que tiene la posibilidad de no saberlo) y a la vez ser alguien que puede tener una tremenda influencia en la película.
Si ha estado involucrado en el rodaje la mayoría del tiempo, como ocurre con los actores, el productor, el director, el operador de cámara, el director de arte, etc., entonces estará al tanto de las condiciones, a veces sangrientas, de gestación y logro de cada uno de los planos. Y cuando revise el material, no podrá dejar de sentirse influenciado, porque en su mente, estará viendo, por fuera del borde del cuadro, todo lo que estaba sucediendo allí, física y emocionalmente, más allá de lo que realmente se fotografió.
"Nos costó mucho conseguir ese plano, tiene que estar en la película." Usted (el director, en este caso) se convence de que lo que consiguió era lo que buscaba, pero existe una gran posibilidad de que pueda verse obligado a verlo de esa manera, porque le costó mucho dinero, esfuerzo, o tiempo, el conseguirlo.
De la misma manera, hay casos en los que, cuando rueda algo que detesta, cuando todos están de mal humor, y usted dice, protestando: “Bueno, lo haremos, conseguiremos este maldito primerísimo primer plano como sea y terminemos con esto", Después, cuando mira esa toma, todo lo que puede recordar, es el momento odioso en que fue hecha, y eso puede enceguecerlo ante los verdaderos potenciales que podría tener en un contexto diferente.
El editor, por otro lado, debe intentar ver lo que está en la pantalla, lo que realmente percibirá el público. Sólo de esta la manera las imágenes se verán libres del contexto de su creación. Enfocando en la pantalla, el editor debe usar los momentos que deban usarse, aun cuando ellos puedan haber sido rodados bajo coacción, y rechazar aquellos momentos que deban rechazarse, aunque ellos hayan costado una cantidad increíble de dinero, esfuerzo o dolor.
Supongo que estoy insistiendo en la preservación de un cierto tipo de virginidad. No se permita estar necesariamente impregnado por las condiciones del rodaje. Intente mantenerse al tanto de lo que está pasando, pero manteniendo un conocimiento específico tan pequeño como le sea posible, porque, finalmente, el público no sabe nada de todo esto, y usted debe ser el defensor del pueblo del público.
El director, por supuesto, es la persona más familiarizada con todas las cosas que pasaron durante el rodaje, porque él es quien cargó con la mayoría de estos avalares, con toda la información del fuera del borde del cuadro. Entre el final del rodaje y antes que el primer corte este terminado, lo mejor que le puede pasar al director (y a la película) es que le diga adiós a todos, y desaparezca por dos semanas en las montañas, o en el mar, o que se vaya a Marte o a alguna otra parte, e intente descargar este lastre.
Dondequiera que vaya, debe intentar pensar, tanto como le sea posible, sobre cosas que no tengan nada, absolutamente nada, que ver con la película. Es difícil, pero es necesario crear una barrera, una pared, entre el rodaje y la edición. Fred Zinnemann se iba y trepaba a los Alpes después del final del rodaje, sólo para ponerse en una situación potencialmente peligrosa y amenazante, donde tenía que pensar en estar allí y no en convivir con los problemas de la película.
Entonces, después de unas semanas, volvía de los Alpes, de nuevo a la tierra, se sentaba en un cuarto oscuro, solo, la luz del arco voltaico se encendía, y miraba su película. Todavía estaba, inherentemente, lleno de esas imágenes de más allá del borde del cuadro (un director nunca será totalmente capaz de olvidarlas), pero si hubiera ido en forma directa del rodaje a Ia edición, la confusión lo habría embargado, y hubiese mezclado dos procesos diferentes del pensamiento: el del rodaje y el de la edición.
Haga todo lo que pueda para ayudar al director a erigir esta barrera, para que cuando él vea la película de nuevo, pueda decir, "bien, voy a suponer que yo no tenia nada que ver con esta película. Necesita algún trabajo. ¿Que se necesita hacer?"
Y el editor debe luchar tan duro como sea, para apartar los deseos de lo que realmente está filmado, sin abandonar nunca los sueños sobre la película, pero intentando de todas maneras ver lo que realmente está en la pantalla.
Soñando en pareja
De muchas maneras, el editor de la película realiza el misino papel para con el director que el editor de textos lo hace con el escritor, para animarlo en ciertos cursos de acción, aconsejarlo contra otros, para discutir si se debe incluir algún material específico en el trabajo terminado o si el nuevo material necesita tener agregados. Al final del día. Sin embargo, es el escritor quien entonces se va y reúne las palabras.
Pero en una película, el editor tiene también la responsabilidad por congregar las imágenes (es decir, las "palabras") en un cierto orden y con un cierto ritmo. Y aquí toma el papel del director para ofrecer consejo y asemejarse en mucho al momento donde el director habría aconsejado a un actor que interpreta un papel. Parece que la relación entre editor/director oscila de un lado a otro durante el curso del proyecto, en una ecuación donde el numerador se vuelve denominador y viceversa.
En psicoterapia hay una técnica que pone al paciente (el sonador, en este caso) Junto con alguien que tiene que escuchar el sueño. Lo más pronto posible después de despertarse, el soñador se encuentra con su oyente para repasar los sueños de la noche anterior.
Frecuentemente no hay nada, o simplemente hay una sola y deplorable imagen, pero esto normalmente es suficiente para iniciar el proceso. Una vez que la imagen se describe, el trabajo del oyente es proponer una sucesión imaginaria de eventos basada en ese fragmento. Un avión, por ejemplo, es algo que todos recuerdan. El oyente propone inmediatamente que debe de haber sido un avión de transporte, que vuela por encima de Tahití, lleno de pelotas de golf para un torneo en Indonesia. Ni bien escucha esta descripción que se le ha ofrecido, el sonador protesta: "No, era un biplano, y volaba encima de los campos de batalla en Francia, y Hannibal estaba disparándole flechas a el desde su legión de elefantes". En otras palabras, el propio sueño, escondido en la memoria, se levanta en defensa propia, cuando se ve desafiado por una versión alternativa, y se re(b)vela. Esta revelación sobre los biplanos y los elefantes puede incitar al oyente a su vez para elaborar otra improvisación, que sacará hacia afuera otro aspecto del sueño oculto y así sucesivamente, hasta revelar tanto del sueño como sea posible.
En la relación entre director y editor pasa algo similar, donde el director generalmente es el soñador y el editor es el oyente. Aún incluso para la mayoría de los directores bien preparados, hay limites a la imaginación y memoria, particularmente al nivel de detalle fino, y es trabajo del editor el proponer guiones alterados, como un cebo para animar al sueño durmiente a subir en su defensa y así revelarse más totalmente. Y estos guiones alternativos se despliegan desde un nivel más general: ¿debe quitarse tal y cual escena para el bien del todo?, hasta el nivel de máximo detalle: ¿debe terminar este plano en este cuadro, o 1/24 de segundo más tarde, en el próximo?.
Pero a veces el editor es el soñador", y el director el oyente, y será él quien ahora haga las ofertas, el cebo, para tentar al sueño colectivo, para revelar más sobre él.
Como cualquier pescador puede decirle, es la calidad del cebo la que determina el tipo de pez que se pesque.
Trabajo en equipo: editores múltiples
No sólo el editor colabora con el director, hay momentos frecuentes en los que dos o más editores trabajan simultáneamente, a veces con la misma autoridad. Esto les parece raro a muchas personas que no ven que lo mismo pasa con los directores de fotografía o los diseñadores de producción. Pero por alguna razón, que tiene que ver con la mentalidad colaboradora de los editores y con el hecho de que la presión del tiempo de post-producción, tan severa en consecuencias como cuando se esta rodando, los editores múltiples son empleados a menudo. He trabajado, y disfrutado, y colaborado con otros editores en muchas películas: La Conversación, Apocalypse Now, La insoportable levedad del ser, y El padrino, parte III.
La ventaja principal de la edición en colaboración es la velocidad, el riesgo principal es falta de coherencia. Pero si hay mas de 100.000 metros de película filmada (sesenta y cinco horas), va a necesitar tomar ese riesgo y tener sus editores, o por lo menos un editor asociado que trabaje supervisando. Pero los problemas a veces pueden presentarse si hay simplemente un editor en una película y él desarrolla un punto de vista cerrado sobre el material. Esto es particularmente molesto sí el director y el editor no han trabajado juntos antes y no han tenido tiempo para desarrollar un idioma común, en este caso, podría ser una buena idea el considerar tener editores múltiples.
El Padrino fue la primera película en la que Francis trabajó con dos editores. Había habido originalmente un solo editor, pero el problema de un punto de vista cerrado se volvió agudo y tuvo que irse después de varios meses. La decisión tomada fue reconstruir lo que se había hecho hasta ese punto y comenzar nuevamente, pero ante la pérdida irremediable de esos meses, y previendo que la película iba a tener casi tres horas de largo, con una fecha tope de estreno inflexible, tomó sentido contratar a dos editores. La película todavía se estaba rodando y había mucho trabajo para hacer: cada editor tenía en sus manos una película de noventa minutos para completar en veinticuatro semanas. Pero a diferencia de El Padrino, parte II o Apoculypse, el trabajo fue dividido estrictamente por la mitad. Bill Reynolds cortó la primera parte y Peter Zinncr cortó la última parte. Hay un punto específico donde la sección de Bill acaba y la de Peter empieza.
En El Padrino, parte II aunque la responsabilidad de la edición estaba dividida como en una especie de tablero de ajedrez, las escenas estaban inicialmente cortadas y retrabajadas por la misma persona.10 Pero cuando Francis empezó a jugar con la estructura de la película, los editores se encontraron remontando imágenes que otros habían editado originalmente.
El interés financiero en una película de $25 millones es de alrededor de $250,000 por mes. Si el tener dos editores puede ayudarlo a terminar la película un mes antes, ellos habrán conseguido rembolsar automáticamente una buena porción, si no la totalidad, de sus sueldos, del total de la película. Simplemente es una cuestión de cuánto es lo que se quiere lograr con el tiempo que tiene disponible. Si termina con una proporción de 1,47 cortes-por-día, como cuando hicimos Apocalypse, donde varios caminos fueron explorados para conseguir el producto final, si es eso lo que quiere hacer, probablemente tenga necesidad de más de un editor.
Mientras Phil Kaufman estaba rodando La insoportable levedad del ser en Francia, yo estaba editándolo en Berkeley, California, a 9000 Km. de distancia. Los campeones llegaban cada dos semanas aproximadamente, entonces me sentaba, y miraba aproximadamente unas diez horas de película, tomando apuntes, asegurándome de que estaba en sincro, etc.
Pero además de los procedimientos usuales, seleccioné también por lo menos una imagen representativa de cada plano (o posición de cámara) y tome una fotografía de ella. Tuvimos estas fotografías reveladas y ampliadas en un local de los de "una hora", como las instantáneas familiares, y las adherimos a tableros siguiendo las escenas. Siempre que un plano tuviera un movimiento complejo de los actores o de la cámara, fue necesario tomar más de una fotografía, que para el mas complicado fueron siete, y normalmente eran tres para un plano complicado, pero la mayoría del tiempo alcanzaba con una.
Teníamos que usar un negativo especial de reproducción para lograr estas copias, porque un negativo ordinario produciría demasiado contraste. La velocidad de esta película está alrededor de 2 ASA o algo así, la exposición de tiempo tiene que ser bastante larga, pero funcionó muy bien: las fotografías eran aproximaciones cercanas al equilibrio del color real y la proporción del contraste de la película de cine.
Las fotografías son una gran ayuda en las discusiones posteriores con el director sobre lo que se rodó y cómo fue rodado, lo que ayuda grandemente a resolver esas cuestiones muy rápidamente.
Ellas también proporcionan un registro de detalles más allá incluso de la habilidad de la mejor persona de continuidad: las particularidades de la línea del cabello de un actor, o una peculiaridad del vestuario, la manera en que un collar se arrolla, o que tan rosado era el cutis de alguien, si su sombrero dejó una marca en su frente y cosas por el estilo.
También son un gran recurso para la sección de publicidad o para cualquier otro que se acerque a la película más tarde. Al instante se puede ver e interrelacionar a los personajes en toda clase de estados emocionales diferentes, así como la fotografía, sus trajes, y el entorno.
Además, sólo debido a la manera en que ellas se dispusieron, los planos tendieron a chocar entre ellos, ante nosotros, de maneras interesantes. Un La insoportable..., teníamos alrededor de dieciséis tableros, con 130 fotografías en cada uno, y cada tablero se dispuso como la página de un libro: se "leían" las fotografías de izquierda a derecha, se bajaba una línea, derecha a izquierda de nuevo, como leyendo un texto, y cuando se llegaba al final de un tablero, se empezaba por la parte de arriba del próximo, leíamos la primera línea, etc. La juntura entre, esos tableros formaba una cosa interesante para observar, porque yuxtapuso fotos que nunca fueron pensadas para estar juntas y ahí estaban. Esto a veces motivó a pensar sobre las cosas, sobre saltos que por otra parte, nunca podría haber sido pensados sin este sistema.
¿Que palabra expresa el concepto de un enojo irónico teñido de melancolía? No hay una palabra para eso, al menos en inglés, pero se puede ver esa emoción específica representada en una fotografía.
O la fotografía puede representar un tipo de anticipación nerviosa: el personaje está al mismo tiempo asustado y lujurioso, y ella está desconcertada porque esa lujuria es para otra mujer. Y esa mujer está durmiendo con su marido. ¿Qué significa esto?
Cualquier cosa que eso signifique, está allí en su expresión, en el ángulo de su cabeza y su pelo y su cuello y la tensión en los músculos y el juego de su boca y lo que está en sus ojos. Y si simplemente puede apuntar señalando una expresión en la cara de un actor, tiene una manera de evitar algunas de las dificultades del idioma en referencia a las sutilezas de emociones. Usted, como el director, puede decir, "Eso es lo que quiero. La sucesión en la que estamos trabajando debe tener más de eso. Lo quiero para personificar la emoción innombrable pero familiar, que veo en esa fotografía."
EL trabajo del editor es ahora escoger las imágenes correctas y hacer que esas imágenes sigan entre si en la proporción correcta para expresar algo así como lo capturado en esa fotografía.
Al escoger un cuadro representativo, lo que está buscando es una imagen que destile la esencia del ser de entre los miles de fotogramas que constituyen el plano en cuestión, lo que Cartier-Bresson, refiriéndose a la fotografía fija, llamó el "momento decisivo". De tal manera que, la mayoría de las veces, la imagen que escogí encarna a la película. Y también, la mayoría de las veces, estuvo muy cerca del punto de corte.
Cuando mira los campeones, existe una trampa similar a aquella en la que puede caerse durante las sesiones de casting. Para el actor que está entrando, esta sesión de casting es única y consiste en el único y exclusivo tiempo en que él va a poder presentarse ante usted. Es un momento tremendamente importante para él, pero para usted, ésta puede ser la sexagésima persona que ha visto ese día. Hay una especie de veladura mental que puedo formarse después de un tiempo que reducirá su capacidad de pensamiento y es inevitable.
Bien, con los campeones pasa lo mismo. Cada toma es "audicionada" para su aprobación, 'toma cinco: "¿Qué tal yo? Puedo hacer esto." Entonces la toma siete entra por la puerta: "¿Qué tal esto?" y la toma nueve: "¿O esto?"
Y usted debe mantener su percepción, realmente estar despierto a las posibilidades en cada toma, tiene que acicatearse. Debe intentar permanecer fresco y apreciar las cosas maravillosas y archivarlas tanto a estas, como a las cosas que pueden no serlo tanto. Que es lo que se tiene que lograr cuando está haciendo un casting.
Pero si tiene que escoger un juego representativo de fotogramas de cada plano, empezará a pensar automáticamente, tiene que ser analítico desde el principio, lo que se debe ser cuando se está mirando los campeones. Claro, somos seres humanos y los campeones a veces pasan y pasan, y a veces tendemos simplemente a estar sentados allí y permitir a los campeones que rueden por encima nuestro. Lo que este sistema de la fotografía hace es echarlo fuera de su silla por un rato. Es un estímulo para hacer lo que debe estar haciendo, sin embargo. Y es el principio del proceso editorial. Ya está empezando a editar desde el mismo momento en que dice, "me gusta este cuadro en lugar de ese cuadro."
Testeo previo: el dolor reflejo
Hacia el final del proceso de edición de Julia, Fred Zinnemann sintió que el director y el editor, solos con la película durante meses y meses, podían llegar hasta un noventa por ciento de la película terminada, y que necesitaba, para el último diez por ciento, de "la participación del público", a quien vio como su colaborador final. No en el sentido de responder ciegamente a ellos, sentía que su presencia era útil como un correctivo, para impedir que ciertas obsesiones se pusieran destructivas y señalar puntos ciegos que se pudieran haber desarrollado a causa de una excesiva familiaridad con el material.
Mi experiencia ha sido esta; todas las películas en las que he trabajado se han testeado antes del estreno, salvo La Conversación y la insoportable levedad. Hicimos testeos de ellas, por supuesto, pero nunca fueron totalmente abiertos, públicos. Francis Coppola en particular, siempre ha sido un partidario entusiasta del testeo de sus películas en cualquier fase que estuviesen, casi sin importar cuan inacabadas estén.
Los testeos fueron en general, para grupos pequeños de aproximadamente diez personas conocidas, mezcladas con dos o tres extraños. Los extraños no tenían ninguna idea previa sobre la película, y luego, él los encuestaba, de a uno, para comparar sus opiniones con la reacción de las personas que sabían sobre la película.
Fred Zinnemann, por contraste, sólo le mostraría Julia a un público de testeo previo cuando estuviera técnicamente completa, con un negativo cortado y sonido óptico. El estaba perfectamente preparado para hacer cambios después, pero no creía que el público en general sea capaz de ignorar completamente los empalmes visibles, las desigualdades de color, y las bandas sonoras incompletas, y estoy de acuerdo con eso.
Incluso con películas técnicamente terminadas, los visionados públicos previos son algo tramposos. Se puede aprender una tremenda cantidad de cosas, pero hay que ser cauto sobre las interpretaciones directas que las personas tienen para decirle, particularmente en esas encuestas que se completan después de la proyección. Soy sumamente cauto con esto. Lo más útil de todo, simplemente, es aprender cómo usted se siente, cuando la película esta mostrándose a 600 personas que antes nunca la han visto. Emocionalmente, parece como si viniera alguna mano grande, que lo agarra del cabello, lo sacude, y lo reorienta: y lo hace pensar; "Oh Dios, mira esto". Es como si hasta este momento ha estado construyendo un edificio, pero siempre ha estado de pie delante de él para evaluarlo. Ahora, de repente, lo está mirando desde un costado y está viendo cosas que parecería nunca haber visto antes.
No debiera seguirse ciegamente lo que aparece en los testeos de prueba, más de lo que lo hace con cualquier otra cosa. ¿Qué puede aprender de las diferencias entre los testeos anteriores y este? Dadas estas dos direcciones, ¿hacia adonde queda el polo Norte? Los testeos de prueba son solamente una manera de averiguar dónde está parado.
Hubo un procedimiento en Julia que, desgraciadamente, nunca he visto repetido. Teníamos una persona sentada en una mesa en la hall del cine con un cartel que decía, "Si desea hablar con nosotros por teléfono, después de unos días, deje su número aquí."
Esas conversaciones posteriores fueron transcritas y se agregaron a la encuesta. Si va hacer visionados previos y va a escuchar lo que las personas tengan para decir, esa es la manera de hacerlo, un tiempo después, cuando han tenido un día o dos de maduración, para permitir que la película se vaya descubriendo. No mire lo que las personas escriben en el calor del momento, será una reacción, pero una reacción sesgada. Hay mucho de lo que se llama médicamente "dolor reflejo" en ese proceso.
Cuando uno va a un doctor y le dice que tiene un dolor en el codo, es propio de un matasanos que saque su bisturí y empiece a operarlo directamente en el codo. Pero entonces se tendrá no sólo el dolor original, sino además, probablemente, un dolor en la muñeca y otro también en el hombro. Si quien lo estudia es un doctor experimentado, le tomará una radiografía, y determinará que la causa del dolor, probablemente, es un nervio pinzado en su hombro, solo que se lo percibe en el codo. El dolor en el hombro ha sido "reflejado" al codo. Las reacciones del público son así. Cuando usted hace la pregunta directa, "¿cuál es la escena menos lograda?" y aproximadamente el ochenta por ciento de las personas están de acuerdo con que una escena no les gusta, el impulso es de "arreglar" esa escena o directamente sacarla. Pero hay muchas probabilidades de que esa escena esté bien. En cambio, el problema puede estar en que el público, simplemente, no entendió algo que necesitaba saber o comprender, para poder apreciar esa escena.
Por lo que, en lugar de arreglar esa propia escena, deberá clarificar alguna situación que ocurre cinco minutos antes. No opere necesariamente, en el codo: en cambio, trate de descubrir si están pellizcándose los nervios en alguna otra parte. Pero el público nunca le dirá eso directamente. Simplemente le dirán adonde está el dolor, y no su origen.
Las decisiones de edición se ponen particularmente agudas en los últimos días antes del estreno de la película, porque los cambios serán permanentes. Si, como editor tiene particularmente claro un sentimiento sobre algo en esta fase, debe intentar hacer valer su punto de vista, tan enérgica y convincentemente como pueda. Posiblemente pueda quedarse hasta tarde para hacer una versión de prueba de su idea, o hacer un borrador, pero también necesita tener discreción, un sentido de saber con quién está negociando, y presentar sus ideas al director o al productor en el contexto correcto. Saber como hacer esto tiene que ver con el conjunto de su experiencia, cómo fue contratado, cuánto respeta al director, y cuánto el director lo respeta a usted.
Recuerdo un momento, después de los visionados previos de Julia, particularmente cuando Fred Zinnemann y yo estábamos debatiendo que cambios finales hacer en la estructura del principio, que para el público parecía haber sido difícil de seguir. La bobina de la apertura de la película tenía una sucesión anidada de escenas retrospectivas, memoria de una memoria de una memoria de una memoria, y era quizás demasiado. Sugerí eliminar una escena que ocupaba un único tiempo en la estructura de la película (y al que nunca se volvía), porque que si decidíamos quitarla, haría que las escenas que quedaban se ordenasen por sí solas en una sucesión más comprensible. Cuando estaba deshaciendo los empalmes (que hicieron un chillido cuando los separaba, casi como si estuvieran llorando de dolor), Zinnemann miraba lo que estaba pasando y observó pensativamente, y casi de improviso dijo: "sabe, cuando leí esta primer escena en el guión, supe que podría hacer esta película."
Dudé brevemente, lo miré, y continué deshaciendo los empalmes. Tenía el corazón en mi garganta, porque en esa fase del proceso no se sabe; sólo se puede tener fe de que lo que se esta haciendo es lo correcto, ¿Estábamos recortando equivocadamente el corazón de la película, o estábamos cortando el cordón umbilical?
Retrospectivamente, creo que era un cordón umbilical y que teníamos razón al quitarlo: la escena tenía una función esencial, que era conectar a Fred Zinnemann con el proyecto en un momento dado, pero una vez que esa conexión había sido hecha, y la sensibilidad de Zinnemann había fluido a través de esa escena a todas las otras escenas en la película, podía quitarse finalmente sin ningún daño. Pero a esas cosas les gusta que uno se tome su tiempo.
No te preocupes, es sólo una película
Antes hice la pregunta: "Por qué funcionan los cortes?" Sabemos que ellos funcionan. Pero aún así es más sorprendente cuando uno piensa en la violencia de lo que realmente está sucediendo: en el momento del corte, hay una instantánea discontinuidad total del campo visual.
Retomé la pregunta una vez que volvía a la sala de montaje después de algún tiempo en una sala de mezcla de sonido (donde todos los movimientos son suaves e increméntales) al espantarme ante la brutalidad del proceso de corte. EL "paciente" se fija a la tabla y; ¡Whack! ¡Esto/Aquello! ¡Esto no, eso sí! ¡Entra o sale!. Cortamos a la pobre película con una guillotina en miniatura y pegamos juntos a los pedazos desmembrados como al monstruo del Dr. Frankenstein. La diferencia (diferencia milagrosa) está en que fuera de esta carnicería, nuestra creación a veces puede ganar, no sólo una vida, sino también un alma. Lo que a todos nos deja asombrados, porque el desplazamiento instantáneo logrado por el corte no es nada parecido a lo que experimentamos en la vida cotidiana.
Estamos acostumbrados a tales saltos, por supuesto, en la música (Beethoven fue el innovador y maestro de esto) así como en el ámbito de nuestro propio pensamiento: la manera en que un pensamiento obnubilará a todo lo demás de repente, y, a su vez, es reemplazado por otro. Pero en las artes dramáticas, (teatro, ballet, ópera), no parece ser posible una manera de lograr el desplazamiento instantáneo total: después de todo, la maquinaria de la escena a lo sumo puede moverse rápido. ¿Entonces por qué funcionan los cortes? ¿Tienen alguna base oculta en nuestra propia experiencia?, ¿o son una invención que satisface la conveniencia de los directores de cine, y las personas, simplemente, de algún modo, se han acostumbrado a ellos?.
Bien, aunque a "diario" la realidad parece ser continua, existe otro mundo, en el que además invertimos una tercera parte de nuestras vidas: el "noche-a-noche", la realidad de los sueños. Las imágenes en los sueños son mucho más fragmentadas y se cortan de manera mucho más extraña y más abrupta, que las imágenes de la vigilia y la realidad, de manera que se aproximan, por lo menos, a la acción producida por el corte.
Quizás la explicación sea tan simple como eso: aceptamos al corte porque se parece a la forma en que las imágenes se yuxtaponen en nuestros sueños. De hecho, la rudeza del corte puede ser uno de los motivos importantes que producen la similitud entre las películas y los sueños. En la oscuridad del cine, nos decimos, en efecto, "Esto se parece a la realidad, pero no puede ser la realidad porque es visualmente discontinuo; por consiguiente, debe ser un sueño."
Junto con estas líneas, es revelador que las palabras con las que un padre acostumbra a reconfortar a un niño asustado por una pesadilla sean: "No te preocupes, querido, es sólo un sueño". Los sueños aterradores y las películas tienen un poder similar para vencer a las defensas, defensas que son, por otra parte, eficaces contra libros, o pinturas, o músicas igualmente aterradoras. Difícil imaginar esta frase: "No te preocupes, querido, es sólo una pintura."
El problema con todo esto es que la comparación entre películas y sueños es interesante y probablemente sirva, pero es relativamente árido a la hora de hechos prácticos: todavía sabemos tan poco sobre la naturaleza de los sueños...
Algo para considerar, sin embargo, es la posibilidad que puede haber, en alguna parte de nuestra realidad consciente, un lugar donde experimentamos algo realmente similar a los cortes, y donde las imágenes de la luz del día se vuelven de algún modo, más intimas, más discontinuas.
Empecé a vislumbrar algo de esto en mi primer trabajo de compaginación: en la Conversación (1974), fui encontrando que Gene Hackman (Harry Caul en la película) siempre pestañeaba muy cerca del punto donde había decidido cortar. Era algo interesante, pero no supe qué hacer con eso.
Una mañana después de haber estado trabajando toda la noche, salí para desayunar y en la ventana de una sala de lectura, vi un ejemplar de la revista Monitor, que en su tapa ofrecía una entrevista a John Huston12. Me detuve a leerla, y una cosa me golpeó enérgicamente, porque se relacionó exactamente con esta pregunta del parpadeo:
"Para mí, la película perfecta es como si se estuviera desenvolviendo detrás de sus ojos, y sus ojos estuvieran proyectándola, para que se estuviera viendo lo que se desea ver. La película está en el pensamiento. Es lo más cercano al proceso del pensamiento que cualquier otro arte."
"Mire esa lámpara que está al otro lado de la habitación. Ahora míreme a mí. Mire esa lámpara nuevamente. Ahora míreme otra vez. ¿Ve lo que hizo? pestañeó. Esos son cortes. Después de la primera mirada, se sabe que no hay ninguna razón para mirar continuamente desde la lámpara hasta mí porque ya sabe lo hay entre nosotros. Su mente cortó la escena. Primero mira la lámpara. Corte. Me mira."
Lo que Huston nos pide es que consideremos un mecanismo fisiológico, el parpadeo, que interrumpe la continuidad visual de nuestras percepciones: mi cabeza se puede mover fácilmente de un lado del cuarto al otro, pero, de hecho, estoy cortando el flujo de imágenes visuales en pedazos significantes, parece que es mejor yuxtaponer y comparar esos momentos, "la lámpara" y "la cara" en el ejemplo de Huston, sin la información no pertinente que aparece en medio.
Por supuesto que hay límites al tipo de yuxtaposiciones que podemos hacer de esta manera. No puedo saltar hacia adelante o hacia atrás en el tiempo o en el espacio (esa es una prerrogativa de sueños y películas)13. Pero aún así, los desplazamientos visuales disponibles para mí, con sólo girar la cabeza (del Gran Cañón del Colorado delante de mí al bosque detrás de mí, o incluso de un lado del cuarto al otro), es a veces bastante grande.
Después de que leí ese artículo, empecé a observar a las personas y a mirar cuando pestañean, y empecé a descubrir algo muy diferente a lo que se enseña en la biología de la escuela secundaria, aquello de que el parpadeo es simplemente un medio para humedecer la superficie del ojo. Si esa fuera su única función, entonces, para cada ambiente y cada individuo, habría un intervalo completamente mecánico y predecible entre parpadeos que dependerían de la humedad, de la temperatura, la velocidad del viento, etc. Uno sólo pestañearía cuando su ojo comenzara a ponerse demasiado seco, y eso se reflejaría en un número constante de veces por minuto para cada ambiente. Claramente este no es el caso: las personas a veces sostienen sus ojos abiertos durante minutos en algunos casos, y en otros momentos pestañearán repetidamente, con muchas variaciones entre medio. La pregunta entonces es, "¿qué es lo que les hace pestañear?”.
Estoy seguro que alguna vez se habrá encontrado con alguien que estaba tan enojado que no pestañeaba en absoluto: esta persona, creo, está aferrada a un solo pensamiento sostenido, que inhibe el impulso y ya no necesita pestañear.14 Y existe también el tipo opuesto: el que no para de pestañear. Esta persona es asaltada simultáneamente por muchas emociones y pensamientos contradictorios, y desesperadamente (pero en forma inconsciente) usa esos parpadeos para intentar separar estos pensamientos, y recobrar algún tipo de control.
Por lo que me parece que nuestra proporción de pestañeos se debe más, de algún modo, a nuestro estado emocional y a la naturaleza y frecuencia de nuestros pensamientos, que al ambiente atmosférico en que nos encontramos. Aún cuando no haya movimiento de la cabeza (como en el ejemplo de Huston), el parpadeo es algo que auxilia a la separación interior de los pensamientos, o es un reflejo involuntario, que acompaña la separación mental que esta teniendo lugar.
Y no sólo es significante la proporción de pestañeo, sino también el momento en que ocurre el mismo. Empiece una conversación con alguien y fíjese cuando pestañea. Creo que encontrará que su oyente pestañeará en el momento preciso en que él o ella "consigue captar" la idea de lo que usted está diciendo, ni un momento antes o después. ¿Por qué sería esto? Bien, el discurso está lleno de notas de gracia inadvertidas y elaboraciones (el equivalente "Estimado Señor" y "Suyo Atentamente") y la esencia de lo que tenemos que decir se intercala a menudo entre una introducción y una conclusión. El parpadeo aparecerá cuando el oyente comprende que nuestra "introducción" termina y que ahora vamos a decir algo importante, o aparecerá cuando él sienta que "terminamos" y no vamos a decir nada más importante por el momento.
Y ese parpadeo ocurrirá donde se puede realizar un corte, si la conversación se ha filmado. Ni un cuadro antes ni después.
Para entender una idea, o una sucesión de ideas, pestañeamos, separando y puntuando, una idea de la siguiente. De manera semejante, en una película, un plano nos presenta una idea, o una sucesión de ideas, y el corte es un "parpadeo" que separa y puntúa esas ideas16. En el momento en que usted decide cortar, lo que se está diciendo es, en efecto, "voy a terminar con esta idea y ahora vendrá algo nuevo". Es importante dar énfasis a que el corte por si mismo no crea el "momento del parpadeo", así como la cola no menea al perro. Si el corte se hace correctamente, sin embargo, aún en el caso de mayor discontinuidad visual: de un interior oscuro a un luminoso exterior, por ejemplo, tanto más perfecto será el efecto de puntuación.
De todos modos, creo que las yuxtaposiciones "fílmicas" no sólo están teniendo Jugar en el mundo real cuando soñamos, sino también cuando estamos despiertos. Y, de hecho, me arriesgo a afirmar que estas yuxtaposiciones no son artefactos mentales accidentales, sino parte del método que acostumbramos a usar para entender al mundo: debemos dar a la realidad visual una necesaria discontinuidad, porque sin ella la percepción se parecería a una cadena casi incomprensible de cartas llenas de palabras sin separación o puntuación. Cuando nos sentamos en el cine a oscuras, encontramos (sorprendentemente) en la película una experiencia familiar. "Más similar al pensamiento que ningún otro arte," en las palabras de Huston.17
16 Esto ocurre independientemente de cuan grande o pequeña nos parezca la idea. Por ejemplo, la idea puede ser tan simple como: "ella se corrió rápidamente a la izquierda".
17 William Stokoc hace una comparación intrigante entre las técnicas de la edición fílmica y el lenguaje de señas americano: "En el lenguaje de señas, la narrativa no es lineal. Al contrario, su esencia consiste en cortar de un plano normal a un primer plano, a un plano lejano a un primer plano, aún incluyendo flashbacks y flashforwards, exactamente como un trabajo de edición fílmica. No sólo los signos están acomodados como en un film editado más que como en una narración escrita, sino que también cada ejecutante se parece muchísimo a una cámara: el campo y ángulo de visión son dirigidos y variables. " William Stokoc, Lenguaje en Cuatro Dimensiones, Academia de Ciencias de Nueva York (1979).
“Dragnet”
Si es verdad que nuestras proporciones y ritmos de pestañeo se refieren directamente al ritmo y sucesión de nuestras emociones internas y pensamientos, entonces esas proporciones y ritmos son visiones de nuestros egos internos y, por consiguiente, tan característicos de cada uno de nosotros como nuestras firmas. Así que si un actor se proyecta exitosamente en las emociones y pensamientos de un personaje, sus parpadeos ocurrirán tan natural y espontáneamente como los parpadeos del personaje hubiesen ocurrido en la vida real.18
Creo que esto es lo que estaba encontrando con en la actuación de Hackman en La Conversación, él había asumido el carácter de Harry Caul, estaba pensando los pensamientos de Harry de la manera en que Harry los pensaría y, por consiguiente, estaba pestañeando en ritmo con esos pensamientos. Como yo estaba descubriendo los ritmos que él me marcaba y estaba intentando pensar pensamientos similares, mis puntos de corte estaban encuadrándose naturalmente con sus "parpadeos". En cierto sentido, tenía redirigida mí circuitería nerviosa para que la orden semi-involuntaria de pestañear me obligara a apretar el botón de parada en la Moviola.
En ese mismo sentido, una de las disciplinas que sigo, es elegir el "punto de corte" de un plano marcándolo en tiempo real. Si no puedo hacer esto, si no puedo pegar en ese mismo cuadro repetidamente a veinticuatro cuadros por segundo, se que hay algo mal en mi elección, y ajusto mi pensamiento, hasta encontrar un cuadro que pueda pegar. Nunca me permito seleccionar el "punto de corte" moviendo poco a poco de un lado a otro, comparando un cuadro con otro hasta conseguir el que "pegue" mejor. Ese método, erróneo para mí, garantiza producir un "tono sordo" en el ritmo de la película.
Una de las tareas como editor es "sensibilizarse" a los ritmos que el (buen) actor da, y encontrar las maneras de extender estos ritmos al territorio no cubierto por el actor, para que el andar de la película sea en conjunto, una elaboración de esos modelos de pensamiento y sentimiento. Y una de las muchas maneras en que se pueden asumir esos ritmos es notar, consciente o inconscientemente, donde parpadea el actor.
Hay una manera de edición que ignora todas estas cuestiones, que llamo el sistema"Dragnet", por la serie de televisión de los '50 del mismo nombre.
Uno de los elementos que denotan una actuación infructuosa es que los parpadeos del actor parecen tener un ritmo incorrecto. Aunque puede no notarse esto conscientemente, ocurre cuando el ritmo de los parpadeos del actor no se empareja con el ritmo de los pensamientos que se esperan del personaje que él esta interpretando. De hecho, un actor "malo" probablemente no está pensando nada de lo que su personaje estaría pensando. Tal vez, en cambio, esté pensando: "¿qué piensa el director de mi, le parezco bien?," o "¿cuál era mi próxima línea".
La política del show parecía ser mostrar el momento en que cada palabra de diálogo se pronunciaba, en pantalla. Cuando alguien había terminado de hablar, había una pausa breve y entonces un corte a la persona que estaba ahora a punto hablar y cuando ésta terminaba, había un corte a la primera persona que movía su cabeza o decía algo, y entonces, cuando esa persona terminaba, cortaban de nuevo, etc. Esto era así hasta con palabras individuales. "¿fue usted al centro de la ciudad?" Corte. "No." Corte. "¿Cuándo va?" Corte. "Mañana." Corte. "¿Lo ha visto a su hijo?" Corte. "No, él no vino a casa anoche." Corte. "¿A qué hora llega normalmente?" Corte. "A las dos." Al principio, esta técnica creó una sensación de dureza, de realismo policiaco.
El sistema "Dragnet" es una manera simple de editar, pero de una simplicidad muy poco profunda que no refleja la gramática de intercambios complejos que se siguen todo el tiempo, incluso en las conversaciones más ordinarias. Si se está observando un diálogo entre dos personas, la atención no se enfocará solamente en la persona que está hablando. En cambio, mientras esa persona todavía esta hablando, usted se volverá para mirar al oyente, para averiguar lo que él piensa de lo que se le está diciendo. La pregunta es, ¿cuándo exactamente le miramos?
Hay lugares en una conversación donde parece que no podemos físicamente ni pestañear ni girar la cabeza (porque todavía estamos recibiendo información importante), y hay otros momentos donde debemos pestañear o debernos girar para mantener el sentido de lo que estamos recibiendo. Y sugeriría que hay puntos similares en cada escena, donde el corte no puede o debe ocurrir, y por las mismas razones. Cada plano tiene potenciales "puntos de corte" de la misma manera que un árbol tiene ramas, y una vez que se los ha identificado, se podía escoger entre ellos, lo que dependerá de lo que el público está pensando en ese momento y lo que se quiere que piensen después.
Por ejemplo, cortando a un cierto personaje antes de que termine de hablar, podría animar a que el público pensara sólo sobre el valor de la cara del interlocutor, ante lo que el primero le dijo. Por otro lado, si me demoro en el personaje después de que termina de hablar, le permito al público ver, en la expresión en sus ojos, que probablemente no esté diciendo la verdad, y pensarán diferente sobre él y lo que dijo. Pero como lleva una cierta cantidad de tiempo hacer esa observación, no puedo cortar demasiado pronto al personaje; o lo corto mientras él está hablando (posibilidad número uno) o lo mantengo hasta que el público comprende que el está mintiendo (posibilidad número dos), pero no puedo cortar entre esas dos posibilidades, porque parecería así 0 bien demasiado largo, o bien demasiado corto. Los puntos de corte son orgánicamente fijados por el ritmo del propio plano y por lo que el público ha estado pensando en ese momento de la película, pero soy libre de seleccionar uno u otro de ellos (o todavía otro más allá) dependiendo de lo que quiero que el público sienta.
Una manera de cambiar el sitio de corte posible es poner al plano en un contexto diferente, donde el público estará pensando y notando, cosas diferentes.
De esta manera, se debe poder cortar del portavoz al oyente y viceversa en forma psicológicamente interesante, compleja, y "correcta", en modelos que reflejan los tipos de cambios de atención y comprensión que siguen en la vida real: de esta manera se establece un ritmo que subraya los contrapuntos y las ideas expresivas. Y una de las herramientas para identificar exactamente donde van estos puntos de corte, estas "posibilidades," puede ser compararlos a nuestros modelos de pestañeo, a cómo hemos estado subrayando el ritmo de nuestros pensamientos, por decenas de miles, o quizás millones, de años de historia humana. Donde se siente cómodo el pestañeo, si realmente está escuchando y está sintiendo que decir, es donde el corte se sentirá correcto.
Hay entonces realmente tres problemas juntos:
I) identificar una serie de puntos de corte potenciales (y las comparaciones con el parpadeo pueden ayudarnos a hacerlo),
2) determinar que efecto tendrá en el público cada punto de corte, y
3) escoger cual de esos efectos es el correcto, para la película en cuestión.
Creo que la sucesión de pensamientos, es decir, el ritmo y proporción deben ser apropiados a lo que el público está mirando en ese momento, el promedio en el "mundo real" de los pestañeos está entre cuatro y cuarenta veces por minuto. Si se está en una pelea real, se estará pestañeando unas doce veces por minuto, porque se están pensando una docena de pensamientos diferentes por minuto, y cuando se está mirando una lucha en una película, hay una docena de cortes por minuto.20 De hecho, estadísticamente las dos proporciones, la del pestañeo en la vida real y la de los cortes de una película, están bastante cerca como para compararlos: dependiendo de cómo esté organizada, una sucesión de acción convincente puede tener alrededor de veinticinco cortes por minuto, y se puede considerar que una escena de diálogo todavía se sentiría "normal" (en una película americana) promediando seis cortes por minuto o menos.
Se debe poner atención en los parpadeos y se debe llevarlos tan suavemente como en la vida. No espero ciertamente que el público pestañee a cada corte, el punto de corte debe ser un punto del parpadeo potencial. En cierto sentido, cortando, por este desplazamiento súbito del campo visual, se está pestañeando por el público: se logra la yuxtaposición inmediata de dos conceptos, algo que se logra en el mundo real pestañeando, como en el ejemplo de Huston.
Su trabajo es en parte anticiparse, en parte controlar el proceso del pensamiento del público. Para darles lo que ellos quieren y/o lo que ellos simplemente necesitan antes de que ellos tengan que "pedirlo", para ser al mismo tiempo tan sorprendente como evidente. Si se retrasa demasiado o se adelanta demasiado, creará problemas, pero si se pone atención en ellos y se los lleva con suavidad, el flujo de percepciones de eventos será natural y excitante al mismo tiempo.
Esto haría que el público participe emocionalmente en la propia lucha. Si, por otro lado, se quiere crear un distanciamiento objetivo, y tener el público observando la lucha como un fenómeno en sí mismo, se podrá reducir el número de cortes considerablemente.
Una galaxia de puntos parpadeantes
A lo largo de estas líneas he pensado que sería fascinante tomar con una película infrarroja al público y averiguar cuando y cuantas veces pestañean, mientras están mirando una película. Mi corazonada es que si un público realmente está metido en una película, va a estar pensando (y por consiguiente pestañeando) con el ritmo de la película.
Hay un efecto maravilloso que se puede producir si se envía luz infrarroja directamente en línea con la lente de una cámara. Todos los ojos animales (incluso los humanos) reflejan una porción de luz directamente hacia la cámara, y se verán puntos resplandecientes luminosos donde los ojos están: es una versión del efecto del "ojo rojo" de las fotos instantáneas familiares tomadas con flash.
Si se tomara una película infrarroja de alto contraste de un público que mira una película, se pusiera la cámara en fase y se encuadrara la fuente de luz directamente con la cámara, vería una galaxia de estos puntos contra un campo de negro. Y cuando alguien en el público pestañee, vería la interrupción momentánea de un par de estos puntos.
Si fuera verdad, si hubiera tiempos en los que esos mil puntos pestañearan más o menos al unísono, el director de cine tendría una herramienta sumamente poderosa a su disposición. Los pestañeos coherentes serian una indicación fuerte de que el público estaba pensando en conjunto, y que la película estaba trabajando bien. Y cuando los pestañeos se dispersen, le indicarían que podría haber perdido la atención de su público, que se habían puesto a pensar sobre dónde ir a cenar, o si su automóvil está estacionado en un lugar seguro, etc.
Cuando las personas están profundamente "en" una película, notará que nadie tose en la sala, aunque puedan estar resfriadas. Si la tos fuera puramente una reacción autónoma al hábito de fumar o a la congestión, sería constante y al azar, sin importar lo que este pasando en la pantalla. Pero el público se silencia en ciertos momentos, y en este sentido, estoy sugiriendo que pestañear sería algo así como toser. Hay una famosa grabación en vivo del pianista Sviatoslav Richter interpretando Cuadros de una Exposición de Mussorgsky, hace muchos años, durante una epidemia de gripe en Bulgaria: mientras estaba tocando ciertos pasajes, nadie tosió, en esos momentos, pudo suprimir, con su talento artístico, el impulso de la tos de 1500 personas enfermas.
Pienso que esta atención subconsciente al parpadeo también es algo que probablemente se encontraría como un factor oculto en la vida cotidiana. Una cosa que puede ponerlo nervioso ante una persona en particular es que usted sienta, sin él conocerlo, que su pestañear es equivocado. "El está pestañeando demasiado" o "El no está pestañeando bastante" o "El está pestañeando en el momento equivocado." Un medio de saber que el realmente no lo está escuchando, ni está pensando junto con usted.
Sí consideramos que alguien que pestañea en los momentos "correctos" y al ritmo "correcto", esta atento a lo que se le esta diciendo, uno se sentirá cómodo en la presencia de esta persona. Pienso que sabemos estas cosas, subconscientemente, intuitivamente, sin tener que decirlas, y no me sorprendería que sea parte de nuestra estrategia para negociar con los demás.
Cuando sugerimos que un actor es malo, no estamos diciendo ciertamente que el es una mala persona; simplemente estamos diciendo que esta persona no está metida totalmente en el personaje cuanto él quiere que creamos, y que está nervioso por eso. Se puede ver esto claramente en las campañas políticas, donde hay a veces una distinción vivida entre quien alguien es, y quién ellos quieren que los volantes crean que son: algo siempre estará "mal" en la proporción y momento en que estas personas parpadean.
Eso me devuelve a una de las responsabilidades centrales del editor, que es establecer un ritmo interesante, coherente en emoción y pensamiento en los instantes más diminutos y en los más grandes, que le permitan al público creer en ellos y en la película. Sin saber porque, una película mal editada molestará al público y éste se dirá inconscientemente, "hay algo disperso y nervioso en la manera en que la película se desarrolla, la manera en que se presenta. Por consiguiente, no me voy a brindar a la película tanto como puedo." Una película buena, bien editada, se parece a una extensión elaborada de los propios sentimientos del público y sus pensamientos, y el público por consiguiente, se le brindará.
1. Conceptos básicos y la Captura de Imágenes Fijas
Debido al alto interés en este tema, abro aquí un nuevo espacio dedicado a la captura de imágenes.Antes, es impepinable explicar ciertos aspectos técnicos para poder entender bien algunas cosas, tanto de la captura de imágenes como del vídeo. En esta actualización del informe voy a eliminar todo lo referente a la captura usando tarjetas analógicas, me centraré en el uso de la interface Firewire.
Lo primero que hay que explicar cómo se visualizan las imágenes en la TV. En Europa se usa el sistema de TV PAL. En USA y Japón el NTSC. Me centro en el PAL. En este sistema, se muestran un total de 25 imágenes completas por segundo. Cada imagen consta de 625 líneas, de las cuales unas cuantas no llevan información de vídeo, llevan sincronismos , teletexto, NICAN, etc. El sistema es "entrelazado". Esto significa que cada imagen completa se compone en realidad de dos imágenes una con las líneas pares y otra con las impares con 312 líneas cada una. A cada imagen de 312 líneas, la llamaremos campo. ( Una imagen completa se compone pues de dos campos). Estos campos tienen un frecuencia doble, es decir, 50 veces por segundo.
Nuestras cámaras DV captan las imágenes con el CCD siguiendo este principio : captan primero las 312 líneas pares y luego las 312 líneas impares. Las que tienen un CCD de "exploración progresiva" son capaces de captar 625 líneas de "golpe". Todo esto no tiene la menor importancia en "modo vídeo" ya que nuestros ojos integran las dos imágenes entrelazadas. Tampoco lo tiene al visionar las imágenes en la TV, ya que la televisión también funciona en modo entrelazado, pero cuando se trata de capturar imágenes fijas con el ordenador tiene unas implicaciones muy grandes.
Para empezar, los monitores de ordenador no funcionan en modo entrelazado, lo hacen en modo progresivo y con una tasa de refresco muy alta ( 75 u 80 Hz, cuanto más, más cómodo es para la vista).
Yo me temo, no lo sé con certeza, que cuando usamos el "modo foto" o ponemos la grabación en pausa, la imagen que estamos viendo se compone de 312 líneas, es decir , nos muestran sólo una de las "dos pasadas", ( duplicando una línea dos veces) de que se compone una imagen. Por eso se ve un poquito peor al estar en pausa. Hay algunos modelos de Sony que tienen el "intraframe interpolator" : creo que consiste en interpolar ambos campos para mejorar un poco la pausa. Evidentemente, con las cámaras con exploración progresiva, obtenemos una imagen completa.
Hay un tema relacionado. El sistema de compresión DV, analiza las diferencias entre ambos campos de que se compone la imagen. Si son muy similares, los comprime como si fuera una solo. De nuevo, en imágenes en movimiento no tiene importancia, pero a la hora de capturar una foto, si. En las cámaras de exploración progresiva, existen dos modos de filmar : modo normal entrelazado y modo progresivo. Este último, tiene ciertas limitaciones. Desde luego, lo que no admite el estándar de compresión DV es adquirir continuamente en modo progresivo. Come veís es un tema más complejo de lo que parece y no estoy seguro al 100% de lo que digo. Si alguién tiene más datos o correciones, que me los comunique.
Cuando se interpolan o se suman ambos campos hay que tener en cuenta que , debido a la baja velocidad de exploración de 1/50 del sistema PAL, puede haber ( y las hay ) diferencias entre ambos ( causadas por el inevitable movimiento , salvo si se usa trípode). Este movimiento va a ocurrir aunque usemos velocidades de obturación alta para cada uno de los campos.
Existen otros aspectos relacionados. Uno de ellos, es el tipo de pixels. Normalmente se necesitan, o se ven mejor, las imágenes creadas con pixles cuadrados, tal como lo hacen las cámaras de fotos digitales. Sin embargo, las de vídeo no presentan pixels cuadrados. He leido por ahí un proceso para mejorar las imágenes usando Photoshop o similar :
- Usar la velocidad de obturación mayor posible , para evitar que salgan movidas.
- Si está movida, usar el filtro de movimiento, en la opción "video".
- Pasar la imagen de 720x480 a 640x480 para cuadrar los pixels
- Ampliar la imagen tres o cuatro veces con interpolación. Experimentar con cúbica o bilineal.
- Aplicar un filtro Gaussiano con un ajuste de 0.5 o 0.7 pixels
- Desenfocar con una máscara del 150% y un radio de 1.5 o 2 pixels y un umbral de 8 nivel.
Todas estas cosas, hay tarjetas Firewire ( o mejor dicho, el software que llevan) que lo hace automáticamente, como la Sony DVBK-1000 o el Radius PhotoDV, este último muy interesante. Cortesía de Bob Doyle.
Casi todas las cámaras de hoy en día proporcionan dos interfaces para la transferencia de imágenes fijas grabadas en cinta :
- la salida DV ( Firewire, i-Link)
- salida por un puerto serie ( ya sea RS232 o USB)
Los datos transferidos son los mismos, por lo que la calidad resultante es idéntica. La velocidad de transferencia es mucho mejor si se usa la salida Firewire.
Tambien han salido muchas cámaras miniDV con un modo "foto" real, es decir, con una tarjeta de memoria donde se almacen las fotos, son cámaras "duales". La trasnferencia de estas fotos se suele realizar usando un puerto serie o USB, no por el Firewire.
2. La Edición Digital
Esto está inspirado, en parte, en un artículo que podeis encontrar en http://www.computervice.com/dv-l/fireway.html
Para realizar una edición de vídeo con las cámaras digitales tenemos tres alternativas :
- pasar la imagen ( analógica ) al ordenador a través de una capturadora de vídeo analógica que comprima a M-JPEG o MPEG-2 , editar y pasar el resultado a una cinta VHS, DV, CD-ROM o DVD-RAM.
- pasar la imagen digital al ordenador a través del FireWire, editar y volver a pasar la imagen a la cinta DV a través del FireWire ( método ideal ).
- realizar la edición a un vídeo VHS ( o DV ) y utlizar el software que suelen proporcionar los fabricantes de cámaras. ( Edición sencilla, simple remontaje de las imágenes )
El mejor método, sin duda, es el segundo: editar en formato DV y volcar el resultado de la edición a la cinta miniDV. Luego lo veremos paso a paso.
Si disponemos de una cámara con un puerto FireWire de entrada/salida el escenario es idílico. Realizaríamos la edición en un entorno digital sin degradación alguna de las imágenes. Lo más importante a tener en cuenta es que la conversión analógica/digital y la compresión DTC se realiza en nuestra videocámara y por ello no es necesario comprar tarjetas digitalizadoras o codecs especializados ( en principio ). Además se evitan los problemas que solían tener las digitalizadoras , tales como pérdida de imágenes, etc. Otra ventaja es que el control de la cámara se realiza también a través del Firewire ( recordar que esta interface maneja señales de control en su propio protocolo). Evitamos así tener que enchufar la interface LANC o JLIP.
2.1 El Equipo
Se necesita una cámara miniDV con interface Firewire ( IEEE1394) de entrada/salida. Ya sabeís que para el mercado europeo la mayoria de las miniDV están "capadas" y la interface DV es solo de salida. Pero no hay problema, es reversible y se pueden convertir en entradas/salidas. Ver la sección dv-in. Existen también magnetoscopios miniDV, una opción para los semiprofesionales.
Una tarjeta de interface Firewire para el ordenador. En firewire podeís ver una pequeña selección de ellas, con precios desde 12.000 pesetas.
Un software de edición de video no-lineal tal como Adobe Premier.Algunas de las tarjetas Firewire incluyen versiones reducidas de este tipo de programas. Los programas más populares y potentes son el Adobe Premiere y el MediaStudio Pro.
Un ordenador potente con un gran disco duro.Tener en cuenta que el formato DV emana 3.7 Mbytes de datos por segundo. 10 minutos son 2.2 G y 90 minutos son 20 Gigas. Además se generan grandes archivos temporales durante la edición. En cuanto al ordenador, lo más gordo posible. 256M de RAM , un disco duro de 30 Gigas, un buen monitor , una CPU a 500 Mhz o más y poco más. Todo esto es relativamente barato hoy en día. Para más info ver PC para edicion DV.
Una tarjeta de edición DV con codec HW ( opcional ). Como veremos después, hay operaciones en las que es necesario descomprimir las imágnes DV al formato RGB u otros. Existen dos opciones : que lo haga la CPU del ordenador a través de un driver que suele venir con la tarjeta Firewire, o que lo haga una tarjeta PCI con un chip especializado. La diferencia está en la velocidad que puede llegar a ser hasta 10 veces mayor usando el codec ( codificador/descodificador ) hardware. La elección depende de las prisas y del dinero que tengamos. Conforme salen procesadores más rápidos, va teniendo menos sentido esta opción. En la sección Firewire teneís algunas de ellas, siendo las más conocidas las Pinnacle DV500 o la Matrox RT2000/2500. Estas tarjetas suelen incluir la interface Firewire. Su precio supera con creces las 100.000 pesetas.
2.2 Paso a Paso
Paso 1 : Salir de paseo o de viaje y filmar lo que nos de la gana. Las imágenes son digitalizadas y comprimidas en nuestra cámara en "tiempo real".
Paso 2 :Copiar la filmación digital al ordenador a través del Firewire. Se realiza con alguna utilidad o driver que suele venir con la tarjeta Firewire. No se produce la más mínima degradación de la imagen.
Paso 3 : Usar Adobe Premier u otro programa para la edición. Aquí hay que señalar un punto importante. Cuando queremos añadir filtros, títitulos o transiciones con Premier, éste necesita descomprimir las imágenes para tratarlas como bitmaps RGB. Esta descompresión la puede realizar un codec software ( que generalmente lo tenemos ya instalado ) o uno hardware que habría que comprar ( mucho más caro y rápido). De esto ya hemos hablado antes. Una vez realizada la transición o filtrado el codec vuelve a comprimir las imágenes en el formato DV. Si no necesitamos añadir transiciones ni aplicar filtros, este codec no se utiliza nunca. Pero está clado que siempre que editamos se añaden transiciones , títulos, etc ¿ si no para qué editamos ? Si no tenemos una aceleradora de edicion DV, la generación de estas nuevas imágenes con filtros, etc ( el llamado "render") puede llevar bastante tiempo. Una transición sencilla entre dos cortes puede llevar unos 10 segundos en un ordenador a 800Mhz. No es mucho, pero es que hay gente que añade filtros a TODO el vídeo ( para corregir tonalidades o dar un aspecto especial). En este caso, el proceso puede durar varias horas dependiendo de la duración del clip.
Paso 4 :Una vez acabada la edición, lo lógico sería pasar el resultado a nuestra cámara a través del Firewire ( una vez más, con la mayoría de las cámaras europeas no es posible, salvo que la "crackees"). Aquí no voy a hablar de "chapuzas" tales como pasar el resultado a VHS .... te aconsejo que el resultado de la edición lo pases a miniDV y si quieres, hagas una copia a VHS conectando la cámara miniDV al video VHS.
Una posibilidad fascinante será el paso a DVD, ya que se podría "transcodificar" hacía una unidad grabadora de DVD no siendo necesario que fuera "en tiempo real". Eso sí, tardaría unas cuantas horas y haría falta un software que pasara de formato DV a MPEG2. Ya existen grabadores de DVD. En concreto la Pionner A03, que cuesta unas 150.000 pesetas.
3.0 Algunos consejos y avisos.
Llegar a manejar con soltura un programa de edición lleva bastante tiempo. Casi todos los programas tienen una interface de usuario muy similar, los más potentes tienen muchas más opciones, pero la operativa es parecida en todos. Es algo así como aprender a usar el Microsoft Word. Lo mejor es seguir algún tutorial o comprar algún libro. Por mi experiencia, el método de toquetear los menús y ver la ayuda, no es nada productivo, son programas y filosofías de trabajo que al principio no son nada evidentes. Pero bueno, no es dificil , en un par de horas serás ya capaz de realizar las funciones básicas de la edición: cortar clips, añadir transiciones, manejar las bandas sonoras y poner algun título o letrero. Te aconsejo que empieces con trozos de vídeo pequeños ( 3 o 4 minutos)
Una buena edición es aquella que no se nota. No hay que abusar de los efectos especiales ni de las transiciones y títulos. Fíjate en los documentales de la TV, la edición "no se nota", aún cuando un profesional ha estado trabajando en él quizás más de una semana.
Ten en cuenta que bajo W98 el tamaño máximo de los ficheros es de 4 G, lo que equivale a 18 minutos de vídeo dv. No podrás tener un fichero mayor, por limitaciones del sistema operativo. Bajo W2000 formateado en NTFS no existe esta limitación. Pero nadie te obliga a que tengas ficheros tan grandes para editar. De hecho, en mi opinión lo mejor es tener nuestro vídeo fragmentado en tantos ficheros como tomas hayamos hecho. Esto puede suponer tener unos 100 ficheros por cada 15 minutos de vídeo grabado ( bueno, esto depende mucho de tu forma de filmar, si haces tomas muy largas o muy cortas).
Por tanto, bajo mi personal y nada cualificado punto de vista, los pasos serían :
- Transferir al disco duro un buen trozo de vídeo ( si trabajamos con W98, nunca superior a 18 minutos ). Podemos transferir varios de estos fragmentos de 18 minutos. Esta transferencia la podemos realizar con las utilidades de captura que incluyen todos los software de edición.
- Partir cada fichero de 18 minutos en ficheros que contengan una toma contínua. Esto, a primera vista puede parecer una "mision imposible": no es así. Hay un programa, llamado Scenalyzer, que lo hace automáticamente. A cada ficherito generado le asigna la fecha y hora de la escena grabada. Como los ficheritos van a ser relativamente pequeños, sumandolos todos podemos obtener duraciones superiores a los 18 minutos de límite de W98 ( la duración puede ser "infinita", solo limitada por el tamaño del disco duro)
- Sobre la marcha, desechar ya las tomas absolutamente horribles. Borramos el fichero correspondiente.
- Entrar de nuevo en el programa de edición, en mi caso Premiere. Ahora incorporamos en el Storyboard todos los fragmentos de vídeo (normalmente almacenados en un directorio).
- Incorporar el storyboard a la línea de tiempos. Esto lo hace automáticamente una opción de Premiere. Incluso se le puede definir una transición por defecto, pero yo no lo aconsejos ya que quitar transiciones parece más dificil que poner transiciones.
- Editar el video: esto te puede llevar muchas muchas horas .... depende de lo que quieras hacer y de tu creatividad. Un aviso, cada vez que realices un efecto ya sea un título , una transición, un filtro,. etc el resultado tiene que ser "renderizado", cosa que lleva su tiempo. Lo normal es dejar este proceso para el final, salvo que quieras ver cómo van quedando.
- Transferir el resultado de la edición a la miniDV, para ello hay que "exportar a cinta" , una opción de Premiere.
* Un punto que suele generar muchas preguntas y polémicas : ¿por qué diablos se ve tan mal el video miniDv en la pantalla de mi ordenador ? Por varias razones, la primera suele ser que el visor de Premiere lo tienes configurado en baja resolución. Esto es una buena idea ya que así no estaremos sobrecargando al ordenador. Otro motivo es que el vídeo miniDV es entrelazado y tu monitor es progresivo. Otro más, la tonalidad de un TV no tiene nada que ver con la de un monitor de ordenador. Los profesionales suelen disponer de un TV justo al lado del ordenador para ir viendo cómo queda la cosa. Pero no te preocupes, una vez que vuelques a la cámara y lo veas por la TV, observarás que la calidad sigue siendo excepcional.
* Otro punto polémico: ¿se degrada la imagen durante la edición ? Para los trozos de vídeo que no han sufrido efectos o transiciones ( en una palabra, que no hayan sido renderizados) la respuesta tajante es NO. Los datos digitales no se han tocado en ningún momento. Para los trozos de vídeo que han sufrido un "render" , la respuesta es que SI, pero la degradación es muy muy pequeña, solo perceptible si se realizan varios "renders" consecutivos sobre el mismo clip. Cuando se "renderiza" , el video comprimido en DV hay que descomprimirlo a RGB ( o YUV) , realizar el efecto deseado y volver a comprimir a DV. Todo esto lo realizan operaciones matemáticas complejas con un compromiso en cuanto a precisión/velocidad.
* ¿Por qué se ve tan mal un clip cuando lo paso a MPEG y lo veo en el PC? La respuesta está en la naturaleza entrelazada del vídeo mini DV. Si quieres evitar este fenómeno deberás "desentrelazar", esto es una opción del Premiere.