Gary Adcock es un veterano cineasta, fotógrafo, gurú de la tecnología y experto en flujos de trabajo de medios de comunicación y entretenimiento, tecnologías de cámara y producción, y su relación con la postproducción y la entrega.
Ha trabajado con grandes marcas, desde Adobe hasta la CNN, pasando por McDonald's, la HBO, la NASA y la MLB, y es un notable influenciador en lo que respecta a la cinematografía, la producción en plató y las tecnologías de postproducción. Además, es un colaborador habitual del blog de MASV. Lee su artículo sobre producción a distancia.
MASV se reunió recientemente con Gary para mantener una interesante charla sobre datos digitales y fotogrametría - que permite la creación de modelos y entornos virtuales mediante el registro y la medición del mundo físico- junto con sus implicaciones hacia la producción virtual y la sociedad en general.
Esta entrevista ha sido editada por razones de longitud y claridad.
Saltar a la sección:
- ¿Qué es la fotogrametría?
- ¿Cómo funciona la fotogrametría?
- Fotos frente a vídeos: ¿Qué es mejor para la fotogrametría?
- ¿Es la fotogrametría una extensión de la producción virtual?
- ¿Cuál es la prevalencia de la fotogrametría en la producción virtual?
- ¿Cómo se utiliza la fotogrametría en la producción virtual?
- ¿Cuándo empezó a despegar realmente la fotogrametría?
- ¿La fotogrametría y la producción virtual han cambiado quién necesita estar en el plató?
- ¿Qué le depara el futuro a los datos digitales y al cine?
Transferencia de archivos grandes para cineastas
Utiliza MASV para enviar grandes archivos multimedia desde el plató a los editores, artistas de efectos visuales, coloristas, etc.
¿Qué es la fotogrametría?
Tomas una serie de fotos para extrapolar un objeto, y si tomas suficientes fotografías alrededor, tendrás un compuesto completo de todo. Y entonces puedes construir algo a escala.
La NASA utiliza la fotogrametría para cartografiar planetas y cosas así. Y a medida que nos adentramos en este mundo de la producción virtual con información de juegos y modelos 3D y datos de cámaras en directo, estamos haciendo exactamente lo mismo. Tomamos un flujo de datos, un flujo de audio y un flujo de vídeo y los unimos.
La fotogrametría puede utilizar el Lidar, que es un sistema de imágenes por distanciamiento de la luz que se ha utilizado para cartografiar espacios y todo tipo de cosas. Solía ser increíblemente caro, pero ahora mi iPhone tiene Lidar en él. Apple está comenzando a permitirte capturar el entorno que te rodea y hacer que se convierta en un mundo 3D para la virtualización, para los juegos, para cualquiera de esas cosas. Este tipo de tecnología está dando a gente como nosotros el poder de hacer este tipo de trucos.
De hecho, se pueden descargar varios tipos de software gratuito para Mac y Windows que permiten unir las fotos y hacer un modelo 3D. Ahora bien, el modelado en fotogrametría es independiente del Lidar, que es información añadida.
También hay algunas aplicaciones muy interesantes para este tipo de escaneo que te ayudan a construir modelos. El problema es que se hacen muy grandes, muy rápido.
Intenté escanear mi cocina y rápidamente me di cuenta de que había consumido 200 gigas de espacio en mi teléfono.
Envía hasta 15 TB con MASV
MASV puede entregar hasta 15 TB con un solo archivo en la nube, rápidamente.
¿Cómo funciona la fotogrametría?
Básicamente haces un mapeo de fotos.
Reúne una serie de fotos como si escribiera una hoja de contactos, y luego el software necesita diferentes controles sobre cómo hacerlo. Por ejemplo, si vas primero a través, o arriba y abajo, y si la primera fila va arriba y abajo. Hay reglas sobre cómo el software individual ve la secuencia, pero no es diferente de cómo se crea la RV.
Las imágenes estáticas de RV se mapean de la misma manera en varias cámaras. Y lo interesante de esto es que ahora estamos dando a los usuarios individuales la capacidad que no habíamos pensado antes. Da mucho poder a los usuarios, ¿verdad?
Pero esto también significa que si estás creando entornos virtuales, podría ir y disparar a través de la fotogrametría y tener un fondo y luego usar eso más tarde como una ubicación. Una explicación sencilla de esto es un programa llamado Estación Once en HBO Max. Fueron e hicieron fotogrametría de sus sets. De modo que, si surgía algo, podían poner a un actor delante de un fondo en cualquier parte del mundo y colocar este fondo. Podían filmar al actor en una pantalla verde y generar el fondo detrás de él.
Con la producción virtual, se puede colocar en una pared en un entorno de movimiento y mostrar realmente cómo funciona.
Uno de los fabricantes con los que trabajo tenía una pantalla tres veces más fina que cualquier otra del mercado. Tenía una resolución similar a la de un televisor 8K. Así que es una pared de 4K, de 10 bits, y más bits hacen que la imagen sea mejor, hace que las gamas tonales sean más largas, y todo lo demás. Y en lugar de mostrar simplemente imágenes en la pantalla, podemos mostrar un modelo 3D dentro de Unreal Engine. Y eso es lo mejor de todo. Ni siquiera es una ubicación física. Y ni siquiera puedes decir dónde termina la pared y empieza el escenario, porque la fusión es muy buena.
Fuente: Art of LED Wall Virtual Production, fxguide
Fotos frente a vídeos: ¿Qué es mejor para la fotogrametría?
Una imagen fija va a tener una resolución mucho mayor que un vídeo. Una imagen 4K tiene 4.000 píxeles, pero la mayoría de nuestras cámaras fijas tienen seis, ocho o 10.000 píxeles. No es raro tener una cámara fija con una resolución mucho mayor.
Pero, en última instancia, se trata de ser capaz de capturar un gran número de imágenes para unirlas y aplicar esa información. Y todo es matemático. Lo hace de forma inteligente. Llevo años trabajando en esto: una vez utilicé QuickTime VR para producir panorámicas de los interiores de Taco Bell para un proyecto de señalización. En lugar de alquilar tres restaurantes y filmarlos, lo cual es caro, hicimos un Taco Bell virtual. Y podíamos colocar todo a escala: podíamos previsualizar a los propietarios de los restaurantes cómo quedaría cada gráfico en el restaurante. Literalmente, salimos y filmamos el interior de la tienda, y luego filmamos el exterior de la tienda como un mapa de resolución. Y todo ello en formato de imagen fija. 🌮
Este proceso es ahora mucho más rápido gracias a la tecnología digital. Lo creas o no, eso se debe a los datos de localización de las cámaras. La cámara sabe y puede determinar la posición, el orden de las tomas y todo lo demás. Y casa la imagen basándose en números secuenciales. Cuando empecé a hacer esto, todavía usábamos película para hacerlo. Y es una barra lateral de todo esto. Pero realmente muestra la profundidad con la que las tecnologías que nos rodean se casan con todo lo que conocemos.
¿Es la fotogrametría una extensión de la producción virtual?
Es la aplicación de la fotogrametría.
La gente piensa que podría poner una foto ahí arriba, pero la imagen no se ajusta al paralaje de cómo se mueven los objetos y cómo se mueve el fondo contra mí en el primer plano. Es diferente que si fuera una imagen estática. La fotogrametría te permite cambiar la perspectiva de los objetos del fondo a medida que te mueves, para que puedas caminar y girar y hacer cosas. Y eso da ese nivel de realismo ampliado a lo que se va a hacer en el mundo virtual.
¿Cuál es la prevalencia de la fotogrametría en la producción virtual?
Hay seis escenarios virtuales construidos o en proceso de construcción en Chicago. Probablemente haya unos 30 en Los Ángeles, y unos 10 al menos en el área metropolitana de Toronto. El más grande de Montreal es para Star Trek: Discovery. Hay uno allí que creo que tiene alrededor de 110 pies de largo.
¿Cómo se utiliza la fotogrametría en la producción virtual?
Tradicionalmente forma parte del departamento de efectos visuales. Se trata de alguien que sabe cómo filmar placas de fondo e información de fondo. Ese es el tipo de gente que quieres que haga eso. Las otras personas que encuentro haciéndolo son las que tienen mucha experiencia en fotografía arquitectónica.
Hay muchas tecnologías de este tipo en la fotografía fija: hay apilamiento de imágenes, donde se toman una serie de imágenes para poder mantener el enfoque en toda la gama o ampliar el enfoque de un objeto. O, en el caso del telescopio espacial James Webb, el apilamiento de imágenes mediante la aplicación de 27 fotos diferentes del mismo objeto en diferentes espejos utilizando información diferente. Y es combinar esos 27 espejos en una sola imagen que da luz infrarroja, ultravioleta, transmisiva y todo ese tipo de cosas al mismo tiempo. La tecnología de la fotogrametría se utiliza de muchas maneras diferentes.
Como dije, se originó en la NASA. Lo utilizaron para cartografiar la luna. Y es por eso que cuando ves las fotos antiguas de la NASA, particularmente las de la luna, siempre verás estas pequeñas X en los marcos por todas partes. Se utilizaban para saber el tamaño del astronauta, para poder determinar a qué distancia está, a qué altura está en el entorno, porque han mapeado todo eso.
Cuando el hombre fue a la luna en 1969, cuando todo esto todavía se filmaba, no había digital. Utilizaban ese marcador de cuadrícula en el plano focal, que les permitía producir el contenido a la escala adecuada. Así que estamos trabajando con cosas que sucedieron hace 50 años, y que ahora están evolucionando hacia lo que estamos haciendo en el mundo virtual.
Transferencia de archivos para grandes demandas de datos
Envía y recibe fotos, vídeos y audio de alta resolución con MASV.
¿Cuándo empezó a despegar realmente la fotogrametría?
Se ha utilizado durante mucho tiempo en los renders de arquitectura, y en las localizaciones de sitios para la arquitectura. Se ha utilizado en la arquitectura durante al menos 30 o 40 años. Y se ha utilizado en Hollywood durante varios años para las placas de fondo.
En automoción, hay cosas como el coche Blackbird. Es un coche con 37 cámaras montadas a su alrededor, y está diseñado para fotografiar los reflejos en un automóvil. Tiene una distancia entre ejes que cambia constantemente, puedes ajustar su anchura, es completamente ajustable con diferentes tipos de neumáticos de diferentes tamaños en él. Puedes ponerle neumáticos de todoterreno. Así que conducen y luego dejan caer el modelo sobre él. Así consiguen neumáticos y ruedas reales, pero todo lo que hay encima es un coche falso. Generan los reflejos en el propio coche. Este tipo de tecnología se ha utilizado durante mucho tiempo, sobre todo en el sector de la automoción y la arquitectura y cosas así.
Esta tecnología sigue acelerándose porque los ordenadores y las herramientas con las que trabajamos se han vuelto muy potentes. Y ahora, por fin, se pueden capturar suficientes datos para utilizarlos de forma funcional que puedan mejorar tu proyecto o tu vida. Y es esa capacidad de retener esos datos, y mantener esos datos y los archivos y todas las cosas asociadas a ellos, lo que hace que sea algo tan importante.
Y en Hollywood, ¿qué fue lo primero que hizo eso?
La respuesta es, por supuesto, La Matriz y su infame secuencia de tiempo bala.
Y aunque no lo crean, esto fue desarrollado originalmente no para La Matriz...sino de un comercial de Michael Jordan. La persona que se convirtió en el director de producción de la unidad en La Matriz habían trabajado en ese comercial de Michael Jordan, y se dieron cuenta de que esto sería algo realmente genial de hacer. Y descubrieron cómo hacerlo. Ese es el tipo de cosas que uno no piensa - algo que surgió de la idea de alguien de hacer una toma realmente genial para un comercial se convirtió en tiempo de bala para La Matrizque ahora se utiliza en El Mandaloriano.
¿La fotogrametría y la producción virtual han cambiado quién necesita estar en el plató?
Definitivamente. En el viejo mundo un Supervisor de efectos visuales se pasaba por allí y hablaba un poco con el equipo, y quizás producía algunas cosas de la segunda unidad o algunas cosas de la recogida. Y ahora con programas como El Mandaloriano, Star Trek:Discovery, y Perdidos en el espacioEn las series en las que hay muchos efectos visuales pesados, ese es ahora un puesto a tiempo completo en el plató. Eso se ha convertido en algo muy común.
La otra cosa es, y creo que es realmente importante, que el único puesto del equipo que nunca se ha definido en la producción virtual es un responsable de informática. Nunca se ha necesitado un informático en el plató. El técnico en imagen digital (DIT) normalmente se encargaba de ello. O, uno de los segundos ayudantes; tal vez quien ponía el pueblo de vídeo tenía que ocuparse de toda la informática.
La realidad actual es que la tecnología es tal en la mayoría de los platós, que se necesita un gestor de frecuencias, alguien que sepa en qué frecuencia está todo y dónde está toda la radiación electromagnética suelta. Y es interesante porque no se piensa en ello de esa manera. La fotogrametría y la producción virtual, en general, crean nuevas posiciones.
Foto de Jason Leung en Unsplash
¿Qué le depara el futuro a los datos digitales y al cine?
Está en constante cambio.
SMPTE 2110 va a empezar a permitir que los metadatos localizados entren en tu flujo de vídeo más que ahora. Me refiero a la localización real, basada en tu ubicación física, incluso más que ahora.
Y ahora estamos hablando de poder fotografiar y grabar entornos con un nivel de detalle tan alto que se puede reducir y reproducir como una simulación. Tenemos la capacidad de hacer una Holocubierta; tenemos unas gafas que te dan información en tiempo real porque el flujo de datos lo permite, y el flujo de datos se extrapola del entorno que te rodea.
Y aunque no son exactamente lo mismo, la forma de procesar y mover esos metadatos, ya sean entrantes o salientes, es lo mismo. Es ser capaz de manejar los datos de una manera limpia y precisa que los hace utilizables para todo tipo de otras vías, no sólo para lo que crees que hace ahora.
Es decir, seguimos hablando de la producción virtual. Pero hay ocasiones en las que las producciones virtuales deben casarse con un flujo de trabajo de efectos visuales tradicional, y sólo se utiliza el material virtual para los reflejos y todo lo que hay en él. Pueden colocar paneles para poner reflejos que imiten el mundo real y ahorrar los costes de los efectos visuales, pero eso no significa que puedan sustituir el fondo todo el tiempo, no significa que puedan alejarse lo suficiente del fondo todavía.
Pero todo es cuestión de datos, de cómo se mueven y de cuantos más datos puedas capturar en la fuente. Ya se trate de cámaras en directo con los actores, de fotogrametría en un plató que quizá necesites utilizar más tarde o de un entorno artificial que se está construyendo en un Unreal.
El poder de todo esto es que los datos son capaces de ser modificados y manipulados de manera que parezcan más realistas a nuestro ojo.
¿Puede hablar más de la localización de datos en la entrada de las cámaras?
A medida que la radiodifusión avanza, tenemos que alejarnos de las especificaciones existentes para la transmisión de vídeo, audio y datos. Se trata de la SMPTE 2110 y sus diversas partes. Lo que hacen es definir la capacidad de generar conductos independientes para el usuario final de vídeo, audio y datos. Y los datos pueden ser cualquier cosa. No es sólo una marca de tiempo.
Está en el original Blade Runner película: pasas por delante de algo que automáticamente se pone a hablar contigo. Pasas y algo interactúa contigo directamente, como tú, porque sabe que estás ahí. Ahí es donde va esto.
Pero esta capacidad de separar el vídeo del audio de los datos significa muchas cosas diferentes en nuestro mundo. El Protocolo de Tiempo de Precisión (PTP) va a permitirnos difundir los datos desde múltiples lugares diferentes a un único punto final en el momento adecuado. Y como el vídeo tarda más en moverse que el audio o los datos, se puede casar a diferentes niveles y a diferentes velocidades en función de lo que ocurra.
Mejor colaboración a distancia
En la intersección de la fotogrametría, la producción virtual y la forma en que experimentamos los contenidos están los datos. A medida que el hardware y el software se vuelven más sofisticados, la cantidad de datos de que disponemos aumenta. Esto significa resoluciones más altas, experiencias más envolventes y más formas de personalizar los medios para el espectador individual. Sin embargo, esto también significa un aumento del tamaño de los archivos multimedia digitales.
MASV es un servicio de intercambio de archivos que permite a los profesionales de los medios de comunicación transferir rápidamente terabytes de datos a cualquier persona del mundo a través de la nube. Entregamos los archivos en un tiempo récord gracias a nuestra red de 150 centros de datos globales y a la ausencia de restricciones en las velocidades de transferencia. Todos los archivos compartidos a través de MASV están encriptados y respaldados por un Red de socios de confianza la norma de la industria para la protección de contenidos.
Regístrate para MASV hoy mismo y consigue 20 GB gratis para transferir tus datos.
Comparte archivos con MASV
Consigue 20 GB para usar con el servicio de transferencia de archivos grandes más rápido que existe hoy en día, MASV.