22, 23 y 24 de septiembre de 2021, Málaga.

El XXX Congreso Español de Informática Gráfica pretende ser el foro de discusión de los investigadores y profesionales de los gráficos por computador y la visualización en España. Se espera que los asistentes puedan presentar sus últimos avances en todos los ámbitos de la Informática Gráfica. También se pretende que sea el lugar donde se discuten las nuevas líneas de investigación en desarrollo, las ideas orientadas a conseguir una mayor incorporación de la Informática Gráfica en la educación, y los desarrollos en el campo de las TIC.

El Congreso Español de Informática Gráfica pretende ser el foro de discusión de los investigadores y profesionales de los gráficos por computador y la visualización en España. Se ofrece a los asistentes la posibilidad de presentar sus últimos avances en todos los ámbitos de la Informática Gráfica. También se presenta como el lugar donde discutir nuevas líneas de investigación en desarrollo, ideas orientadas a conseguir una mayor incorporación de la Informática Gráfica en la educación, y los desarrollos de la Informática Gráfica en el campo de las TIC.

Invitamos a los investigadores y a los profesionales que presenten sus contribuciones, tanto de investigación más pura como de desarrollo aplicado, al congreso.

Los temas de interés incluyen (pero no están limitados a):

– Computer Vision
– Realidad virtual y realidad aumentada
– Render fotorrealista
– Render expresivo (no fotorrealista)
– Modelado Geométrico
– Modelado Procedural
– Modelado y visualización de volúmenes
– Geometría computacional
– Procesamiento digital de imágenes
– Fotografía computacional
– Animación por ordenador
– Humanos virtuales y vida artificial
– Interacción gráfica
– Hardware gráfico y paralelismo
– Estándares gráficos
– Juegos serios
– Aplicaciones de la Informática Gráfica
– Informática Gráfica y educación
– Dispositivos Hápticos e interacción
– Técnicas de visualización de datos espaciales y no espaciales
– Visualización colaborativa y distribuida
– Visualización de grandes volúmenes de datos
– Visión tridimensional
– Scene Understanding
– Aprendizaje automático aplicado a Gráficos y Visión
– Percepción aplicada

INSCRIPCIÓN

Disponible en la web del CEDI 2021.

Durante los últimos tres años, Nvidia ha estado fabricando chips gráficos que cuentan con núcleos adicionales, más allá de los normales que se usan para los sombreadores. Estas unidades misteriosas, conocidas como núcleos tensores, se pueden encontrar en miles de PC de escritorio, portátiles, estaciones de trabajo y centros de datos de todo el mundo. Pero, ¿qué son exactamente y para qué se utilizan? ¿Realmente los necesita en una tarjeta gráfica?

Hoy explicaremos qué es un tensor y cómo se utilizan los núcleos tensoriales en el mundo de los gráficos y el aprendizaje profundo.

Es hora de una lección rápida de matemáticas
Para comprender exactamente qué hacen los núcleos tensoriales y para qué se pueden usar, primero debemos cubrir exactamente qué son los tensores. Los microprocesadores, independientemente de su forma, realizan operaciones matemáticas (sumar, multiplicar, etc.) en números.

A veces, estos números deben agruparse porque tienen algún significado entre sí. Por ejemplo, cuando un chip está procesando datos para renderizar gráficos, puede estar tratando con valores enteros únicos (como +2 o +115) para un factor de escala, o un grupo de números de coma flotante (+0.1, -0.5, + 0.6) para las coordinaciones de un punto en el espacio 3D. En el caso de este último, la posición de la ubicación requiere los tres datos.

Un tensor es un objeto matemático que describe la relación entre otros objetos matemáticos que están todos vinculados entre sí.

Un tensor es un objeto matemático que describe la relación entre otros objetos matemáticos que están todos vinculados entre sí. Por lo general, se muestran como una matriz de números, donde la dimensión de la matriz se puede ver como se muestra a continuación.

El tipo de tensor más simple que puede obtener tendría cero dimensiones y consistiría en un solo valor; otro nombre para esto es una cantidad escalar. A medida que comenzamos a aumentar el número de dimensiones, podemos encontrarnos con otras estructuras matemáticas comunes:

1 dimensión = vector
2 dimensiones = matriz
Estrictamente hablando, un escalar es un tensor 0 x 0, un vector es 1 x 0 y una matriz es 1 x 1, pero en aras de la simplicidad y cómo se relaciona con los núcleos tensoriales en un procesador gráfico, solo trataremos con tensores en forma de matrices.

Una de las operaciones matemáticas más importantes que se realizan con matrices es una multiplicación (o producto).

El cálculo de producto matricial “simple” consiste en una pila completa de pequeñas multiplicaciones y adiciones. Dado que todas las CPU del mercado actual pueden realizar ambas operaciones, significa que cualquier computadora de escritorio, computadora portátil o tablet puede manejar tensores básicos.

Sin embargo, el ejemplo anterior contiene 64 multiplicaciones y 48 sumas; cada producto pequeño da como resultado un valor que debe almacenarse en algún lugar, antes de que pueda acumularse con los otros 3 productos pequeños, antes de que el valor final del tensor pueda almacenarse en algún lugar. Entonces, aunque las multiplicaciones de matrices son matemáticamente sencillas, son computacionalmente intensivas: se deben usar muchos registros y la caché debe hacer frente a muchas lecturas y escrituras.

Las CPU de AMD e Intel han ofrecido varias extensiones a lo largo de los años (MMX, SSE, ahora AVX; todas son SIMD, datos múltiples de una sola instrucción) que permiten al procesador manejar muchos números de coma flotante al mismo tiempo; exactamente lo que necesitan las multiplicaciones de matrices.

Pero hay un tipo específico de procesador que está especialmente diseñado para manejar operaciones SIMD: unidades de procesamiento de gráficos (GPU).

Tensor Cores in Consumer GPUs (GeForce RTX)

Pero, ¿qué pasa si tienes una tarjeta gráfica Nvidia GeForce RTX y no eres un astrofísico que resuelve problemas con variedades de Riemann, o experimentas con las profundidades de las redes neuronales convolucionales …? ¿De qué te sirven los núcleos tensoriales?

En su mayor parte, no se usan para renderizar, codificar o decodificar videos normales, lo que puede parecer que ha desperdiciado su dinero en una función inútil. Sin embargo, Nvidia incorporó núcleos tensoriales a sus productos de consumo en 2018 (Turing GeForce RTX) mientras presentaba DLSS – Deep Learning Super Sampling.

En la primera versión de Nvidia de la tecnología, se analizaron juegos seleccionados, ejecutándolos a bajas resoluciones, altas resoluciones, con y sin anti-aliasing. Todos estos modos generaron una gran cantidad de imágenes que se introdujeron en sus propias supercomputadoras, que utilizaron una red neuronal para determinar la mejor manera de convertir una imagen de 1080p en una perfecta de mayor resolución.

Hay que decir que DLSS 1.0 no fue genial, con detalles que a menudo se pierden o brillan de manera extraña en algunos lugares. En realidad, tampoco usó los núcleos tensores en su tarjeta gráfica (que se hizo en la red de Nvidia) y cada juego compatible con DLSS requirió su propio examen por parte de Nvidia para generar el algoritmo de ampliación.

Cuando salió la versión 2.0 a principios de 2020, se habían realizado algunas mejoras importantes. El más notable de los cuales fue que las supercomputadoras de Nvidia solo se usaron para crear un algoritmo de escalamiento general: en la nueva iteración de DLSS, los datos del marco renderizado se usarían para procesar los píxeles (a través de los núcleos tensoriales de su GPU) usando el modelo neuronal .

Seguimos impresionados por lo que DLSS 2.0 puede lograr, pero por ahora muy pocos juegos lo admiten, solo 12 en total, en el momento de escribir este artículo. Sin embargo, más desarrolladores están buscando implementarlo en sus versiones futuras, y por buenas razones.

Se pueden encontrar grandes ganancias en el rendimiento, haciendo cualquier tipo de mejora, por lo que puede apostar su último dólar a que DLSS continuará evolucionando.

Investigadores de la Universidad de Washington han desarrollado un método de machine learning que puede hacer precisamente eso: si se le da una sola foto de una cascada, el sistema crea un video que muestra esa cascada de agua.

El método del equipo puede animar cualquier material que fluya, incluido el humo y las nubes. Esta técnica produce un video corto que se repite sin problemas, dando la impresión de un movimiento sin fin. Los investigadores presentarán este enfoque el 22 de junio en la Conferencia sobre Visión por Computador y Reconocimiento de Patrones.

“Una imagen captura un momento congelado en el tiempo. Pero una gran cantidad de información se pierde en una imagen estática. ¿Qué condujo a este momento y cómo están cambiando las cosas? Piense en la última vez que se encontró obsesionado con algo realmente interesante. son, no fue totalmente estático “, dijo el autor principal Aleksander Holynski, estudiante de doctorado en la Escuela de Ingeniería y Ciencias de la Computación Paul G. Allen.

“Lo que tiene de especial nuestro método es que no requiere ninguna entrada del usuario o información adicional”, dijo Holynski. “Todo lo que necesita es una imagen. Y produce como salida un video de alta resolución que se repite sin interrupciones y que a menudo parece un video real”.

Desarrollar un método que convierta una sola foto en un video creíble ha sido un desafío para el campo.

“Efectivamente, requiere que predigas el futuro”, dijo Holynski. “Y en el mundo real, hay posibilidades casi infinitas de lo que podría suceder a continuación”.

El sistema del equipo consta de dos partes: primero, predice cómo se movían las cosas cuando se tomó una foto y luego usa esa información para crear la animación.

Para estimar el movimiento, el equipo entrenó una red neuronal con miles de videos de cascadas, ríos, océanos y otros materiales con movimiento fluido. El proceso de entrenamiento consistió en pedirle a la red que adivinara el movimiento de un video cuando solo se le dio el primer cuadro. Después de comparar su predicción con el video real, la red aprendió a identificar pistas (ondas en una transmisión, por ejemplo) para ayudarla a predecir lo que sucedió después. Luego, el sistema del equipo usa esa información para determinar si debe moverse cada píxel y cómo.

Los investigadores intentaron utilizar una técnica llamada “salpicadura” para animar la foto. Este método mueve cada píxel de acuerdo con su movimiento previsto. Pero esto creó un problema.

“Piense en una cascada que fluye”, dijo Holynski. “Si mueves los píxeles por la cascada, después de algunos fotogramas del video, ¡no tendrás píxeles en la parte superior!”

Así que el equipo creó “salpicaduras simétricas”. Esencialmente, el método predice tanto el futuro como el pasado de una imagen y luego los combina en una animación.

“Mirando hacia atrás en el ejemplo de la cascada, si nos movemos hacia el pasado, los píxeles subirán por la cascada. Entonces comenzaremos a ver un agujero cerca del fondo”, dijo Holynski. “Integramos información de ambas animaciones para que nunca haya agujeros notoriamente grandes en nuestras imágenes deformadas”.

Finalmente, los investigadores querían que su animación se repitiera sin problemas para crear una apariencia de movimiento continuo. La red de animación sigue algunos trucos para mantener las cosas limpias, incluida la transición de diferentes partes del cuadro en diferentes momentos y decidir qué tan rápido o lento mezclar cada píxel según su entorno.

El método del equipo funciona mejor para objetos con un movimiento fluido predecible. Actualmente, la tecnología lucha por predecir cómo deben moverse los reflejos o cómo el agua distorsiona la apariencia de los objetos debajo de ella.

“Cuando vemos una cascada, sabemos cómo debe comportarse el agua. Lo mismo ocurre con el fuego o el humo. Este tipo de movimientos obedecen al mismo conjunto de leyes físicas y, por lo general, hay señales en la imagen que nos dicen cómo deben hacerlo las cosas. estar en movimiento “, dijo Holynski. “Nos encantaría ampliar nuestro trabajo para operar en una gama más amplia de objetos, como animar el cabello de una persona en el viento. Espero que eventualmente las imágenes que compartimos con nuestros amigos y familiares no sean imágenes estáticas . En cambio, todas serán animaciones dinámicas como las que produce nuestro método “.

Pixar ha lanzado RenderMan versión 24, el lanzamiento más grande en su larga historia, presentando una arquitectura de renderizado de próxima generación para animación y efectos visuales, RenderMan XPU. Esta importante versión trae importantes avances en el desarrollo de la apariencia y la interactividad para los efectos visuales y la animación de películas.
Con el lanzamiento de XPU, Pixar presenta un renderizador completamente nuevo capaz de utilizar tanto CPU como GPU para la industria de VFX.

RenderMan XPU ahora agrega capacidades de renderizado en vivo de siguiente nivel a la tubería, brindando retroalimentación inmediata sobre los activos de la complejidad del largometraje, permitiendo iteraciones más rápidas para los artistas. El lanzamiento también cuenta con un sistema de sombreado para materiales en capas llamado MaterialX Lama. Originalmente desarrollado en Industrial Light & Magic, MaterialX Lama ha sido probado en producción durante años, y este sistema de sombreado de última generación proporciona el primer paso de RenderMan hacia una integración profunda de MaterialX. Otro punto a destacar de esta versión es un conjunto de herramientas completamente nuevo para crear renderizados no fotorrealistas con infinitas posibilidades, llamado RenderMan Stylized Looks.

La versión 24 ofrece muchos otros avances importantes, incluido el soporte optimizado para el sistema de administración de color ACES estándar de la industria, estadísticas en vivo, avances de vanguardia en el realismo de la superficie y una reescritura completa de RenderMan para Blender.

Por último, las herramientas de artista de RenderMan para Maya de Autodesk, Katana de Foundry y SideFX Houdini, así como Solaris, se han actualizado para la versión 24, junto con actualizaciones para el navegador preestablecido de RenderMan y la biblioteca de materiales. Para que los artistas comiencen, Pixar actualizará los conceptos básicos de RenderMan con nuevos materiales de capacitación en http://renderman.pixar.com.

La versión 24 de RenderMan está disponible para descargar ahora para los clientes en mantenimiento. Las licencias individuales de RenderMan están disponibles por $ 595 y $ 250 para el mantenimiento anual. Hay descuentos por cantidad disponibles. Los investigadores, artistas individuales y estudiantes que creen proyectos no comerciales tendrán acceso a Free Non-Commercial RenderMan el mismo día del lanzamiento comercial.

Un algoritmo puede determinar, con una precisión del 80 por ciento, si el video se está ejecutando hacia adelante o hacia atrás.

La teoría de la relatividad de Einstein concibe el tiempo como una dimensión espacial, como la altura, el ancho y la profundidad. Pero a diferencia de esas otras dimensiones, el tiempo parece permitir el movimiento en una sola dirección: hacia adelante. Esta asimetría direccional – la “flecha del tiempo” – es una especie de enigma para la física teórica.

Ilustración cortesía de Jose-Luis Olivares/MIT

¿Pero es algo que podemos ver?

Un grupo internacional de científicos informáticos cree que la respuesta es sí. En la Conferencia IEEE sobre Visión por Computadora y Reconocimiento de Patrones de este mes, presentarán un nuevo algoritmo que puede, con aproximadamente un 80 por ciento de precisión, determinar si un fragmento de video dado se reproduce hacia atrás o hacia adelante.

“Si ves que un reloj en una película está retrocediendo, eso requiere una comprensión de alto nivel de cómo se mueven normalmente los relojes”, dice William Freeman, profesor de informática e ingeniería en el MIT y uno de los autores del artículo. “Pero estábamos interesados ​​en saber si podíamos distinguir la dirección del tiempo a partir de señales de bajo nivel, simplemente observando la forma en que se comporta el mundo”.

Al identificar características sutiles pero intrínsecas de la experiencia visual, la investigación podría conducir a gráficos más realistas en juegos y películas. Pero Freeman dice que esa no fue la motivación principal de los investigadores.

“Es como aprender cuál es la estructura del mundo visual”, dice. “Para estudiar la percepción de la forma, puede invertir una fotografía para hacer que todo lo que sea blanco y negro y blanco sea negro, y luego verifique lo que aún puede ver y lo que no. Aquí estamos haciendo algo similar, invirtiendo el tiempo y luego viendo qué se necesita para detectar ese cambio. Estamos tratando de comprender la naturaleza de la señal temporal “.

Freeman y sus colaboradores: sus estudiantes Donglai Wei y YiChang Shih; Lyndsey Pickup y Andrew Zisserman de la Universidad de Oxford; Changshui Zhang y Zheng Pan de la Universidad de Tsinghua; y Bernhard Schölkopf del Instituto Max Planck de Sistemas Inteligentes en Tübingen, Alemania, diseñaron algoritmos candidatos que abordaron el problema de tres formas diferentes. Los tres algoritmos se entrenaron en un conjunto de videos cortos que se habían identificado de antemano como que se ejecutaban hacia adelante o hacia atrás.

El algoritmo que mejor funcionó comienza dividiendo un fotograma de video en una cuadrícula de cientos de miles de cuadrados; luego divide cada uno de esos cuadrados en una cuadrícula más pequeña de cuatro por cuatro. Para cada cuadrado de la cuadrícula más pequeña, determina la dirección y la distancia en que los grupos de píxeles se mueven de un cuadro al siguiente.

Luego, el algoritmo genera un “diccionario” de aproximadamente 4.000 cuadrículas de cuatro por cuatro, donde cada cuadrado de una cuadrícula representa direcciones y grados de movimiento particulares. Las 4.000 “palabras” del diccionario se eligen para ofrecer una buena aproximación de todas las cuadrículas de los datos de entrenamiento. Finalmente, el algoritmo examina los ejemplos etiquetados para determinar si combinaciones particulares de “palabras” tienden a indicar un movimiento hacia adelante o hacia atrás.

Siguiendo la práctica estándar en el campo, los investigadores dividieron sus datos de entrenamiento en tres conjuntos, entrenando secuencialmente el algoritmo en dos de los conjuntos y probando su desempeño contra el tercero. Las tasas de éxito del algoritmo fueron 74 por ciento, 77 por ciento y 90 por ciento.

Un aspecto vital del algoritmo es que puede identificar las regiones específicas de un marco que está utilizando para emitir sus juicios. Examinar las palabras que caracterizan esas regiones podría revelar los tipos de señales visuales que utiliza el algoritmo, y quizás los tipos de señales que también utiliza el sistema visual humano.

El siguiente algoritmo de mejor rendimiento fue aproximadamente un 70 por ciento de precisión. Se basó en la suposición de que, en el video que se mueve hacia adelante, el movimiento tiende a propagarse hacia afuera en lugar de contraerse hacia adentro. En el video de una ruptura en la piscina, por ejemplo, la bola blanca es, inicialmente, el único objeto en movimiento. Después de que golpea las bolas acumuladas, el movimiento comienza a aparecer en un radio cada vez más amplio desde el punto de contacto.

Imitar digitalmente el desenfoque fotográfico causado por objetos en movimiento es sorprendentemente difícil, pero una nueva investigación ofrece formas de hacerlo más fácil.

Las fotografías de objetos en movimiento son casi siempre un poco borrosas, o muy borrosas, si los objetos se mueven lo suficientemente rápido. Para que su trabajo se parezca lo más posible a una película convencional, los animadores de juegos y películas intentan reproducir este desenfoque. Pero, contraintuitivamente, producir imágenes borrosas es en realidad más complejo computacionalmente que producir imágenes perfectamente nítidas.

En agosto, en la conferencia Siggraph de este año, la principal conferencia sobre gráficos por computadora, los investigadores del Grupo de Gráficos por Computadora en el Laboratorio de Inteligencia Artificial y Ciencias de la Computación del MIT presentarán un par de artículos que describen nuevas técnicas para el desenfoque informático de manera mucho más eficiente. El resultado podría ser videojuegos y fotogramas de video digital más convincentes que tardan minutos en procesarse.

El sensor de imagen en una cámara digital, e incluso la película en una cámara convencional, se puede considerar como una cuadrícula de detectores de color, cada detector corresponde a un píxel en la imagen final. Si los objetos fotografiados están estacionarios, durante una sola exposición, cada detector registra el color de un solo punto en la superficie de un objeto. Pero si los objetos se mueven, la luz de diferentes puntos de un objeto, e incluso de diferentes objetos, incidirá en un solo detector. El detector promedia efectivamente los colores de todos los puntos y el resultado es borroso.

blur images
Imagen cortesia de Jaakko Lehtinen

A la derecha, un algoritmo de animación digital estándar ha simulado el desenfoque al muestrear 256 puntos diferentes en las alas de una mariposa en movimiento para cada píxel del cuadro.

La renderización digital de un fotograma de video es un proceso computacionalmente intensivo con varias etapas discretas. Primero, la computadora tiene que determinar cómo se mueven los objetos en la escena. En segundo lugar, tiene que calcular cómo los rayos de luz de una fuente de luz imaginada se reflejarían en los objetos. Finalmente, determina qué rayos de luz llegarían realmente a una lente imaginada. Si los objetos en el video se mueven lo suficientemente lento, la computadora tiene que pasar por ese proceso solo una vez por cuadro. Sin embargo, si los objetos se mueven rápidamente, es posible que tenga que atravesarlos decenas o incluso cientos de veces.

Dado lo difícil que es calcular el desenfoque, podría pensar que los animadores simplemente lo ignorarían. Pero eso lleva a un video sorprendentemente poco convincente. “El movimiento no parece fluido en absoluto”, dice Jaakko Lehtinen, quien trabajó en ambos proyectos como postdoctorado en Computer Graphics Group y ahora es un científico investigador senior en el fabricante de chips gráficos Nvidia.

Para tener una idea de cómo se ve el movimiento sin desenfoque, dice Lehtinen, considere el tipo de animación de arcilla familiar de películas antiguas o especiales navideños como “Rudolph, el reno de nariz roja”. “Esto no tiene desenfoque de movimiento, porque la escena en realidad está estacionaria cuando tomas la foto”, dice Lehtinen. “Simplemente se ve entrecortado. El movimiento no parece natural”.

Los investigadores del MIT adoptaron dos enfoques diferentes para simplificar el cálculo del desenfoque, correspondientes a dos etapas diferentes en el proceso de renderizado de gráficos. El estudiante de posgrado Jonathan Ragan-Kelley es el autor principal de uno de los artículos de Siggraph, junto con el profesor asociado Frédo Durand, quien dirige el Grupo de Gráficos por Computadora; Lehtinen; el estudiante de posgrado Jiawen Chen; y Michael Doggett de la Universidad de Lund en Suecia. En ese artículo, los investigadores hacen la suposición simplificadora de que la forma en que la luz se refleja en un objeto en movimiento no cambia en el transcurso de un solo cuadro. Para cada píxel en la imagen final, su algoritmo aún promedia los colores de múltiples puntos en las superficies de los objetos, pero calcula esos colores solo una vez. Los investigadores encontraron una manera de representar la relación entre los cálculos de color y las formas de los objetos asociados como entradas en una tabla. Para cada píxel de la imagen final, el algoritmo simplemente busca los valores correspondientes en la tabla. Eso simplifica drásticamente el cálculo, pero tiene poco efecto en la imagen final.

Adoptar la propuesta de los investigadores requeriría modificar la arquitectura de los chips gráficos. “Puede imaginarse realmente seguir adelante y construir lo que sugieren”, dice Henry Moreton, un distinguido ingeniero de Nvidia. “Pero creo que el mayor valor del artículo es que apunta a estrategias para resolver estos problemas de manera más elegante, más eficiente y más práctica. Probablemente no sea tan probable que se manifiesten exactamente de la manera que presenta el artículo. Pero lo que hicieron fue señalar una nueva forma de abordar el problema “.

LiDAR o Light Detection and Ranging es un sistema de detección remota activo que se puede utilizar para medir la altura de la vegetación en áreas amplias.


Los científicos a menudo necesitan caracterizar la vegetación en grandes regiones para responder preguntas de investigación a escala regional o de ecosistema. Por lo tanto, necesitamos herramientas que puedan estimar las características clave en grandes áreas porque no tenemos los recursos para medir todos y cada uno de los árboles o arbustos.


La detección remota significa que en realidad no estamos midiendo físicamente las cosas con nuestras manos. Estamos usando sensores que capturan información sobre un paisaje y registran cosas que podemos usar para estimar condiciones y características. Para medir la vegetación u otros datos en áreas extensas, necesitamos métodos de detección remota que puedan tomar muchas medidas rápidamente, utilizando sensores automatizados.

LiDAR, o rango de detección de luz (a veces también conocido como escaneo láser activo) es un método de detección remota que se puede usar para mapear la estructura, incluida la altura, la densidad y otras características de la vegetación en una región. LiDAR mide directamente la altura y la densidad de la vegetación en el suelo, lo que la convierte en una herramienta ideal para los científicos que estudian la vegetación en grandes áreas.

La energía luminosa es una colección de fotones. A medida que los fotones que componen la luz se mueven hacia el suelo, golpean objetos como las ramas de un árbol. Parte de la luz se refleja en esos objetos y regresa al sensor. Si el objeto es pequeño y hay espacios a su alrededor que permiten el paso de la luz, algo de luz continúa hacia el suelo. Debido a que algunos fotones se reflejan en cosas como ramas, pero otros continúan hacia el suelo, se pueden registrar múltiples reflejos de un pulso de luz.