Home Tecnología Hacer que los objetos desaparezcan en tiempo real en grabaciones en vivo

Hacer que los objetos desaparezcan en tiempo real en grabaciones en vivo

64
0

Una grieta en la piedra se convierte en una superficie no dañada. Crédito: ICV – Tu Graz

Los investigadores del Instituto de Computación Visual han permitido eliminar objetos de las grabaciones en vivo de entornos tridimensionales sin retraso de tiempo mientras la cámara permanece en movimiento.

Colocar objetos digitales en una escena real ahora es familiar para muchos como realidad aumentada (AR). Su contraparte, la realidad disminuida (DR), es menos conocida: DR hace posible eliminar objetos de una escena y llenar el vacío resultante de una manera plausible.

Para lograr esto en un espacio 3D, los métodos anteriores requerían mucha potencia informática y solo podían generar la escena adaptada con un retraso de tiempo y, a veces, representaciones incorrectas.

Un equipo dirigido por Dieter Schmalstieg, Shohei Mori y Denis Kalkofen del Instituto de Computación Visual de la Universidad de Tecnología de Graz (TU Graz), junto con el equipo de Hideo Saito en la Universidad de Keio en Japón, ahora ha logrado hacer que los objetos 3D desaparezcan en el tiempo real utilizando la realidad disminuida mediante la combinación de diversas tecnologías. Esto permite que una habitación se vea en vivo a través de una cámara en su forma alterada.

Crédito: Universidad Tecnológica de Graz

Photoshop para mover imágenes 3D

“En pocas palabras, puedes pensar en la realidad disminuida como una especie de Photoshop para escenas 3D”, dice Mori. “Algunas personas podrían pensar primero en cómo pueden usarlo para eliminar cosas desagradables de los videos navideños. Eso es un desafío pero sería posible. Hay otras áreas donde las aplicaciones DR son extremadamente útiles”.

Esto abre nuevas perspectivas en la industria para la simulación de mal funcionamiento en los conjuntos de datos de capacitación para vehículos autónomos o para la pre-visualización eficiente (PREVIS) de escenas de películas en ubicaciones de películas reales que se ven completamente diferentes a lo que se desea durante la exploración de ubicación.

El Dr. también podría hacer una contribución en el campo de la medicina, por ejemplo, eliminando elementos de distracción del campo de visión de las cámaras de grabación durante los procedimientos quirúrgicos para proporcionar material de aprendizaje no perturbado para los estudiantes.

La nueva tecnología, llamada InPaintfusion, utiliza la entrada de 2D como punto de partida y luego los objetos finalmente se eliminan de una escena 3D. Las entradas de los usuarios en la pantalla 2D se proyectan en una escena 3D para que sea posible definir las áreas que se eliminarán. Un plazo clave sirve como punto de partida, y se crea un fondo plausible recolectando y fusionando píxeles coincidentes de los alrededores del objeto a eliminar.

Para lograr esto en 3D, la información de color y los datos de profundidad de la escena escaneada se optimizan simultáneamente para que el resultado parezca convincente incluso si se cambia la perspectiva de la cámara. El proyecto ha logrado aplicar la interpago 3D a los datos volumétricos de imagen 3D (imágenes de múltiples capas), lo que conduce a una mayor calidad en la percepción de la distancia de los objetos.

Se elimina una hoja marcada de la escena y se reemplaza con contenido de imagen realista. Crédito: ICV – Tu Graz

Keatskits para un público más amplio

El mayor desafío fue hacer posibles los pasos de procesamiento en tiempo real. Los investigadores utilizaron dos tecnologías diferentes para esto: coincidencia de parche rápido y múltiples lectura. Con la coincidencia de parches, los píxeles circundantes visualmente más obvios para que el área se llene se busque al azar para recolectar y fusionar los píxeles a juego. No siempre tienen que ser los mejores, pero en general, proporcionan material de relleno creíble sin tener que calcular millones de píxeles.

Multithreading utiliza la capacidad de los procesadores de computadora para ejecutar varios procesos simultáneamente en cada núcleo del procesador. En la solución de realidad disminuida del equipo de investigación, el cálculo de entrada 3D intensivo computacionalmente intensivo se ejecuta en segundo plano, mientras que el hilo principal controla la visualización. Esto permite a los usuarios ver el resultado final sin demora y moverse alrededor de la habitación sin que la reaparición del objeto eliminado en la imagen.

“La visualización en tiempo real de la realidad disminuida es un paso importante para esta tecnología”, dice Mori. “La tarea ahora es desarrollar los kits de herramientas apropiados para que estas posibilidades puedan estar disponibles para un público más amplio. Otro objetivo es la generación rápida y eficiente de modelos 3D de un pequeño número de imágenes individuales. Eso le daría a la realidad disminuida una dimensión adicional”.

Proporcionado por la Universidad Tecnológica de Graz

Cita: Realidad disminuida: hacer que los objetos desaparezcan en tiempo real en grabaciones en vivo (2025, 10 de abril) Consultado el 10 de abril de 2025 de https://techxplore.com/news/2025-04-diminished-reality-real.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.