NVIDIA emplea algoritmos de regresión gaussiana para reproducir imágenes distorsionadas con precisión

Tecnología / NVIDIA emplea algoritmos de regresión gaussiana para reproducir fotografías distorsionadas con precisión 3 minutos de lectura

Reimagen de la fotografía espacial de la NASA para obtener un resultado más claro. Vuelo espacial ahora



NVIDIA es conocida desde hace mucho tiempo por sus inmaculadas unidades de procesamiento de gráficos (GPU), siendo su producto principal la tarjeta NVIDIA GeForce. Con eso, la compañía siempre ha estado al frente y en el centro de la investigación y el desarrollo de experiencias mejorando la inteligencia artificial en videojuegos, diseño gráfico, procesamiento de datos y vehículos automotores.

Últimamente, NVIDIA ha comenzado a centrarse en la inteligencia artificial de forma aislada y su proyecto más reciente se ha centrado mucho en la creación de imágenes inteligentes de fotos preexistentes utilizando algoritmos gaussianos para evaluar las diferencias mínimas de loci entre cientos de imágenes claras y borrosas categorizadas según la temperatura y el tinte. y luego ingresando esos valores en las expresiones de regresión de fotos borrosas individuales para regresar a lo que podrían haber sido sus imágenes claras originales. Este proceso se lleva a cabo individualmente para cada punto de la fotografía y se utiliza una suma para generar un valor de mínima diferencia genérico.



Oficina de NVIDIA. Nasdaq en Twitter



El algoritmo funciona para aprender de intentos anteriores de lo que indican ciertos colores y patrones en la pantalla. Cuando se desarrolló el sistema, se hicieron miles de imágenes borrosas y originales para que la máquina pudiera identificar qué patrones y colores en la pantalla corresponden a qué ranuras y bordes en la imagen original. Después de haber sido probado muchas veces, NVIDIA ha logrado enseñar a su chip de IA a aprender de pruebas anteriores y almacenar una base de datos de códigos gráficos coincidentes que se convierten en código matemático según la ubicación, el tinte y la temperatura. Utilizando la experiencia pasada y las relaciones establecidas entre las imágenes borrosas y claras del mismo lugar y tinte, la máquina avanza con nuevas imágenes, aplicando las fórmulas que mejor se adaptan al tinte y la temperatura de la nueva foto. NVIDIA ha sometido su algoritmo a pruebas suficientes para tener una base de datos de retención lo suficientemente sólida que la IA pueda aprovechar cuando trabaje en imágenes más nuevas y el mecanismo ahora funciona por sí solo, capaz de descubrir prácticamente cualquier imagen mediante su entrenamiento en aprendizaje por refuerzo (RL) . Después de descubrir suficientes rostros, por ejemplo, la máquina puede distinguir rostros borrosos cuando se pone a prueba, ya que comprende qué surcos borrosos corresponden a qué rasgos faciales en realidad. La exposición a diferentes tipos de ruido, como imágenes demasiado extendidas, blanqueadas, filtradas y texturizadas, también se ha agregado a la base de datos de algoritmos.



En el algoritmo matemático lenguaje, el programa lee los loci corruptos y claros correspondientes en las imágenes correspondientes, registrando x, y, x ’e y’ en su base de datos. Luego crea una curva de regresión gaussiana para igualar las diferencias entre los dos, lo que permite la conversión basada en el ruido fotográfico general. En la expresión de regresión de mínimos cuadrados generada, se toma el valor más bajo que satisface la condición y se traza una nueva curva del valor gaussiano. Al convertir la imagen de nuevo a su calidad clara original, la temperatura de cada punto se cambia en función de la diferencia del patrón de regresión en la base de datos de la máquina de IA que corresponde a ese color y patrón en particular y cada punto se gira para producir una imagen completamente clara. El mecanismo de curva gaussiana tiene en cuenta las formas más genéricas de ruido, pero si el dispositivo es capaz de identificar otras formas de ruido que a menudo se atribuyen a velocidades de obturación inoportunas o al sombreado genérico de la imagen, el valor de la mínima diferencia gaussiana se promedia con el también los valores de mínima diferencia de poisson (para el primero) y Bernoulli (para el último) del conjunto de datos.

ReImaging fotográfico asistido por inteligencia artificial. BT

En términos sencillos, el papel que desempeña la inteligencia artificial en esto es la detección inteligente y la conversión de fotos únicas basadas en un conjunto de prácticas ya intentado por el dispositivo. Cuando se trata del nivel de inteligencia artificial alcanzado en la actualidad, que todavía se encuentra en una etapa en la que no es particularmente independiente y tiene sus esfuerzos limitados a la gama de escenarios ya practicados, NVIDIA ha logrado mucho en la creación de una máquina que puede intentar y recrear fotos invisibles con el más alto nivel de precisión al adaptar y expandir constantemente su base de datos para mejorar la tasa de éxito de los cambios fotográficos posteriores.