1) La descarga del recurso depende de la página de origen
2) Para poder descargar el recurso, es necesario ser usuario registrado en Universia


Opción 1: Descargar recurso

Detalles del recurso

Descripción

La Visión Artificial o Computer Vision es la disciplina científica que estudia métodos para analizar imágenes y videos digitales. El campo de investigación correspondiente ofrece un creciente abanico de posibilidades en áreas como interacción persona-computadora, normalmente llamado HCI (Human Computer Interaction), inteligencia artificial y el estudio visual detallado de procesos de mayor complejidad. Librerías existentes como OpenCV o Emgu CV ofrecen el acceso a una cantidad considerable de soluciones enfocadas a la segmentación de imágenes, reconocimiento de objetos o análisis del movimiento en dos o más fotogramas consecutivos. Sin embargo, múltiples algoritmos pertenecientes a estas librerías demandan un elevado poder computacional, estando a su vez desarrollados en su gran mayoría para su implementación en la CPU, procesador cuya arquitectura no ofrece la solución más eficiente para este tipo de procedimientos. Por lo tanto, la particular estructura de este hardware es responsable de generar cuellos de botella innecesarios, al ocupar espacio innecesario en la memoria y reducir la cantidad de datos que pueden ser analizados. Este trabajo de fin de grado (TFG) propone la implementación de una serie de algoritmos para obtener el flujo óptico (Optical Flow) de una secuencia de imágenes con el propósito de analizar y discutir los beneficios del procesamiento en paralelo para el procesamiento de imágenes. Optical Flow es un procedimiento destinado a obtener el campo de velocidades de una serie de imágenes analizando el movimiento entre distintos fotogramas de la misma. Estabilizadores de imagen, posicionamiento de drones o la monitorización de líneas de ensamblaje son algunas de sus aplicaciones. Con el fin de ilustrar la contribución de nuestro estudio, en este TFG presentamos nuestros códigos desarrollados para la obtención del Optical Flow según dos de sus principales métodos para su implementación en la GPU, así mismo, realizaremos un estudio y comparación de estas soluciones con las desarrolladas para su ejecución en la CPU. Este trabajo de fin de grado se centra en el estudio de dos de los métodos de obtención del flujo óptico más generalizados. El primero se basa en la publicación científica de Horn y Schunck, mientras que el segundo método que se estudia se basa en la solución propuesta por Lucas y Kanade. Nuestras implementaciones del código para la ejecución en la CPU están escritas en C++, mientras que los algoritmos destinados a la implementación en GPU se presentan en lenguaje HLSL. Ambos métodos parten de la asunción de la constancia del valor gris de la imagen, la cual requiere un movimiento lento de los elementos entre dos fotogramas consecutivos, y representa el punto de partida para las soluciones que se describen a continuación. Los algoritmos presentados por los científicos Horn y Schunck representan una de las primeras soluciones para la obtención del flujo óptico y han sido utilizados para múltiples aplicaciones y análisis de modelos. Este método basa sus resultados en una técnica diferencial, que incluye una restricción que asume un flujo de movimiento suave en la imagen completa. La predicción del campo de velocidades se genera mediante dos pasos. El primer paso obtiene una estimación de las derivadas espacio temporales de las imágenes que se analizan, detectando los bordes de los elementos presentes en las capturas y las diferencias en sus posiciones a lo largo del tiempo. El segundo paso obtiene un valor para la velocidad en x, y de cada pixel a través de un método iterativo que tiende a minimizar el error de la predicción final. El método propuesto por los científicos Lucas y Kanade muestra una solución para la predicción del flujo óptico local en una serie de imágenes, que se basa en el cálculo de las derivadas en x, y respecto de un incremento de tiempo, que representa el intervalo temporal entre la recepción de fotogramas. Tras la obtención de las derivadas espacio temporales, el método asume una constancia en el flujo de velocidades que, siguiendo la técnica de los mínimos cuadrados, ofrece una estimación de las componentes de la velocidad para cada píxel en la imagen. El desarrollo de los métodos definidos para su implementación en la CPU y en la GPU nos permite evaluar el rendimiento de los algoritmos en ambos procesadores. Considerando distintas resoluciones de las imágenes entrantes, las cuales proporcionan diferentes niveles de detalle, el tiempo de procesamiento que se requiere para alcanzar una predicción del campo de velocidades presenta diferencias significativas. La aceleración de la solución en la GPU con respecto a la implementación de la CPU, hace posible el uso de la potencia computacional restante de la GPU. Por lo tanto, el incremento en la eficiencia del proceso en este procesador permite realizar modificaciones sobre factores internos y externos en la obtención del flujo óptico, procesando un número más elevado de datos e incrementando la precisión de la estimación. Con el objetivo de evaluar la mejora en la calidad de nuestros resultados, se ha desarrollado un simulador que genera el movimiento de un elemento en la imagen y proporciona su correspondiente campo de velocidades, las cuales darán un valor real del flujo óptico esperado. Evaluando el MSE (Minimal Squared Error) entre los valores reales del flujo óptico y la estimación obtenida mediante nuestros algoritmos, se observa una disminución significativa del error entre el método original y el modificado. La necesidad de manejar grandes cantidades de datos, representados como pixeles, hace del tipo de estructura altamente paralela de las GPUs una arquitectura más eficiente que otras unidades de procesamiento. La mejora del rendimiento y la calidad de los métodos propuestos, representan una ventaja considerable para aplicaciones a tiempo real. Nuestra solución ofrece la evaluación del flujo óptico para cada pixel incluso en imágenes en alta resolución, proporcionando resultados que requieren tiempos de procesamiento lo suficientemente rápidos como para analizar imágenes procedentes de cámaras de alta velocidad y realizar el post procesamiento de las mismas una vez obtenidos los resultados. Por lo tanto, este método es capaz de reducir de forma eficiente las sobrecargas a nivel computacional y los cuellos de botella, reflejando un compromiso calidad-tiempo durante el proceso, lo cual supone una reducción de costes de hardware. Como consecuencia, la implicación del tipo de arquitectura paralela de la GPU podría reducir potencialmente costes en diversos campos, tales como machine vision, Human Computer Interaction o incluso acelerar la creciente corriente de miniaturización de aparatos electrónicos.

Pertenece a

Archivo Digital UPM  

Autor(es)

Soto Morras, Marta - 

Id.: 70080495

Idioma: eng  - 

Versión: 1.0

Estado: Final

Tipo:  application/pdf - 

Palabras claveEmpresa - 

Tipo de recurso: info:eu-repo/semantics/bachelorThesis  -  Proyecto Fin de Carrera/Grado  -  PeerReviewed  - 

Tipo de Interactividad: Expositivo

Nivel de Interactividad: muy bajo

Audiencia: Estudiante  -  Profesor  -  Autor  - 

Estructura: Atomic

Coste: no

Copyright: sí

: http://creativecommons.org/licenses/by-nc-nd/3.0/es/

Formatos:  application/pdf - 

Requerimientos técnicos:  Browser: Any - 

Relación: [References] http://oa.upm.es/47692/1/TFG_MARTA_SOTO_MORRAS.pdf

Fecha de contribución: 09-sep-2017

Contacto:

Localización:

Otros recursos que te pueden interesar

  1. Modelo politico-economico para a interrelacao organizacao-ambiente e suas implicacoes na eficacia organizacional Este estudo reconhece a característica nao cumulativa da teoria organizacional e propõe um modelo co...
  2. Innovation Perception of Knowledge-Intensive Business Services in the Twittersphere 1. The rapid diffusion of Twitter as a social media tool has made it suitable to be used for big dat...
  3. Modelo para el fortalecimiento de las competencias personales del Director de Proyecto mediante herramientas de coaching El Director de Proyecto es una figura estratégica para el desarrollo de las organizaciones en un ent...
  4. Avaliação de uma PME do setor dos citrinos com base no modelo do rendimento dos fluxos de caixa atualizados Dissertação de mestrado, Finanças Empresariais, Faculdade de Economia, Universidade do Algarve, 2016
  5. Territoralización de las políticas de articulación productiva y desarrollo de la MyPE: La experiencia de Córdoba En la última década se desarrollaron en América Latina políticas y programas de apoyo a micro y pequ...

Otros recursos de la mismacolección

  1. [Suministro de energia electrica en la cuenca carbonífera de Villanueva de las Minas (Sevilla)] En una cuenca carbonífera como la de Villanueva de las Minas, provincia de Sevilla, se desea sustitu...
  2. Polímeros orgánicos y sus aplicaciones en procesos sostenibles A partir de la Revolución Industrial, la ciencia y la tecnología han cobrado cada día más y más im...
  3. Enric Miralles : dónde empieza la arquitectura y acaba el croissant Anatomía del proceso de proyecto de Enric Miralles desde su primera experiencia laboral, allá por 19...
  4. Desarrollo de una aplicación web para la recogida de datos anual de los beneficiarios de la ONG “Handicap International” El presente proyecto ha creado una aplicación web que facilita la Colecta Anual de Datos de los Bene...
  5. Advanced orbit propagation methods applied to asteroids and space debris Los asteroides y la basura espacial plantean amenazas relevantes para la civilización, tanto en el e...

Aviso de cookies: Usamos cookies propias y de terceros para mejorar nuestros servicios, para análisis estadístico y para mostrarle publicidad. Si continua navegando consideramos que acepta su uso en los términos establecidos en la Política de cookies.