Reconocimiento de color y posición con un sensor Kinect para aplicación de robótica móvil
Se diseña un sistema de visión artificial para una aplicación de robótica móvil, logrando ensamblar y controlar un robot de prueba capaz de identificar y recoger objetos esféricos de color verde y naranja. En este proyecto se utiliza una tarjeta de desarrollo Raspberry Pi para procesar las imágenes...
Autor Principal: | García Preciado, Paola Andrea |
---|---|
Otros Autores: | González Forero, Sergio Nicolás |
Formato: | bachelorThesis |
Publicado: |
Pontificia Universidad Javeriana
2017
|
Materias: | |
Acceso en línea: |
http://hdl.handle.net/10554/21442 |
Etiquetas: |
Agregar Etiqueta
Sin Etiquetas, Sea el primero en etiquetar este registro!
|
Sumario: |
Se diseña un sistema de visión artificial para una aplicación de robótica móvil, logrando ensamblar y controlar un robot de prueba capaz de identificar y recoger objetos esféricos de color verde y naranja. En este proyecto se utiliza una tarjeta de desarrollo Raspberry Pi para procesar las imágenes y datos de profundidad adquiridos con un sensor Kinect, y se establece una comunicación serial para transmitir esta información a un microcontrolador ARM Cortex de VEX. En el desarrollo del sistema de visión artificial se compararon tres algoritmos de reconocimiento de bordes: el método de Canny, el método de Sobel y el método Laplaciano, también se compararon tres filtros de color, utilizando los espacios de color HSV, HSL y Lab, se concluyó que los mejores algoritmos con menor tiempo de ejecución para la aplicación robótica fueron el filtro de color en el espacio Lab y el método Laplaciano para el reconocimiento de bordes. El microcontrolador y el sensor Kinect se alimentaron con baterías de niquel e hidruro metálico (Ni-MH) con la respectiva regulación para el sensor Kinect, para alimentar la tarjeta de desarrollo Raspberry Pi, se utilizó una batería de iones de litio (LiPo), de este modo se pudieron transportar todos los componentes dentro del robot de prueba y se controló inalámbricamente mediante una antena VEXnet2.0, obteniendo un robot inalámbrico y autónomo capaz de identificar en un 88.3% de efectividad sus objetivos. |
---|