SciELO - Scientific Electronic Library Online

 
vol.7 issue3Jerk analysis of a module of an artificial spine by means of screw theoryPolygonal Approximation of Contour Shapes Using Corner Detectors author indexsubject indexsearch form
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Journal of applied research and technology

On-line version ISSN 2448-6736Print version ISSN 1665-6423

Abstract

FUENTES-PACHECO, J.; RUIZ-ASCENCIO, J.  and  RENDON-MANCHA, J. M.. Binocular visual tracking and grasping of a moving object with a 3D trajectory predictor. J. appl. res. technol [online]. 2009, vol.7, n.3, pp.259-273. ISSN 2448-6736.

En este trabajo se presenta un sistema servo control visual binocular eye-to-hand capaz de seguir y asir un objeto móvil en tiempo real. Se utilizaron predictores lineales para estimar la trayectoria del objeto en tres dimensiones, estos son capaces de predecir futuras posiciones incluso si el objeto es temporalmente ocluido. Para su desarrollo se utiliza un robot manipulador CRS T475 de seis grados de libertad y dos cámaras fijas con una configuración de par estéreo. El sistema tiene una arquitectura cliente-servidor y se compone de dos partes principales: el sistema de visión y el sistema de control. El sistema de visión utiliza una detección por color para extraer el objeto del fondo y una técnica de seguimiento basada en ventanas de búsqueda y momentos del objeto. El sistema de control emplea la librería RobWork para generar las instrucciones de movimiento y enviarlas a un controlador C550 por medio del puerto serial. Se presentan resultados experimentales para verificar la validez y eficacia del sistema servo control visual.

Keywords : Predicción lineal; servo control visual; seguimiento; visión estéreo; calibración de cámaras.

        · abstract in English     · text in English

 

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License