<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2071-081X</journal-id>
<journal-title><![CDATA[Fides et Ratio - Revista de Difusión cultural y científica de la Universidad La Salle en Bolivia]]></journal-title>
<abbrev-journal-title><![CDATA[Fides Et Ratio]]></abbrev-journal-title>
<issn>2071-081X</issn>
<publisher>
<publisher-name><![CDATA[Universidad La Salle]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2071-081X2015000200003</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Diseño de un algoritmo de búsqueda informada mediante el simulador robótico stage]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Saavedra Alcoba]]></surname>
<given-names><![CDATA[Marcelo]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Enríquez Paz]]></surname>
<given-names><![CDATA[Luigi Pedro]]></given-names>
</name>
</contrib>
</contrib-group>
<aff id="A">
<institution><![CDATA[,  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>09</month>
<year>2015</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>09</month>
<year>2015</year>
</pub-date>
<volume>10</volume>
<numero>10</numero>
<fpage>39</fpage>
<lpage>59</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.bo/scielo.php?script=sci_arttext&amp;pid=S2071-081X2015000200003&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.bo/scielo.php?script=sci_abstract&amp;pid=S2071-081X2015000200003&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.bo/scielo.php?script=sci_pdf&amp;pid=S2071-081X2015000200003&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Se propone una nueva metodología para una búsqueda informada de objetos mediante un robot móvil. La metodología está basada en una combinación de un algoritmo de búsqueda en espiral y un algoritmo de búsqueda mediante un enfoque bayesiano que usa convoluciones entre "probabilidades de observación" y "máscaras de relaciones espaciales" para estimar un mapa probabilidad donde se pueda encontrar el objeto de búsqueda. Las relaciones espaciales entre objetos son representadas mediante el uso de máscaras circulares definidos como sumas ponderadas de relaciones espaciales básicas utilizando matrices de co-ocurrencia como pesos. La metodología está validada en un ambiente tipo oficina en la que existen cuatro clases de objetos comunes ("monitor", "teclado", "cpu" y "router") y se consideró cuatro relaciones espaciales básicas ("muy cerca", "cerca", "lejos" y "muy lejos"). Se realizaron un total de 500 experimentos que comparan 5 métodos de búsqueda utilizando el simulador robótico Stage. Los resultados muestran que el uso de la metodología propuesta tiene una tasa de detección mayor que un 70%, comparado a otros métodos como ser: Método de búsqueda en espiral, Método de búsqueda informada usando partículas entre otros.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[A novel methodology for robots executing informed object search is proposed. The methodology is based mainly on a heuristic spiral search algorithm and a Bayesian framework that uses convolutions between observation likelihoods and spatial relation masks for estimating the probability map of the object being search for. The spatial relationships between objects can be defined as weighted sums of basic spatial relations using co-occurrence matrices as weights. The methodology is validated in an office environment in which four object classes ("monitor," "keyboard," "system unit," and "router") and four basic spatial relations ("very near," "near," far," and "very far") are considered. A total of 500 experiments comparing five object search algorithms were realized by using the robotics simulator Stage. The results show that using the proposed methodology has a higher detection rate of 70%, compared to other methods such as: Method spiral search, method using particles informed, among others.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Búsqueda informada]]></kwd>
<kwd lng="es"><![CDATA[búsqueda en espiral]]></kwd>
<kwd lng="es"><![CDATA[robótica móvil]]></kwd>
<kwd lng="es"><![CDATA[inteligencia artificial]]></kwd>
<kwd lng="en"><![CDATA[Informed search]]></kwd>
<kwd lng="en"><![CDATA[spiral search]]></kwd>
<kwd lng="en"><![CDATA[mobile robot]]></kwd>
<kwd lng="en"><![CDATA[artificial intelligence]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font size="2" face="Verdana"><b>ART&Iacute;CULOS ORIGINALES</b></font></p>     <p align="right">&nbsp;</p>     <p align="center"><b><font size="4" face="Verdana">Dise&ntilde;o de un algoritmo de b&uacute;squeda informada mediante el  simulador rob&oacute;tico stage</font></b></p>     <p align="center">&nbsp;</p>     <p align="center">&nbsp;</p>     <p align="center"><font face="Verdana" size="2">Marcelo Saavedra Alcoba, Luigi Pedro Enríquez Paz</font>    <br>   <font face="Verdana" size="2">Instituto de Investigaciones en Ciencia y Tecnología</font>    <br>   <font face="Verdana" size="2">Universidad La Salle Bolivia     <br>   <a href="mailto:msaavedra@doc.ulasalle.edu.bo">msaavedra@doc.ulasalle.edu.bo</a>, <a href="mailto:lpenriquez@est.ulasalle.edu.bo">lpenriquez@est.ulasalle.edu.bo</a></font>    <br> <font face="Verdana" size="2">Recibido: 16-06-2015 Aceptado: 20-08-2015</font></p>     ]]></body>
<body><![CDATA[<p align="center">&nbsp;</p>     <p align="center">&nbsp;</p> <hr>     <p align="justify"><font face="Verdana" size="2"><b>Resumen</b></font></p>     <p align="justify"><font face="Verdana" size="2">Se propone una nueva metodología para una búsqueda informada de objetos mediante un robot móvil. La metodología está basada en una combinación de un algoritmo de búsqueda en espiral y un algoritmo de búsqueda mediante un enfoque bayesiano que usa convoluciones entre &quot;probabilidades de observación&quot; y &quot;máscaras de relaciones espaciales&quot; para estimar un mapa probabilidad donde se pueda encontrar el objeto de búsqueda. Las relaciones espaciales entre objetos son representadas mediante el uso de máscaras circulares definidos como sumas ponderadas de relaciones espaciales básicas utilizando matrices de co-ocurrencia como pesos. La metodología está validada en un ambiente tipo oficina en la que existen cuatro clases de objetos comunes (&quot;monitor&quot;, &quot;teclado&quot;, &quot;cpu&quot; y &quot;router&quot;) y se consideró cuatro relaciones espaciales básicas (&quot;muy cerca&quot;, &quot;cerca&quot;, &quot;lejos&quot; y &quot;muy lejos&quot;). Se realizaron un total de 500 experimentos que comparan 5 métodos de búsqueda utilizando el simulador robótico Stage. Los resultados muestran que el uso de la metodología propuesta tiene una tasa de detección mayor que un 70%, comparado a otros métodos como ser: Método de búsqueda en espiral, Método de búsqueda informada usando partículas entre otros.</font></p>     <p align="justify"><font face="Verdana" size="2"><b>Palabras Claves</b> Búsqueda informada, búsqueda en espiral, robótica móvil, inteligencia artificial.</font></p> <hr>     <p align="justify"><font face="Verdana" size="2"><b>Abstract</b></font></p>     <p align="justify"><font face="Verdana" size="2">A novel methodology for robots executing informed object search is proposed. The methodology is based mainly on a heuristic spiral search algorithm and a Bayesian framework that uses convolutions between observation likelihoods and spatial relation masks for estimating the probability map of the object being search for. The spatial relationships between objects can be defined as weighted sums of basic spatial relations using co-occurrence matrices as weights. The methodology is validated in an office environment in which four object classes (&quot;monitor,&quot; &quot;keyboard,&quot; &quot;system unit,&quot; and &quot;router&quot;) and four basic spatial relations (&quot;very near,&quot; &quot;near,&quot; far,&quot; and &quot;very far&quot;) are considered. A total of 500 experiments comparing five object search algorithms were realized by using the robotics simulator Stage. The results show that using the proposed methodology has a higher detection rate of 70%, compared to other methods such as: Method spiral search, method using particles informed, among others.</font></p>     <p align="justify"><font face="Verdana" size="2"><b>Key Words</b></font><font face="Verdana" size="2"> Informed search, spiral search, mobile robot, artificial intelligence. </font></p> <hr>     <p align="justify">&nbsp;</p>     <p align="justify">&nbsp;</p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana" size="3"><b>I. Introducción</b></font></p>     <p align="justify"><font face="Verdana" size="2">La búsqueda de objetos en la vida cotidiana es una de las tareas más fundamentales de los seres humanos. Por esta razón, &quot;buscar&quot; es una de las tareas más básicas que se espera de un robot. Los problemas sobre búsqueda de rutas óptimas han sido muy estudiados en el área de la Inteligencia Artificial, pero buscar un objeto en un ambiente real es un trabajo más costoso ya que los objetos no siempre estarán al alcance del robot, y pueden estar ocluidos por otros objetos. El realizar una búsqueda en un ambiente real implica identificar y elegir un conjunto de acciones apropiadas de un conjunto muy grande de posibilidades. En contraste con los problemas clásicos de búsqueda de IA, en la búsqueda robótica se desea no volver a moverse entre lugares ya visitados (Burlington S, Dudek G., 1999). La situación más común al buscar un objeto en un ambiente interior es que el objeto pueda estar fuera del rango de visión del robot, otro ejemplo puede ocurrir en un ambiente interior como una oficina donde</font></p>     <p align="justify"><font face="Verdana" size="2">muchos objetos cambiarán de posición frecuentemente y pueden quedar ocluidos por otros objetos.</font></p>     <p align="center"><a name="f1"></a><img src="/img/revistas/rfer/v10n10/a03_figura01.GIF" width="438" height="556"></p>     <p align="justify"><font face="Verdana" size="2">En la <a href="#f1">Figura 1</a>, se puede observar que la cámara del robot tiene un rango de detección representado mediante un cono de detección o un punto de vista. Una búsqueda directa explorando todo el ambiente bastaría para encontrar el objeto, sin embargo se está suponiendo que existe la misma probabilidad de encontrar el objeto en cualquier parte del ambiente. Desde esta perspectiva, se puede apreciar que el espacio de búsqueda de objetos</font></p>     <p align="justify"><font face="Verdana" size="2">es enorme, y que la información incompleta de un ambiente podría hacer que la búsqueda de objetos demore mucho tiempo o que simplemente no se encuentre el objeto buscado. Es en esta parte donde la información de contexto puede jugar un papel importante a la hora de buscar objetos, ya que hay conjuntos de objetos dentro de un ambiente particular que tienden a repetirse ya que existe una relación espacial, por lo que es posible deducir la existencia de un objeto A, dado un objeto B. Por ejemplo, dentro de una oficina, se puede ver que el objeto &quot;teclado&quot; está a menudo muy cerca del objeto &quot;monitor&quot;. Para un ser humano, la capacidad de deducir que el objeto Atiende a ser &quot;cerca&quot;, &quot;muy cerca&quot; o &quot;lejos&quot; de un objeto B es una tarea trivial, ya que los seres humanos pueden aprender las relaciones espaciales entre los objetos mediante la observación de un gran número de configuraciones parecidas.</font></p>     <p align="justify"><font face="Verdana" size="2">Para que un robot realice una búsqueda planificada necesita resolver dos sub-tareas, primero donde se realiza la siguiente vista y segundo donde se realiza el siguiente movimiento. Para la segunda sub-tarea se debe cumplir dos requisitos, el primero es que exista un espacio accesible en el ambiente y la segunda es que exista una alta probabilidad de encontrar el objeto. El &quot;no planificar&quot; estas dos tareas, implica examinar todas las posibles configuraciones de los movimientos y vistas del robot hasta encontrar el objeto buscado, esta estrategia resulta ineficiente por varias razones (Shubina H, Tsotsos J, 2010).</font></p>     <p align="justify"><font face="Verdana" size="2">En el presente trabajo se llevó a cabo un análisis exhaustivo de las relaciones espaciales entre objetos que comparten un uso común. Para este objetivo, se creó una base de datos de coocurrencias espaciales donde los valores de distancias entre objetos están representados por variables lingüísticas como ser: &quot;muy cerca&quot;, &quot;cerca&quot;. &quot;lejos&quot; y &quot;muy lejos&quot;. Decimos que dos objetos coocurren cuando aparecen juntos en varias imágenes manteniendo una particular relación espacial.</font></p>     <p align="justify"><font face="Verdana" size="2">La importante contribución de este trabajo es el uso de las convoluciones de una manera unificada para el cálculo de la probabilidad de la presencia de un objeto a partir de detecciones positivas añadida a una exploración en espiral.</font></p>     <p align="justify">&nbsp;</p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana" size="3"><b>II. Trabajos Relacionados</b></font></p>     <p align="justify"><font face="Verdana" size="2">La búsqueda de objetos en un ambiente real es compleja, ya que el objeto a buscar no siempre estará visible. En el trabajo de Baeza-Yates et al. (1993), titulado <i>&quot;Searching in the Plane&quot; </i>(Baeza R.A., Yates J.C. Culberson, Rawlins G.J, 1993), se estudian exhaustivamente varias técnicas sobre búsqueda robótica con el objetivo de encontrar las más optimas dentro de un ambiente plano. Los autores toman en cuenta que el ambiente es desconocido (quizás ilimitado) y además que existe un problema real respecto a la localización del robot. En los resultados obtenidos, los autores sugieren que una manera adecuada de realizar la búsqueda es a través de la aplicación continua de espirales logarítmicas. Posteriormente, Burlington y Dudek (1999) en su trabajo titulado <i>&quot;Spiral search as an efficient mobile robotic search technique&quot; </i>(Burlington S, Dudek G., 1999), utilizan este método calibrando valores en la iteración de la búsqueda en espiral para los ejemplos en ambientes dentro de polígonos que pueden ser representados como pasillos. Como una alternativa a este problema, en (Garvey, 1976) propuso la idea de la <i>búsqueda indirecta, </i>realizando la búsqueda de otro objeto intermedio que mantenga una relación espacial con el objeto buscado. materializó la idea de la búsqueda indirecta demostrando una mayor eficiencia tanto a nivel teórico como empírico (Wixon L., Ballard D., 1994). Pero el problema con la búsqueda indirecta es que la relación espacial entre el objeto buscado y el objeto intermedio no siempre existe. Además, la detección del objeto intermedio puede ser más difícil que la detección del objeto deseado. De hecho, Ye y Tsotsos han demostrado que la búsqueda de un objeto arbitrario en el espacio 3D es NP-completo (Ye Y., Tsotsos J.K., 1999). En el trabajo de Kollar et al.(1999), se realiza la búsqueda de un objeto en un ambiente conocido de acuerdo al contexto objeto-objeto y objeto-escena (Kollar T., Roy N., 2009), ellos obtienen la coocurrencia de la existencia de objetos en imágenes bidimensionales para obtener una estadística de las correlaciones entre categorías de objetos y entre objetos con etiquetas de lugar (etiquetas semánticas como &quot;cocina&quot;). Estas imágenes fueron tomadas del sitio web de <i>Flickr, </i>y no consideran la información de las distancias existentes entre objetos. En el trabajo de <i>Viswanathan </i>et. al., se propone un enfoque utilizando los recursos existentes como un conocimiento de sentido común para el aprendizaje automático de relaciones espaciales de los objetos (Viswanathan P., Meger</font> <font face="Verdana" size="2">D., Southey T. Little J y Freeman W., 2009). Ellos usan imágenes marcadas desde la base de datos <i>LabelMe, </i>diseñado por Russell et al. (Rusell B., Torralba A., y Freeman W., 2008) y entrenan un clasificador automático de lugares basado en la presencia de los objetos detectados para inferir la probabilidad de existencia de otros objetos y el tipo de lugar (por ejemplo, la cocina o la oficina).</font></p>     <p align="justify"><font face="Verdana" size="2">En el trabajo de Loncomilla et al. en (Loncomilla P., Ruiz del Solar J. y Saavedra M., 2013), se presenta un marco bayesiano para una búsqueda informada usando convoluciones entre verosimilitudes de observaciones y máscaras de relación especial, presentado así una mejora al trabajo presentado en (Aydemir A., Sjöö K. y Jensfelt P., 2010). Se puede observar que la tasa de detección aumenta considerablemente usando este nuevo método.</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="Verdana" size="3"><b>III. Herramienta de simulación STAGE</b></font></p>     <p align="justify"><font face="Verdana" size="2">El costo de un buen robot puede ser un fuerte impedimento y más aún en el caso de investigar con más de un robot. Este es uno de los motivos por los cuales se utilizan simuladores para probar los programas y comprobar los resultados obtenidos, acercándose lo más posible a los que podrían obtenerse con el robot real (Cañas J.M. Matellán V. y Montufar R., 2006). Cabe destacar que las condiciones del entorno simulado no son las mismas que las del entorno real, el cual presenta ruidos en las mediciones de los sensores, situaciones inesperadas, y otros aspectos que a veces no pueden ser reproducidos con fidelidad en la simulación. Los simuladores suelen ser utilizados para comprobar los programas que posteriormente serán implantados en el robot real, de una forma más metódica y exhaustiva, ahorrando en algunos casos bastante tiempo.</font></p>     <p align="justify"><font face="Verdana" size="2"><b>a) El proyecto <i>Player/Stage</i></b></font></p>     <p align="justify"><font face="Verdana" size="2">El proyecto <i>Player/Stage </i>fue fundado por <i>Brian Gerkey, Richard Vaughan y Andrew Howard </i>en el año 2000, basándose en software que habían desarrollado con <i>Kasper Stoy </i>y otros en los laboratorios de investigación robótica de la Universidad de California del Sur. El nombre del proyecto fue tomado de una célebre frase de <i>Shakespeare &quot;All the world's a stage,</i></font> <font face="Verdana" size="2"><i>And all the men and women merely players&quot; </i>(El mundo entero es un escenario, y los hombres y mujeres son simplemente actores) (Gerkey B.P., Vaughan R.T. and Howard A., 2003).</font></p>     <p align="justify"><font face="Verdana" size="2">Este proyecto está compuesto por tres componentes bien diferenciados:</font></p>     <blockquote>       ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana" size="2">•&nbsp;<b>Player </b>es un servidor que permite controlar los dispositivos de un robot y obtener información de sus sensores. Es una capa software que abstrae los detalles del hardware del robot, independizándonos del mismo. Los algoritmos de control del robot funcionarán como clientes de Player (a través de sockets TCP/IP). Así es posible controlar el robot enviando mensajes que sigan el protocolo de comunicación de Player o llamando a funciones de las librerías de Player, que pueden abstraer los detalles de comunicación. La distribución actual de Player incluye librerías en lenguajes tan diversos como C++, Java, Python o Lisp.</font></p>       <p align="justify"><font face="Verdana" size="2">•&nbsp; <b>Stage </b>es un simulador de robots móviles en 2D que se puede utilizar de manera conjunta con Player si se quiere hacer pruebas iniciales de nuestros algoritmos o en el caso de no disponer de un robot real.</font></p>       <p align="justify"><font face="Verdana" size="2">•&nbsp;Gazebo, es un simulador de robots móviles en 3D. </font></p> </blockquote>     <p align="justify"><font face="Verdana" size="2"><b>b) Arquitectura del simulador <i>Player/Stage</i></b></font></p>     <p align="justify"><font face="Verdana" size="2"><i>Player </i>utiliza una estructura de cliente/servidor para pasar datos e instrucciones entre el código y el hardware del robot. <i>Player </i>es el servidor, y el dispositivo de hardware del robot está suscrito como un cliente que se comunica al servidor a través de un proxy.</font></p>     <p align="center"><font size="2" face="Verdana"><a name="f2"></a><img src="/img/revistas/rfer/v10n10/a03_figura02.GIF" width="519" height="315"></font></p>     <p align="justify"><font face="Verdana" size="2">En la <a href="#f2">Figura 2</a> a) se muestra la estructura básica del <i>Player </i>cuando esta implementado en un robot y en 2 b), se muestra como es la estructura básica de <i>Player </i>con el simulador <i>Stage.</i></font></p>     <p align="justify"><font face="Verdana" size="2"><b>c) Configuración de </b><i><b>Stage</b></i></font></p>     <p align="justify"><font face="Verdana" size="2">El componente <i>Stage </i>puede simular a uno o más robots móviles, sensores, objetos y el ambiente de trabajo para interactuar con el robot mediante un entorno bidimensional. <i>Stage </i>además proporciona la simulación de una amplia variedad de sensores y actuadores, tales como sonar, láser, dispositivos de detección de color por visión, odometría y otros. En la <a href="#f3">Figura 3</a> se puede observar una imagen de la versión <i>Stage </i>3.2.2, simulando varios robots, obstáculos y el campo de visión por láser.</font></p>     <p align="center"><font size="2" face="Verdana"><a name="f3"></a><img src="/img/revistas/rfer/v10n10/a03_figura03.GIF" width="520" height="200"></font></p>     ]]></body>
<body><![CDATA[<p align="center">&nbsp;</p>     <p align="justify"><font face="Verdana" size="3"><b>Metodología</b></font></p>     <p align="justify"><font face="Verdana" size="2">A continuación se hace un estudio de algunos métodos de búsqueda existentes, de acuerdo a esta teoría se plantea el algoritmo propuesto.</font></p>     <p align="justify"><font face="Verdana" size="2"><b>I. Métodos de búsqueda no informados </b></font></p>     <p align="justify"><font face="Verdana" size="2"><b>a) Método de búsqueda en espiral</b></font></p>     <p align="justify"><font face="Verdana" size="2">La idea principal de realizar una búsqueda en espiral es examinar la mayor parte de un ambiente desconocido sin repetir el espacio recorrido. En la <a href="#f4">Figura 4</a> se puede ver una exploración en forma de espiral seguido del resultado del cono de detección, como se puede ver fácilmente gran parte del mapa está siendo explorado con este tipo de búsqueda.</font></p>     <p align="center"><a name="f4"></a><img src="/img/revistas/rfer/v10n10/a03_figura04.GIF" width="525" height="252"></p>     <p align="justify"><font face="Verdana" size="2">Existe un problema en particular en este caso, y es que si el mapa es desconocido, el punto inicial es desconocido para el robot, por lo que podría empezar en una esquina. En caso de que la espiral comience en una esquina y la dirección del robot tiende a chocar con la pared, el efecto causado será bordear toda la pared (un seguidor de paredes). Esto puede ser un problema, por lo cual se presenta una solución que es la de cambiar la dirección de la espiral y decreciendo después de un cierto tiempo, con esta solución el mapa volverá a ser explorado con una tendencia de llegar al punto central como se puede ver en la <a href="#f5">Figura 5</a>. En el caso que este cerca de un objeto o de una pared, se utilizará el mismo evasor de obstáculos y evasor de paredes usados en los otros métodos para que el robot no tenga colisiones.</font></p>     <p align="center"><a name="f5"></a><img src="/img/revistas/rfer/v10n10/a03_figura05.GIF" width="455" height="235"></p>     <p align="justify"><font face="Verdana" size="2"><b>b) Método de búsqueda mediante maximización de probabilidad</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana" size="2">Un mapa probabilidad <i>P(a<sub>ij</sub>) </i>para el objeto <i>A </i>se calcula mediante el uso de detecciones negativas de ese objeto, entonces el objetoA se busca mediante los de puntos de vista que maximizan la probabilidad de que contenga A. Este es el algoritmo de referencia utilizado en (Aydemir A., Sjöö K. y Jensfelt P., 2010), y no hay información desde los objetos secundarios que son utilizados.</font></p>     <p align="justify"><font face="Verdana" size="2"><b>II. Métodos de búsqueda informados</b></font></p>     <p align="justify"><font face="Verdana" size="2"><b>a) Método de búsqueda informada mediante convoluciones de información positiva</b></font></p>     <p align="justify"><font face="Verdana" size="2">Para comprender este método primero se explicará los conceptos de mascara de coocurrencia y matriz de coocurrencia.</font></p>     <p align="justify"><font face="Verdana" size="2"><b>i. Máscaras de coocurrencias de objetos</b></font></p>     <p align="justify"><font face="Verdana" size="2">Las máscaras de coocurrencias de objetos se utilizan para representar la relación espacial en forma de anillos, con esto se puede obtener un radio de distancias representando a las variables lingüísticas: &quot;Muy Cerca&quot;, &quot;Cerca&quot;, &quot;Lejos&quot; y &quot;Muy Lejos&quot;. Para obtener las máscaras y la matriz de coocurrencia, se usa el método descrito en (Loncomilla P., Ruiz del Solar J. y Saavedra M., 2013), donde ellos obtienen las máscaras considerando estadísticas de distancia entre objetos. Un ejemplo de máscara compuesta &nbsp;&nbsp;se muestra a lo largo de una rejilla con un tamaño de píxel de 0,1 [m] en la <a href="#f6">Figura 6</a>.</font></p>     <p align="center"><a name="f6"></a><img src="/img/revistas/rfer/v10n10/a03_figura06.GIF" width="503" height="247"></p>     <p align="justify"><font face="Verdana" size="2">Una matriz de coocurrencia es el conjunto de valores de coocurrencia de dos o más objetos con una relación espacial particular. Las estadísticas de las distancias entre el objeto &quot;Monitor&quot; y los objetos &quot;Teclado&quot;, &quot;Cpu&quot; y &quot;Router&quot;, delimitan las relaciones espaciales básicas y se crean umbrales entre los objetos como un problema de clasificación de distancias.</font></p>     <p align="justify"><font face="Verdana" size="2"><b>ii. Creación de matriz de coocurrencias de objetos</b></font></p>     <p align="justify"><font face="Verdana" size="2">Teniendo las distancias de umbrales obtenidos, en el trabajo de (Loncomilla P., Ruiz del Solar J. y Saavedra M., 2013) se toman estadísticas de coocurrencias entre objetos obteniendo la siguiente tabla:</font></p>     ]]></body>
<body><![CDATA[<p align="center"><a name="t1"></a><img src="/img/revistas/rfer/v10n10/a03_figura07.GIF" width="510" height="221"></p>     <p align="justify"><font face="Verdana" size="2">Como se puede ver en la <a href="#t1">Tabla 1</a>, el valor para la variable &quot;Muy Cerca&quot; del objeto &quot;Teclado&quot; es de 0.7731, por lo tanto existe 77.30% de probabilidad que un &quot;Monitor&quot; este cerca al objeto &quot;Teclado&quot;.</font></p>     <p align="justify"><font face="Verdana" size="2"><b>iii. Método mediante convoluciones</b></font></p>     <p align="justify"><font face="Verdana" size="2">En el trabajo descrito en (Loncomilla P., Ruiz del Solar J. y Saavedra M., 2013), se realiza un modelo bayesiano para la búsqueda informada de objetos mediante convoluciones entre probabilidades de la observación y las máscaras de relación espacial. La metodología propuesta está diseñada para encontrar un objeto utilizando una búsqueda informada es decir, mediante el uso de la información acerca de otros objetos, que tienen una relación espacial con el objeto que se ha encontrado. En (Aydemir A., Sjöö K. y Jensfelt P., 2010), las relaciones espaciales son definidas en un sentido probabilístico. Definimos una relación espacial entre dos objetos como la distribución de probabilidad de la pose del primer objeto dada la pose conocida del segundo objeto:</font></p>     <p align="center"><img src="/img/revistas/rfer/v10n10/a03_figura08.GIF" width="333" height="46"></p>     <p align="center"><a name="f7"></a><img src="/img/revistas/rfer/v10n10/a03_figura09.GIF" width="662" height="398"></p>     <p align="justify"><font face="Verdana" size="2">En la <a href="#f7">Figura 7</a> se muestra el diagrama de flujo general del trabajo realizado en (Loncomilla P., Ruiz del Solar J. y Saavedra M., 2013). Como se puede ver el robot está en un espacio de dos dimensiones con parámetros mediante coordenadas <i>(x,y). </i>El término <i>p</i>(a<sub>ij</sub>) representa la probabilidad</font> <font face="Verdana" size="2">de que el centro del objeto principal <i>A </i>se encuentra en la celda <i>(i,j). </i>Tanto las observaciones positivas y negativas z<sub>A</sub> proporcionan información valiosa para el proceso de búsqueda de objetos, y se puede utilizar para calcular la actualización de probabilidad p(a<sub>ij</sub>|z<sub>A</sub>). La probabilidad p(a0) es tratada como un caso especial, y representa la probabilidad de que el objeto está fuera de la región de búsqueda. Las detecciones positivas <i>z<sub>A</sub>=true </i>proporcionan la información acerca de los lugares en los que el objeto tiene una alta probabilidad de estar, por medio de la verosimilitud <i>p(z<sub>A</sub>=true|a<sub>ij</sub></i>), que es definida sobre la celda <i>(i, j). </i>La verosimilitud tiene un alto valor sobre la celda donde se ha detectado el objeto y un valor bajo en las otras celdas. Las detecciones negativas z<sub>A</sub>=false proporcionan la información <i>p(z<sub>a</sub>=false|</i>a<sub>ij</sub>) sobre las celdas donde los objetos tienen </font><font face="Verdana" size="2">una baja probabilidad de estar, que son las celdas visibles desde el punto de vista actual que tienen una baja probabilidad de contener el objeto. El problema abordado en este trabajo es encontrar un objeto principal <i>A, </i>mediante movimientos apropiados del robot. Así se realiza una búsqueda que continuara hasta que el objeto principal <i>A </i>sea encontrado. En consecuencia, el proceso de búsqueda incluye sólo detecciones negativas del objeto principalA. Dos casos son considerados:</font></p>     <p align="center"><img src="/img/revistas/rfer/v10n10/a03_figura10.GIF" width="406" height="140"></p>     <p align="justify"><font face="Verdana" size="2">El objeto secundario <i>B, </i>puede provocar detecciones positivas y negativas zb, que se puede utilizar para calcular la actualización de la probabilidad:</font></p>     <p align="center"><font size="2" face="Verdana"><img src="/img/revistas/rfer/v10n10/a03_figura11.GIF" width="406" height="151"></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana" size="2">Los términos <i>p( </i>zB | a<sub>ij</sub> ) y <i>p( zB </i>| a<sub>0</sub>) serán llamados verosimilitudes-cruzadas, ya que relacionan la detección de un objeto secundario <i>B, </i>con la presencia del objeto principal <i>A </i>en el mapa. Estas probabilidades pueden ser derivadas considerando las probabilidades<i>p(b<sub><sub>u</sub>v</sub>) </i>para la presencia de un objeto secundario <i>B, </i>en las localizaciones <i>(u,v) </i>de la grilla:</font></p>     <p align="center"><img src="/img/revistas/rfer/v10n10/a03_figura12.GIF" width="432" height="119"></p>     <p align="justify"><font face="Verdana" size="2">El término<i> p(b<sub>uv</sub>|a<sub>0</sub>) </i>es considerada una constante en <i>(u,v) </i>cuya suma tiene un valor igual a uno, porque <i>B </i>supone que está en el mapa. El término <i>p(b<sub><sub>u</sub>v</sub>|</i>a<sub>ij</sub>) corresponde a la relación espacial entre el objeto principal <i>A </i>en la posición <i>(i,j) </i>y un objeto secundario <i>B </i>en la posición <i>(u,v). </i>Mediante la sustitución de este término con la relación espacial <i>R<sub>B|A</sub>, </i>no hay necesidad de almacenar un mapa para el objeto secundario; sólo el mapa para el objeto principal y las verosimilitudes de las detecciones del objeto secundario son necesarios:</font></p>     <p align="center"><img src="/img/revistas/rfer/v10n10/a03_figura13.GIF" width="500" height="152"></p>     <p align="justify"><font face="Verdana" size="2">Donde <i>n<sub>u</sub> n<sub>v</sub> </i>es el tamaño del mapa. La ecuación (8) puede ser implemen-tado como una convolución en el espacio <i>(i,j) </i>entre una imagen de la verosimilitud y la máscara <i>R<sub>B|A</sub>(i,j) </i>que describe la relación espacial entre los objetos principales y secundarios, que se llamará <i>mascara de relación espacial:</i></font></p>     <p align="center"><img src="/img/revistas/rfer/v10n10/a03_figura14.GIF" width="491" height="54"></p>     <p align="justify"><font face="Verdana" size="2">El sistema propuesto es muy versátil, ya que cualquier relación espacial puede ser representada mediante una máscara adecuada. Debe tenerse en cuenta que se pueden añadir objetos secundarios al sistema mediante la creación de máscaras de relación espacial adicionales. En caso de que estas relaciones sean encadenadas, como ejemplo de un objeto <i>A </i>está cerca de <i>B, </i>y el objeto <i>B </i>está cerca de C, entonces la máscara de la relación de cadena puede ser obtenida por convolución de las máscaras originales:</font></p>     <p align="center"><img src="/img/revistas/rfer/v10n10/a03_figura15.GIF" width="516" height="141"></p>     <p align="justify"><font face="Verdana" size="2">Una ruta para buscar el objeto puede ser creado mediante la generación de puntos de vista óptimos en cada iteración. Los puntos de vista óptimos se generan a partir de un conjunto de <i>k </i>poses aleatorias alcanzables en un tiempo fijo, y se selecciona una que maximice la probabilidad de encontrar el objeto buscado en el área visible, como se muestra en (Aydemir A., Sjöö K.y JensfeltP., 2010):</font></p>     <p align="center"><img src="/img/revistas/rfer/v10n10/a03_figura16.GIF" width="364" height="65"></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana" size="2">Donde <i>N</i> es el número de poses candidatas plantea, y <i>V(a<sub>ij</sub>, k) </i>es definida como:</font></p>     <p align="center"><img src="/img/revistas/rfer/v10n10/a03_figura17.GIF" width="464" height="74"></p>     <p align="justify"><font face="Verdana" size="2">Para mayor entendimiento de este método, se pueden revisar los trabajos en (Loncomilla P., Ruiz del Solar J. y Saavedra M., 2013) y (Aydemir A., SjööK. yJensfeltP., 2010).</font></p>     <p align="justify"><font face="Verdana" size="2"><b>a)</b>&nbsp;<b>Método de búsqueda informada usando partículas</b></font></p>     <p align="justify"><font face="Verdana" size="2">El algoritmo de <i>Aydemir </i>et al. (2010) es utilizado para la construcción de un mapa de probabilidad <i>P(a ) </i>para el objeto A con detecciones negativas de ese objeto. Luego, el objeto <i>A </i>se busca mediante los puntos de vista que maximicen la probabilidad que contenga al objeto <i>A. </i>Cuando un objeto secundario es detectado, un conjunto de partículas se genera alrededor de la detección en el interior del cono de vista actual, y los que cumplen la relación espacial calculada a partir de la <a href="#t1">Tabla 1</a> se utilizan para seleccionar el punto de vista siguiente. Una relación espacial se considera cumplido cuando su valor actual es igual o mayor que la mitad de su valor máximo posible. <b>P. </b>3-4</font></p>     <p align="justify"><font face="Verdana" size="2"><b>b)</b>&nbsp;<b>Método hibrido propuesto</b></font></p>     <p align="justify"><font face="Verdana" size="2">Entre los métodos de búsqueda robótica estudiados, tanto de búsqueda informada como no informada, se escogen 2. El primero donde el robot no tiene información de otros objetos y solo busca el objeto principal recorriendo el ambiente en forma espiral, cabe destacar que este modelo es uno de los más óptimos para problemas de búsqueda sin información. El segundo es el método de búsqueda informada planteada en (Loncomilla P., Ruiz del Solar J. y Saavedra M., 2013) (método usando convoluciones) donde el robot utiliza la información de otros objetos que puedan tener relación con el objeto buscado. Es casi obvio que el tener información del ambiente supera a cualquier método sin información. En este trabajo se combinan ambos métodos, tanto el de búsqueda no informada como el de búsqueda informada para poder lograr una mejor búsqueda. El algoritmo de combinación propuesto se puede ver en la <a href="#f8">Figura 8</a>.</font></p>     <p align="center"><a name="f8"></a><img src="/img/revistas/rfer/v10n10/a03_figura18.GIF" width="398" height="446"></p>     <p align="justify"><font face="Verdana" size="2">En el algoritmo mostrado anteriormente, t es el tiempo de cada acción del robot y lim es un límite de tiempo que define cuando crece la búsqueda en espiral y cuando decrece. Si existe una detección de objetos secundarios, el método usara la búsqueda probabilística. En caso contrario volverá a la búsqueda mediante la espiral.</font></p>     <p align="center"><a name="t2"></a><img src="/img/revistas/rfer/v10n10/a03_figura19.GIF" width="529" height="266"></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana" size="3"><b>Resultados</b></font></p>     <p align="justify"><font face="Verdana" size="2">Se ejecutaron un total de 500 experimentos comparando cinco algoritmos explicados en la sección IV. Los resultados de los experimentos se muestran en la <a href="#t2">Tabla 2</a>.</font></p>     <p align="justify"><font face="Verdana" size="2">A partir de los resultados de los experimentos, se puede notar que el método de búsqueda mediante maximización de probabilidad <i>(b) </i>junto con el método descrito en (Aydemir et al, 2010) que usa partículas <i>(d) </i>tiene un desempeño bajo en las pruebas realizadas. El algoritmo de búsqueda en espiral <i>(c) </i>para ser un método no informado tiene un alto desempeño en la búsqueda de objetos, vale mencionar que la búsqueda en espiral es muy eficiente en ambientes sin paredes, ya que en un ambiente con paredes este tipo de búsqueda puede ser más lento. Los algoritmos que utilizan convoluciones <i>(&quot;c&quot;y &quot;e&quot;) </i>para integrar la información acerca de los objetos secundarios en la distribución de probabilidad del objeto principal tienen el mejor rendimiento. El método hibrido propuesto <i>(e) </i>en este trabajo, es el de mayor rendimiento, ya que aumenta la tasa de detección hasta un 71%.</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="Verdana" size="3"><b>Conclusiones y recomendaciones</b></font></p>     <p align="justify"><font face="Verdana" size="2">En este trabajo, fue propuesto y probado una nueva metodología para realizar una búsqueda informada de objetos. La metodología se basa en la integración de la información proporcionada por los objetos secundarios en la distribución de probabilidad del objeto principal y la búsqueda en espiral que es una de las más optimas en la búsqueda no informada. Cinco algoritmos de búsqueda de objetos se compararon mediante el uso de relaciones espaciales estimadas a partir de datos del mundo real mediante la realización de un total de 500 simulaciones en Player/Stage. Los resultados</font></p>     <p align="justify"><font face="Verdana" size="2">muestran que la tasa de éxito del método hibrido propuesto incrementa la tasa de detección hasta un 71%. El trabajo futuro incluye el uso de conjuntos difusos para modelar las relaciones espaciales básicas y la realización de experimentos con un robot real para validar los resultados en el mundo real.</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="Verdana" size="3"><b>Referencias</b></font></p>     <!-- ref --><p align="justify"><font face="Verdana" size="2">Aydemir A., Sjöö K. y Jensfelt P. (2010). Objetct search on a mobile robot using relational spatial information. Proc. of the 11th Conference on Itte-lligent Autonomous Systemas (IAS-11).p. 3-4.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829336&pid=S2071-081X201500020000300001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Baeza R.A., Yates J.C. Culberson, Rawlins G.J. (1993). &quot;Searching in the plane&quot;. Information and Computation 106 vol. 2, p. 234-252.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829337&pid=S2071-081X201500020000300002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Burlington S, Dudek G. (1999). Spiral search as an efficient mobile robotic search technique. Centre for Intelligent Machines McGill University. p. 5-9.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829338&pid=S2071-081X201500020000300003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Cañas J.M. Matellán V. y Montufar R. (2006). Programación de Robots Móviles. RIAI: Revista Iberoamericana de Automática e Informática Industrial Vol. 3, p. 99-110.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829339&pid=S2071-081X201500020000300004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Garvey, T. (1976). Perceptual strategies for purposive vision. Technical report, SRI International vol. 117. p. 60-105.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829340&pid=S2071-081X201500020000300005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Gerkey B.P., Vaughan R.T. and Howard A. (2003). The player/Stage pro-ject: tools for multi-robot and distributed sensor systems. Proceedings of the 1 1th International Conference on Advanced Robotics ICAR 2003. Coimbra-Portugal: ICAR. p. 1-6.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829341&pid=S2071-081X201500020000300006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Kollar T., Roy N. (2009). Utilizing object-object and object-secene context when planning to find things presented at the in ICRA' 09. Proceedings of the 2009 IEEE International Conference on Robotics and Automation. p.</font> <font face="Verdana" size="2">2-7.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829342&pid=S2071-081X201500020000300007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Loncomilla P., Ruiz del Solar J. y Saavedra M. (2013). A bayesian fra-mework for informed search using convolutions between observation li-kelihoods and spatial relation masks. ICAR, Montevideo, Uruguay. p. 3-6.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829343&pid=S2071-081X201500020000300008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Rusell B., Torralba A., y Freeman W. (2008). Labelme: A database and web-based tool for image annotation. International Jorunal of Computer Vision vol. 77, p. 157-173.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829344&pid=S2071-081X201500020000300009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Shubina H, Tsotsos J. (2010). Visual search for an objetct in a 3d environ-ment using a mobile robot. Computer Vision and Image Understanding 114, Vol. 5, p. 535-547.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829345&pid=S2071-081X201500020000300010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Viswanathan P., Meger D., Southey T. Little J y Freeman W. (2009). Auto-mated Spatial-Semantic Modeling with Applications to Place and informa-ted Search. Canadian Conference on Computer anr Robot Vision. p. 3-6.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829346&pid=S2071-081X201500020000300011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Wixon L., Ballard D. (1994). Using intermediate object to improve effi-ciency of visual search. Int. J. Computer Vision 18 vol. 18, p. 209-230.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829347&pid=S2071-081X201500020000300012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="Verdana" size="2">Ye Y., Tsotsos J.K. (1999). Sensor Planning for 3D Objetc Search. Computer Vision and Image Unsderstanding vol. 73-2, p. 145-168.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=829348&pid=S2071-081X201500020000300013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><p align="justify">&nbsp;</p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Aydemir]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Sjöö]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[Jensfelt]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<source><![CDATA[Objetct search on a mobile robot using relational spatial information.]]></source>
<year>2010</year>
<page-range>3-4</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Baeza]]></surname>
<given-names><![CDATA[R.A.]]></given-names>
</name>
<name>
<surname><![CDATA[Yates]]></surname>
<given-names><![CDATA[J.C.]]></given-names>
</name>
<name>
<surname><![CDATA[Culberson]]></surname>
</name>
<name>
<surname><![CDATA[Rawlins]]></surname>
<given-names><![CDATA[G.J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Searching in the plane]]></source>
<year>1993</year>
<volume>2</volume>
<page-range>234-252</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Burlington]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Dudek]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Spiral search as an efficient mobile robotic search technique.]]></source>
<year>1999</year>
<page-range>5-9</page-range><publisher-name><![CDATA[Centre for Intelligent Machines McGill University]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cañas]]></surname>
<given-names><![CDATA[J.M.]]></given-names>
</name>
<name>
<surname><![CDATA[Matellán]]></surname>
<given-names><![CDATA[V.]]></given-names>
</name>
<name>
<surname><![CDATA[Montufar]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Programación de Robots Móviles. RIAI]]></article-title>
<source><![CDATA[Revista Iberoamericana de Automática e Informática Industrial]]></source>
<year>2006</year>
<volume>3</volume>
<page-range>99-110</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Garvey]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Perceptual strategies for purposive vision.]]></article-title>
<source><![CDATA[Technical report, SRI International]]></source>
<year>1976</year>
<volume>117</volume>
<page-range>60-105</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gerkey]]></surname>
<given-names><![CDATA[B.P.]]></given-names>
</name>
<name>
<surname><![CDATA[Vaughan]]></surname>
<given-names><![CDATA[R.T.]]></given-names>
</name>
<name>
<surname><![CDATA[Howard]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[The player/Stage pro-ject: tools for multi-robot and distributed sensor systems.]]></source>
<year>2003</year>
<page-range>1-6</page-range><publisher-loc><![CDATA[Coimbra ]]></publisher-loc>
<publisher-name><![CDATA[ICAR]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kollar]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Roy]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
</person-group>
<source><![CDATA[Utilizing object-object and object-secene context when planning to find things presented at the in ICRA' 09.]]></source>
<year>2009</year>
<page-range>2-7</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Loncomilla]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Ruiz del Solar]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Saavedra]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[A bayesian fra-mework for informed search using convolutions between observation li-kelihoods and spatial relation masks.]]></source>
<year>2013</year>
<page-range>3-6</page-range><publisher-loc><![CDATA[Montevideo ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rusell]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Torralba]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Freeman]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Labelme: A database and web-based tool for image annotation.]]></article-title>
<source><![CDATA[International Jorunal of Computer Vision]]></source>
<year>2008</year>
<volume>77</volume>
<page-range>157-173</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shubina]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Tsotsos]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Visual search for an objetct in a 3d environ-ment using a mobile robot.]]></article-title>
<source><![CDATA[Computer Vision and Image Understanding]]></source>
<year>2010</year>
<volume>5</volume>
<numero>114</numero>
<issue>114</issue>
<page-range>535-547</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Viswanathan]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Meger]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Southey]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Little]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Freeman]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
</person-group>
<source><![CDATA[Auto-mated Spatial-Semantic Modeling with Applications to Place and informa-ted Search.]]></source>
<year>2009</year>
<page-range>3-6</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wixon]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[Ballard]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using intermediate object to improve effi-ciency of visual search]]></article-title>
<source><![CDATA[Int. J. Computer Vision]]></source>
<year>1994</year>
<volume>18</volume>
<numero>18</numero>
<issue>18</issue>
<page-range>209-230</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ye]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[Tsotsos]]></surname>
<given-names><![CDATA[J.K.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Sensor Planning for 3D Objetc Search]]></article-title>
<source><![CDATA[Computer Vision and Image Unsderstanding]]></source>
<year>1999</year>
<volume>73-2</volume>
<page-range>145-168</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
