<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1683-0789</journal-id>
<journal-title><![CDATA[Acta Nova]]></journal-title>
<abbrev-journal-title><![CDATA[RevActaNova.]]></abbrev-journal-title>
<issn>1683-0789</issn>
<publisher>
<publisher-name><![CDATA[Universidad Católica Boliviana]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1683-07892016000200007</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Sistema de inteligencia artificial para la predicción temprana de heladas meteorológicas]]></article-title>
<article-title xml:lang="en"><![CDATA[Artificial intelligence system for early prediction of weather frost]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Riabani Mercado]]></surname>
<given-names><![CDATA[Franklin]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[García Fernández]]></surname>
<given-names><![CDATA[Willman]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Herrera Acebey]]></surname>
<given-names><![CDATA[Johnny A.]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Católica Boliviana  ]]></institution>
<addr-line><![CDATA[Cochabamba ]]></addr-line>
<country>Bolivia</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Católica Boliviana Carrera de Ingeniería Ambiental ]]></institution>
<addr-line><![CDATA[Cochabamba ]]></addr-line>
<country>Bolivia</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad Católica Boliviana Carrera de Telecomunicaciones ]]></institution>
<addr-line><![CDATA[Cochabamba ]]></addr-line>
<country>Bolivia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>09</month>
<year>2016</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>09</month>
<year>2016</year>
</pub-date>
<volume>7</volume>
<numero>4</numero>
<fpage>483</fpage>
<lpage>495</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.bo/scielo.php?script=sci_arttext&amp;pid=S1683-07892016000200007&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.bo/scielo.php?script=sci_abstract&amp;pid=S1683-07892016000200007&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.bo/scielo.php?script=sci_pdf&amp;pid=S1683-07892016000200007&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[La helada es un factor meteorológico importante para la hidrología, climatología y agricultura. Este estudio propone crear una máquina de aprendizaje extremo (ELM) utilizando el algoritmo propuesto por Huang sobre una red neuronal monocapa con propagación hacia adelante, como base para la predicción temprana de heladas meteorológicas. El estudio fue desarrollado en el Valle Alto del departamento de Cochabamba-Bolivia, los datos fueron colectados en 6 estaciones meteorológicas llegando a un total de 178450 mediciones, se para el entrenar la red neuronal. Para la verificación se utilizaron los datos obtenidos de las estaciones meteorológicas de Tiquipaya y Arque del año 2016. Con márgenes de confianza superiores al 90%. Como resultados de la investigación se demostró que una red neuronal entrenada con el algoritmo propuesto por Huang, es un buen predictor de heladas meteorológicas tanto en niveles de confianza y tiempos de respuesta.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Frost is an important weather factor for hydrology, climatology and agriculture. This study proposes to create a learning machine end (ELM) using the method proposed by Huang on a layer neural network monolayer as a basis for early frost weather prediction algorithm. The study was developed in the Valle Alto of Cochabamba-Bolivia, data were collected at 6 meteorological stations reaching a total of 178450 measurements, for training the neural network. For verification, meteorological data were used stations from Arque and Tiquipaya 2016. With confidence margins above 90% they were used. As research results showed that a neural network trained with the proposed Huang algorithm, it is a good predictor of weather frost from both, confidence levels and times response.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Inteligencia computacional]]></kwd>
<kwd lng="es"><![CDATA[inteligencia Artificial]]></kwd>
<kwd lng="es"><![CDATA[Machine Learning]]></kwd>
<kwd lng="es"><![CDATA[SciPy]]></kwd>
<kwd lng="es"><![CDATA[Raspberry Pi]]></kwd>
<kwd lng="es"><![CDATA[Agricultura inteligente]]></kwd>
<kwd lng="es"><![CDATA[Heladas]]></kwd>
<kwd lng="en"><![CDATA[Computational Intelligence]]></kwd>
<kwd lng="en"><![CDATA[Artificial Intelligence]]></kwd>
<kwd lng="en"><![CDATA[Machine Leaming]]></kwd>
<kwd lng="en"><![CDATA[SciPy]]></kwd>
<kwd lng="en"><![CDATA[Raspberry Pi]]></kwd>
<kwd lng="en"><![CDATA[intelligent Agriculture]]></kwd>
<kwd lng="en"><![CDATA[Frosts]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>ART&Iacute;CULO CIENT&Iacute;FICO</b></font></p>     <p align="right">&nbsp;</p>     <p align="center"><font face="Verdana, Arial, Helvetica, sans-serif" size="4"><b>Sistema de inteligencia artificial para la predicción temprana de heladas meteorológicas</b></font></p>     <p align="center">&nbsp;</p>     <p align="center"><b><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><i>Artificial intelligence system for early prediction of weather frost</i></font></b></p>     <p align="center">&nbsp;</p>     <p align="center">&nbsp;</p>     <p align="center"><b><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Franklin Riabani Mercado<sup>1</sup>, Willman García Fernández<sup>2</sup>, Johnny A. Herrera</font></b> <b><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Acebey<sup>3</sup></font></b></p>     <p align="center"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><sup>1</sup> Universidad Católica Boliviana, Maestría en inteligencia de negocios, Cochabamba, Bolivia</font>    <br> <font face="Verdana, Arial, Helvetica, sans-serif" size="2"><sup>2</sup>Universidad Católica Boliviana, Carrera de Ingeniería Ambiental, Cochabamba,</font> <font face="Verdana, Arial, Helvetica, sans-serif" size="2">Bolivia</font>    ]]></body>
<body><![CDATA[<br> <font face="Verdana, Arial, Helvetica, sans-serif" size="2"><sup>3</sup>Universidad Católica Boliviana, Carrera de Telecomunicaciones, Cochabamba,</font> <font face="Verdana, Arial, Helvetica, sans-serif" size="2">Bolivia, c Márquez s/n, Zona Tupuraya, Cochabamba, Bolivia.</font>    <br> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="mailto:franklin.riabani@gmail.com">franklin.riabani@gmail.com</a></font></p>     <p align="center"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Recibido: 15 de agosto 2016</font> <font face="Verdana, Arial, Helvetica, sans-serif" size="2">    <br> Aceptado: 1 de septiembre 2016</font></p>     <p align="center">&nbsp;</p>     <p align="center">&nbsp;</p> <hr noshade>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>Resumen: </b>La helada es un factor meteorológico importante para la hidrología, climatología y agricultura. Este estudio propone crear una máquina de aprendizaje extremo (ELM) utilizando el algoritmo propuesto por Huang sobre una red neuronal monocapa con propagación hacia adelante, como base para la predicción temprana de heladas meteorológicas. El estudio fue desarrollado en el Valle Alto del departamento de Cochabamba-Bolivia, los datos fueron colectados en 6 estaciones meteorológicas llegando a un total de 178450 mediciones, se para el entrenar la red neuronal. Para la verificación se utilizaron los datos obtenidos de las estaciones meteorológicas de Tiquipaya y Arque del año 2016. Con márgenes de confianza superiores al 90%. Como resultados de la investigación se demostró que una red neuronal entrenada con el algoritmo propuesto por Huang, es un buen predictor de heladas meteorológicas tanto en niveles de confianza y tiempos de respuesta.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>Palabras claves: </b>Inteligencia computacional, inteligencia Artificial, Machine Learning, SciPy, Raspberry Pi, Agricultura inteligente, Heladas</font></p> <hr noshade>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>Abstract: </b>Summary: Frost is an important weather factor for hydrology, climatology and agriculture. This study proposes to create a learning machine end (ELM) using the method proposed by Huang on a layer neural network monolayer as a basis for early frost weather prediction algorithm. The study was developed in the Valle Alto of Cochabamba-Bolivia, data were collected at 6 meteorological stations reaching a total of 178450 measurements, for training the neural network. For verification, meteorological data were used stations from Arque and Tiquipaya 2016. With confidence margins above 90% they were used. As research results showed that a neural network trained with the proposed Huang algorithm, it is a good predictor of weather frost from both, confidence levels and times response.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>Keywords: </b>Computational Intelligence, Artificial Intelligence, Machine Leaming, SciPy, Raspberry Pi, intelligent Agriculture, Frosts</font></p> <hr noshade>     ]]></body>
<body><![CDATA[<p align="justify">&nbsp;</p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><b>1.     Introducción</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>1.1 Heladas</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Las heladas son un fenómeno atmosférico que se presenta cuando la temperatura del aire en cercanías del suelo, aproximadamente 1,5 a 2 metros, desciende por debajo de cero grados centígrados. Técnicamente, la palabra &quot;helada&quot; se refiere a la formación de cristales de hielo sobre las superficies, tanto por congelación del rocío como por un cambio de fase de vapor de agua a hielo [16].</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">La helada se define en dos ámbitos: &quot;advectiva&quot; y &quot;radiativa&quot;. Las heladas advectivas están asociadas con incursiones a gran escala de aire frío con una atmósfera con viento y bien mezclada y una temperatura que a menudo está por debajo de cero, incluso durante el día. Las heladas de radiación están asociadas con el enfriamiento debido a la pérdida de energía por el intercambio radiante durante las noches despejadas y en calma, y con inversiones de temperatura [17]. Otro evento que favorece la ocurrencia de heladas es el desplazamiento de masas de aire frio provenientes del polo sur, las heladas se clasifican tanto por su tipo como por el daño que produce la helada blanca cuando deja una capa de hielo sobre la superficie y helada negra cuando produce quema o mata las células vegetales.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">El daño que provocan las heladas a los cultivos no se debe a las frías temperaturas sino principalmente a la formación de hielo extracelular (i.e. fuera de las células) dentro del tejido de la planta, provocando la salida de agua y dañando las células por deshidratación. Las pérdidas en los cultivos como consecuencia de las heladas varían entre 20 a 100% dependiendo de la intensidad de la helada, estado de desarrollo y tipo de cultivo.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">En la región de los Valles de Bolivia, tanto la agricultura de subsistencia como la agricultura comercial, enfrentan problemas climáticos diversos, entre estos las heladas que provocan disminución o pérdida en las cosechas afectando la economía familiar campesina.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">La predicción precisa de heladas puede potencialmente reducir el daño por heladas, proporcionando una oportunidad a los agricultores de prepararse contra ellas. Es importante poder predecir cuándo cae la temperatura hasta un valor crítico para poner en marcha los métodos de contingencia activos de protección contra las heladas.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>1.2Aprendizaje Automático</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">El aprendizaje automático es una rama de la Inteligencia Artificial que busca que las computadoras  sean capaces de aprender e inducir conocimiento de datos. El</font> <font face="Verdana, Arial, Helvetica, sans-serif" size="2">aprendizaje automático se clasifica según el tipo de aprendizaje Supervisado y no supervisado. El aprendizaje supervisado está compuesto por dos fases o etapas la primera conocida como <b><i>Entrenamiento </i></b>donde se observa las características más relevantes de un evento que actúan como datos de entrada y la segunda conocida como <b><i>Prueba </i></b>en la que compara estas características con nuevos datos de prueba y se obtiene al final de estas dos etapas un modelo entrenado y probado que intenta explicar los datos de entrada.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">En base a los antecedentes, el objetivo de la presente investigación es demostrar la aplicabilidad del algoritmo propuesto por Huang denominada <i>&quot;Extreme learning Machine&quot; </i>sobre una red neuronal monocapa con propagación hacia adelante (Single Layer Feedforward neural network - SLNF), para la predicción temprana de heladas en los valles y zona andina del departamento de Cochabamba.</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><b>2.     Teoría del Algoritmo Extreme Learning Machine (ELM)</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Las Máquinas de Aprendizaje Extremo o <i>Extreme Learning Machine </i>(ELM) propuesto por Huang [1] es un algoritmo que está atrayendo la atención de miles de investigadores como una técnica de inteligencia artificial que resuelve muchos de los problemas a los que se enfrentan otras técnicas, por ejemplo su lenta velocidad de aprendizaje [2]. ELM inicialmente trabaja en redes neuronales monocapa con propagación hacia delante (SLFNs) [3] (<a href="#f1">Figura 1</a>).</font></p>     <p align="justify"><a name="f1"></a></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_figura_01.gif" width="622" height="387"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">El algoritmo del ELM está basado en el hecho de que si los pesos de entrada y los sesgos de la capa oculta de una SLFN, son asignados al azar, la SLFN puede ser</font> <font face="Verdana, Arial, Helvetica, sans-serif" size="2">considerada como un sistema lineal y los pesos de salida se pueden determinar analíticamente mediante la inversa generalizada [4]. Esta idea ya fue estudiada por Huang et al [5]; y hay un estudio profundo acerca de las diferencias entre el ELM y trabajos previos. Sin embargo, Huang demuestra la capacidad que tiene el ELM para ser un aproximador universal donde los pesos de entrada elegidos al azar pueden ser generados de acuerdo a cualquier distribución de probabilidad continua, sin ningún conocimiento previo [6]. Esta asignación aleatoria se puede hacer si las funciones de activación en la capa oculta son infinitamente diferenciables [3, 4], la más popular es la una función signoide.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">En general, las SLFNs estándar con <i>L </i>neuronas en la capa oculta y función de activación <i>f</i>(x), pueden aproximar las <i>N </i>muestras con error cero.</font></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_ecuacion_01.gif" width="546" height="39"></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>2.1  Teoría de las máquinas de aprendizaje extremo (ELM)</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Según Huang [5], la función de salida de una red SLFN con <i>L</i>, nodos ocultos puede ser representada por:</font></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_ecuacion_02.gif" width="546" height="109"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Dónde: <i>g<sub>i</sub></i> denota la función de salida G(</font><font size="2"><i>a</i></font><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><sub>i</sub>, <i>b</i><sub>i</sub><i>, </i>x) del nodo oculto <i>i. </i>Para nodos aditivos con función de activación <i>g, g<sub>i</sub> </i>es definida como:</font></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_ecuacion_03.gif" width="551" height="36"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>2.2 Teoremas de interpolación</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Para [1] las <i>N </i>muestras distintas (<i>x</i><sub>i</sub>, <i>t<sub>i</sub></i>) </font><font face="Verdana" size="2"><font size=5>&isin;</font></font><font face="Verdana, Arial, Helvetica, sans-serif" size="2"> <i>R<sup>d</sup> </i>X <i>R<sup>m</sup>, </i>las redes neuronales monocapa de tipo &quot;feedforward&quot; con <i>L </i>nodos ocultos son matemáticamente modeladas como:</font></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_ecuacion_04.gif" width="546" height="40"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Estas SLFNs pueden aproximar estas <i>N</i> muestras con un error medio nulo <img src="/img/revistas/ran/v7n4/a07_ecuacion_04_1.gif" width="134" height="26" align="absmiddle"> es decir, existen (</font><font size="2"><i>a</i></font><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><sub>i</sub>, <i>b<sub>i</sub></i>) y <i>&#946;<sub>i</sub></i> tal que:</font></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_ecuacion_05.gif" width="546" height="36"></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Las ecuaciones anteriores pueden ser escritas de forma vectorial como: </font></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_ecuacion_06.gif" width="545" height="34"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Dónde:</font></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_ecuacion_06_1.gif" width="394" height="162"></p>     <p align="justify"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>2.3    Pasos para la implementación del algoritmo Extreme Learning Machine</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Para [3]. Dado un conjunto de entrenamiento <i>N = </i>{(<i>x<sub>i</sub></i>, <i>t<sub>i</sub></i>) <i>x<sub>i</sub></i> </font><font face="Verdana" size="2"><font size=5>&isin;</font></font> <font face="Verdana, Arial, Helvetica, sans-serif" size="2">R<sup>d</sup>, <i>t<sub>i</sub></i> </font><font face="Verdana" size="2"><font size=5>&isin;</font></font><font face="Verdana, Arial, Helvetica, sans-serif" size="2"> R<sup>m</sup>, <i>i</i> = 1, ...,<i>N</i>} , una función de salida de los nodos ocultos G(</font><font size="2"><i>a</i></font><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><i><sub>i</sub></i>, <i>b<sub>i</sub></i>,x), y un número de nodos ocultos <i>L</i>.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b><i>Paso 1</i></b><i>: </i>Generar de forma aleatoria los pesos de los nodos de la capa oculta (</font><font size="2"><i>a</i></font><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><i><sub>i</sub></i>,<i>b<sub>i</sub></i>)</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b><i>Paso 2.</i></b> Calcular la matriz de salida de la capa oculta <i>H.</i></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b><i>Paso 3: </i></b>Calcular los pesos de la capa de salida <i>&#946;</i>.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">El algoritmo Extreme Learning Machine puede trabajar con varios tipos de funciones de activación.</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><b>3.     Metodología</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>3.1 Dataset de entrenamiento</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">La investigación se concentra en el Valle Alto del departamento de Cochabamba. Los datos fueron proporcionados por el Servicio Nacional de Meteorología e Hidrología (SENAMHI), de 6 estaciones meteorológicas automatizadas que se encuentran en las poblaciones de Tarata, Arbieto, Punata, Cliza y San Benito (<a href="#f2">Figura 2</a>).</font></p>     <p align="justify"><a name="f2"></a></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_figura_02.gif" width="704" height="399"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">El periodo de Colecta de datos corresponde a diciembre de 2011 hasta agosto de 2015, se tienen 1.360 días observados. El tiempo entre mediciones que realizan las estaciones meteorológicas es de 15 min, como resultado se obtienen 96 mediciones por día, lo que nos proporciona entre todos los días observados y las 6 estaciones un dataset de 179.320 mediciones.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>3.2  Dataset de validación</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Para validar el modelo y demostrar la alta capacidad de adaptación del ELM se utilizaran dos nuevas estaciones meteorológicas la primera ubicada en la población de Tiquipaya (valle) y la segunda en la población de Arque (zona andina) del departamento de Cochabamba (<a href="#f3">Figura 3</a>).</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><a name="f3"></a></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_figura_03.gif" width="734" height="409"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Las variables de estudio en la investigación son:</font></p>     <blockquote>       <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">•  Temperatura relativa</font></p>       <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">•  Radiación Solar</font></p>       <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">•  Viento</font></p>       <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">•  Humedad</font></p>       <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">•  Precipitación</font></p> </blockquote>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">El motivo para el manejo de todas estas variables para entrenar la red neuronal con el algoritmo de ELM y no solo utilizar la temperatura, se debe a que la radiación y el viento son factores que favorecen la ocurrencia de una helada, debido al balance regional de radiación [7] como se ve en las <a href="#f4">figuras 4</a> y <a href="#f5">5</a>.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><a name="f4"></a></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_figura_04.gif" width="651" height="329"></p>     <p align="center"><a name="f5"></a></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_figura_05.gif" width="646" height="342"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">La lluvia y la humedad determinan el tipo de helada que se producirá [7].</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>3.3   Scipy</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Es una librería para la programación científica que comenzó su desarrollo en 2001 está escrita en Python. SciPy es una expansión de NumPy, que integra nuevos paquetes para el tratamiento científico de datos. Integra gran cantidad de funciones de procesamiento de imágenes, procesado de la señal, estadística, integración numérica.</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><b>4.     Resultados</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><b>Diseño y entrenamiento de un SLFN con el algoritmo Extreme Learning Machine (ELM)</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">En el proceso de preparación e integración de los datos meteorológicos Conforme con las convenciones de inteligencia artificial los datos fueron sometidos a un proceso de preparación e integración, en conformidad a las convenciones de Machime Learning. El resultado final del proceso es un dataset de entrenamiento con 178.450 mediciones meteorológicas sin datos faltantes ni aberrantes principalmente ocasionados por fallas en las estaciones metereol&oacute;gicas del SENAMHI, también se preparó un segundo dataset de validación con 14.535 mediciones meteorológicas.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">En un análisis exploratorio de los dos Dataset se obtuvieron los siguientes resultados:</font></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_tabla_01.gif" width="686" height="374"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Como se mencionó en la introducción del trabajo, en este trabajo de investigación se demuestra que con una estructura de red neuronal mono capa con propagación hacia adelante, utilizando el algoritmo de ELM (<a href="#f6">Figura 6</a>), se consiguen altos niveles de generalización similares o superiores a otros algoritmos y estructuras de redes neuronales.</font></p>     <p align="justify"><a name="f6"></a></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_figura_06.gif" width="642" height="382"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Los resultados obtenidos en la fase de entrenamiento del modelo se pueden apreciar en la <a href="#f7">Figura 7</a>, donde, la línea negra representa el valor real de la temperatura y los puntos rojos representan el valor de temperatura calculado por la red neuronal entrenada con el algoritmo ELM.</font></p>     <p align="justify"><a name="f7"></a></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_figura_07.gif" width="565" height="415"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Podemos notar que los puntos se encuentran dispersos alrededor de la línea negra central que corresponde a la intersección del valor medido y el valor calculado por la red neuronal, con un factor de correlación de Pearson <i>r = 0.9741</i></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">En la <a href="#f8">figura 8</a> se puede apreciar los resultados del dataset de validación para la red neuronal SLFN que ya estaba entrenado con el algoritmo ELM.</font></p>     <p align="justify"><a name="f8"></a></p>     <p align="center"><img src="/img/revistas/ran/v7n4/a07_figura_08.gif" width="552" height="414"></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">De la <a href="#f8">figura 8</a> se puede concluir que los resultados son mucho más densos alrededor del valor ideal, y un factor de correlación de Pearson <i>r=0.9894.</i></font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><b>5.     Conclusiones</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Como una técnica de aprendizaje, el algoritmo de ELM ha demostrado un buen potencial para resolver problemas de clasificación. Así, las principales conclusiones que se han podido sacar son las siguientes:</font></p>     <blockquote>       <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">•  La velocidad de aprendizaje de la red neuronal del tipo SLFN con el algoritmo ELM es extremadamente alta.</font></p>       <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">•  Tiene un bajo consumo de recursos de hardware.</font></p>       ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">•  Destaca por  su  simplicidad,  se  ha demostrado  cómo  una red puede  ser entrenada con pocos pasos.</font></p>       <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">•  El algoritmo permite una gran capacidad de generalización a la hora de afrontar problemas de clasificación. Se ha podido observar que aumentando el número de datos de entrenamiento se obtienen mejores resultados de forma progresiva porque se crea una red más potente y a su vez el aumento con lleva una disminución de la norma de los pesos de la capa de salida, lo que deriva en un aumento de la capacidad de generalización, suavizando la frontera de decisión y por lo tanto evitando el sobreajuste.</font></p> </blockquote>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><b>6.     Recomendaciones</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Se propone como líneas futuras de investigación, continuar explorando las capacidades de otras arquitecturas de redes neuronales, con el objetivo de explotar su capacidad de representación, compresión y clasificación de datos. Una buena aplicación podría ser la de entrenar esta estructura para que sea capaz de mejorar la frontera de predicción minimizando los falsos positivos.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">Implementar el ELM sobre otros tipos de redes neuronales nonocapas y multicapas con propagación hacia adelante y atrás para conocer las ventajas que ofrece este algoritmo sobre esas redes neuronales.</font></p>     <p align="justify">&nbsp;</p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><b>Referencias bibliográficas</b></font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[1]     G. Nan-Ying Liang, &quot;A Fast and Accurate On-line Sequential Learning Algorithm for Feedforward Networks,&quot; <i>IEEE Transactions on Neural Networks, </i>vol. 17, no. 6, pp. 1411-1426, 2006.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[2]     David A. Elizondo and Stephen G. Matthews, &quot;Recent Patents on Computational Intelligence, Centre for Computational Intelligence,&quot; Leicester, De Montfort University, 2009.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[3]     A. B. Crespo, Aprendizaje Máquina Multitarea mediante Edición de Datos y Algoritmos de Aprendizaje Extremo, Cartagena - Colombia: Universidad Politécnica de Cartagena, 2013.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[4]      E. Cambria, &quot;Extreme Learning Machines,&quot; <i>IEEE Intelligent Systems, </i>pp. 30-59, 2013.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[5]     Q. Huang, &quot;Extreme Learning Machine: Theory and Applications,&quot; <i>Neurocomputing, </i>no. 70(1-3), pp. 489-501, 2006.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[6]     S. Rajesh R., &quot;Extreme Learning Machines - A Review and State-of the art,&quot; <i>International Journal of wisdom based Computing, </i>vol. 1, pp. 35-48, 2011.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[7]     P. Q. Quispe, Redes neuronales evolutivas para la predicción de heladas, La Paz - Bolivia: UMSA, 2009.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[8]     Google, &quot;Buscador Google,&quot; 5 10 2015. [Online]. Available: www.google.com. [Accessed 5 Octubre 2015].</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[9]     J. m. m. Olmo, Desarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional, Cartagena - Colombia: Universidad Politécnica de Cartagena, 2013.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[10]   E. D. a. S. G. Matthews, Recent Patents on Computational Intelligence, Centre for Computational Intelligence, Leicester: University De Montfort, 2009.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[11]   A. P. Engelbrech, Computational Intelligence An Introduction, Wiley: University of Pretoria, 2007.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[12]   F. Fundación Española para la Ciencia y la tecnologia, Meteorologia y</font> <font face="Verdana, Arial, Helvetica, sans-serif" size="2">Climatologia, España: Fundación Española para la Ciencia y la tecnologia, FECYT, 2004.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[13]   Z. Huang Guang-Bin, &quot;Extreme Learning Machine: Theory and Applications,&quot; <i>Neurocomputing, </i>vol. 70, no. 1-3, pp. 489-501, 2006.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[14]   L. G. Matías Ramíre, Heladas, CENTRO NACIONAL DE PREVENCIÓN DE DESASTRES - CENAPRE, 2001.</font></p>     <p align="justify"><font face="Verdana, Arial, Helvetica, sans-serif" size="2">[15] S. B. Rampal Singh, &quot;Application of Extreme Learning Machine Method for Time Series Analysis,&quot; <i>International Journal of Intelligent Technology, </i>vol. 2, no. 4, pp. 256-262, 2007.</font></p>     <p align="justify">&nbsp;</p>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nan-Ying Liang]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Fast and Accurate On-line Sequential Learning Algorithm for Feedforward Networks]]></article-title>
<source><![CDATA[IEEE Transactions on Neural Networks]]></source>
<year>2006</year>
<volume>17</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>1411-1426</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Elizondo]]></surname>
<given-names><![CDATA[David A.]]></given-names>
</name>
<name>
<surname><![CDATA[Matthews]]></surname>
<given-names><![CDATA[Stephen G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Recent Patents on Computational Intelligence, Centre for Computational Intelligence]]></source>
<year>2009</year>
<publisher-loc><![CDATA[Leicester ]]></publisher-loc>
<publisher-name><![CDATA[De Montfort University]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Crespo]]></surname>
<given-names><![CDATA[A.B.]]></given-names>
</name>
</person-group>
<source><![CDATA[Aprendizaje Máquina Multitarea mediante Edición de Datos y Algoritmos de Aprendizaje Extremo]]></source>
<year>2013</year>
<publisher-loc><![CDATA[Cartagena ]]></publisher-loc>
<publisher-name><![CDATA[Universidad Politécnica de Cartagena]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cambria]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Extreme Learning Machines]]></source>
<year>2013</year>
<page-range>30-59</page-range><publisher-name><![CDATA[IEEE Intelligent Systems]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Huang]]></surname>
<given-names><![CDATA[Q.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Extreme Learning Machine: Theory and Applications]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>2006</year>
<volume>70</volume>
<numero>1-3</numero>
<issue>1-3</issue>
<page-range>489-501</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rajesh R.]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Extreme Learning Machines - A Review and State-of the art]]></article-title>
<source><![CDATA[International Journal of wisdom based Computing]]></source>
<year>2011</year>
<volume>1</volume>
<page-range>35-48</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Quispe]]></surname>
<given-names><![CDATA[P.Q.]]></given-names>
</name>
</person-group>
<source><![CDATA[Redes neuronales evolutivas para la predicción de heladas]]></source>
<year>2009</year>
<publisher-loc><![CDATA[La Paz ]]></publisher-loc>
<publisher-name><![CDATA[UMSA]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<label>9</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Olmo]]></surname>
<given-names><![CDATA[J. m. m.]]></given-names>
</name>
</person-group>
<source><![CDATA[Desarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional]]></source>
<year>2013</year>
<publisher-loc><![CDATA[Cartagena ]]></publisher-loc>
<publisher-name><![CDATA[Universidad Politécnica de Cartagena]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<label>10</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Matthews]]></surname>
<given-names><![CDATA[E. D. a. S. G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Recent Patents on Computational Intelligence, Centre for Computational Intelligence]]></source>
<year>2009</year>
<publisher-loc><![CDATA[Leicester ]]></publisher-loc>
<publisher-name><![CDATA[University De Montfort]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<label>11</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Engelbrech]]></surname>
<given-names><![CDATA[A. P.]]></given-names>
</name>
</person-group>
<source><![CDATA[Computational Intelligence An Introduction]]></source>
<year>2007</year>
<publisher-loc><![CDATA[Wiley ]]></publisher-loc>
<publisher-name><![CDATA[University of Pretoria]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<label>13</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Guang-Bin]]></surname>
<given-names><![CDATA[Z. Huang]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Extreme Learning Machine: Theory and Applications]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>2006</year>
<volume>70</volume>
<numero>1-3</numero>
<issue>1-3</issue>
<page-range>489-501</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>14</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Matías Ramíre]]></surname>
<given-names><![CDATA[L. G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Heladas]]></source>
<year>2001</year>
<publisher-name><![CDATA[CENTRO NACIONAL DE PREVENCIÓN DE DESASTRES - CENAPRE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<label>15</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rampal Singh]]></surname>
<given-names><![CDATA[S. B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Application of Extreme Learning Machine Method for Time Series Analysis]]></article-title>
<source><![CDATA[International Journal of Intelligent Technology]]></source>
<year>2007</year>
<volume>2</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>256-262, 2007</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
