Scielo RSS <![CDATA[TecnoLógicas]]> http://www.scielo.org.co/rss.php?pid=0123-779920190003&lang=es vol. 22 num. 46 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[El nuevo modelo de evaluación para la categorización de las revistas científicas colombianas: un zoom a los resultados en el área de ingeniería y tecnología]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300001&lng=es&nrm=iso&tlng=es <![CDATA[Agrupación de subespacios escasos en imágenes hiperespectrales usando pixeles incompletos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300006&lng=es&nrm=iso&tlng=es Abstract Spectral image clustering is an unsupervised method that identifies distributions of pixels using spectral information without requiring a previous training stage. Sparse subspace clustering methods assume that hyperspectral images lie in the union of multiple low-dimensional subspaces. Therefore, sparse subspace clustering assigns spectral signatures to different subspaces, expressing each spectral signature as a sparse linear combination of all the pixels, ensuring that the non-zero elements belong to the same class. Although such methods have achieved good accuracy for unsupervised classification of hyperspectral images, their computational complexity becomes intractable as the number of pixels increases, i.e., when the spatial dimensions of the image become larger. For that reason, this paper proposes to reduce the number of pixels to be classified in the hyperspectral image; subsequently, the clustering results of the missing pixels are obtained by exploiting spatial information. Specifically, this work proposes two methodologies to remove pixels: the first one is based on spatial blue noise distribution, which reduces the probability of removing neighboring pixels, and the second one is a sub-sampling procedure that eliminates every two contiguous pixels, preserving the spatial structure of the scene. The performance of the proposed spectral image clustering framework is evaluated using three datasets, which shows that a similar accuracy is achieved when up to 50% of the pixels are removed. In addition, said framework is up to 7.9 times faster than the classification of the complete data sets.<hr/>Resumen El agrupamiento de imágenes espectrales es un método no supervisado que identifica las distribuciones de píxeles utilizando información espectral, sin necesidad de una etapa previa de entrenamiento. Los métodos basados en agrupación de subespacio escasos suponen que las imágenes hiperespectrales viven en la unión de múltiples subespacios de baja dimensión. Basado en esto, la agrupación de subespacio escasos asigna firmas espectrales a diferentes subespacios, expresando cada firma espectral como una combinación lineal escasa de todos los píxeles, garantizando que los elementos que no son cero pertenecen a la misma clase. Aunque estos métodos han demostrado una buena precisión para la clasificación no supervisada de imágenes hiperespectrales, a medida que aumenta el número de píxeles, es decir, la dimensión de la imagen es grande, la complejidad computacional se vuelve intratable. Por este motivo, este documento propone reducir el número de píxeles a clasificar en la imagen hiperespectral y, posteriormente, los resultados del agrupamiento para los píxeles faltantes se obtienen explotando la información espacial. Específicamente, este trabajo propone dos metodologías para remover los píxeles: la primera se basa en una distribución espacial de ruido azul que reduce la probabilidad de que se eliminen píxeles vecinos; la segunda, es un procedimiento de submuestreo que elimina cada dos píxeles contiguos, preservando la estructura espacial de la escena. El rendimiento del algoritmo de agrupamiento de imágenes espectrales propuesto se evalúa en tres conjuntos de datos, mostrando que se obtiene una precisión similar cuando se elimina hasta la mitad de los pixeles, además, es hasta 7.9 veces más rápido en comparación con la clasificación de los conjuntos de datos completos. <![CDATA[Efectos de los métodos de molienda en la síntesis de polvos de Niobato de Sodio y Potasio por mezcla de óxidos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300020&lng=es&nrm=iso&tlng=es Abstract Piezoelectric materials are widely used in electronic devices and, traditionally, various lead-based materials have been implemented in such applications. However, because of the damage caused by lead, other materials with similar characteristics that do not cause a negative impact on human health and the environment have been developed. A material with those characteristics is potassium-sodium niobite, 𝐾0.5𝑁𝑎0.5𝑁𝑏𝑂3. In this study, we investigate the thermogravimetric, structural, and microstructural properties of powders of such system obtained through oxide mixing with the aim of establishing the effect and efficiency of grinding (using a horizontal and a planetary ball mill grinder) on the production of the final material. It was determined that horizontal grinding and calcination at 900°C create the optimal conditions for obtaining 𝐾0.5𝑁𝑎0.5𝑁𝑏𝑂3 powders, by oxide mixing, with the adequate structure and microstructure to continue the densification and/or doping processes.<hr/>Resumen Los materiales piezoeléctricos son ampliamente utilizados en dispositivos electrónicos. Tradicionalmente, para tales aplicaciones, se han utilizado diversos materiales a base de plomo; sin embargo, debido al daño causado por este elemento, se han desarrollado materias primas con características similares que no causen un impacto negativo a la sociedad o al medio ambiente. Un material con estas características es el niobato de potasio y sodio, 𝐾0.5𝑁𝑎0.5𝑁𝑏𝑂3. En este artículo, se realizaron análisis termogravimétricos, estructurales y microestructurales para los polvos del sistema 𝐾0.5𝑁𝑎0.5𝑁𝑏𝑂3 obtenidos mediante mezcla de óxido, con el objetivo de determinar el efecto y la eficiencia de la molienda utilizando molinos de bolas, planetario y horizontal en la etapa de mezcla de los reactivos, para la producción del polvo final. Se determinó que el uso de la molienda horizontal y la calcinación a 900 °C crean las condiciones óptimas para obtener polvos 𝐾0.5𝑁𝑎0.5𝑁𝑏𝑂3 con una estructura y microestructura adecuadas para continuar los procesos de densificación y/o dopaje. <![CDATA[Evaluación de los parámetros del proceso de congelación para la pulpa de Açaí]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300029&lng=es&nrm=iso&tlng=es Resumen La refrigeración y la congelación son procesos tradicionalmente utilizados en la conservación de alimentos. En el caso del açaí, una fruta brasilera, estas tecnologías corresponden a los métodos más empleados por la industria. La aplicación de modelos teóricos para la predicción de tiempos y temperaturas de congelación permite mantener un control eficaz de dicha operación. El objetivo de este trabajo fue estimar y evaluar el tiempo, temperatura y velocidad de dos procesos de congelación para pulpa de açaí, tanto convencional como criogénico. El tiempo de congelación convencional para el producto fue 153,68 ± 6,42 min, con mínimo error respecto a las ecuaciones de Pham (0,54 %) y Nagaoka (1,71 %). Para la congelación rápida, el tiempo fue de 100,56 ± 17,90 s (1,68 ± 0,29 min), siendo representado eficazmente por el modelo de Nagaoka (6,81 %). Las temperaturas de inicio de la congelación fueron, para la operación lenta y rápida, de -0,64 ± 0,02 °C y -2,91 ± 0,86 °C. Por medio de estos resultados, es posible obtener y validar correlaciones que permitan predecir efectivamente los tiempos de congelación de la pulpa de açaí fresca, al considerar los principales parámetros del proceso: geometría, temperatura del medio frio y composición del alimento.<hr/>Abstract Refrigeration and freezing have been traditionally used in food preservation. In the industry of açaí, a Brazilian fruit, they are the most common technologies. The application of theoretical models for predicting freezing times and temperatures allows an effective control of those operations. The objective of this work was to evaluate the time, temperature, and speed of two processes, conventional and cryogenic freezing, for açaí pulp. The conventional freezing time for said product was 153.68 ± 6.42 min, with a minimal error with respect to Pham’s (0.54 %) and Nagaoka’s (1.71 %) equations. The fast freezing time, in turn, was 100.56 ± 17.90 s (1.68 ± 0.29 min), which is efficiently represented by Nagaoka’s equation (6,81 %). The initial freezing temperatures for the slow and fast modes were -0.64 ± 0.02 °C and -2.91 ± 0.86 °C, respectively. Based on these results, correlations can be obtained and validated to effectively predict the freezing times of fresh açaí pulp considering the main parameters in the process: geometry, cold medium temperature, and food composition. <![CDATA[Métodos estadísticos para la evaluación de la susceptibilidad por movimientos en masa]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300043&lng=es&nrm=iso&tlng=es Resumen Existen diferentes métodos que permiten establecer a escalas regionales la susceptibilidad a la ocurrencia de movimientos en masa. Entre los métodos más utilizados se encuentran los métodos estadísticos bivariado y multivariado, los cuales exigen un inventario de procesos de remoción en masa. En el presente estudio se evalúa y zonifica la susceptibilidad por movimientos en masa en el norte de los Andes colombianos, región conocida como valle de Aburrá, por dos métodos estadísticos, uno de ellos bivariado, denominado Peso de la Evidencia, y recomendado por el Servicio Geológico Colombiano para estudios de amenaza en suelos rurales; y un segundo método estadístico tipo multivariado, denominado Regresión Logística, de amplio uso a nivel mundial. Para ambos casos, la construcción del modelo de susceptibilidad se realizó soportado en el histograma de frecuencias, correlación de Pearson, Análisis Discriminante y Análisis de Componentes Principales. Para evaluar el desempeño, la capacidad de predicción y los criterios de zonificación en alto, medio y bajo de cada uno de los métodos utilizados se utilizó el análisis ROC. Para la regresión logística se obtuvo un área bajo la curva del 76.8 % para el desempeño y 77.5 % para la capacidad de predicción, mientras que para el Peso de la Evidencia se obtuvo un 77.8 % en el desempeño y 77.5 % en la predicción, señalando resultados satisfactorios que permiten la incorporación de dichos resultados en los estudios básicos necesarios para la ordenación del territorio.<hr/>Abstract Evaluating and zoning mass movement landslide is a fundamental tool for land planning. There are different methods that help to establish in a regional scale landslide hazard. The most common methods are bivariate statistics and multivariate statistic, which need a landslide historical inventory. This study takes a place in the North of the Andes in a region of Colombia called Aburrá Valley, for evaluating and zoning landslide susceptibility by two methods, one of them is bivariate statistics called Weights of Evidence which is recommended by the Geological Service of Colombia for rural area, and the second one is a multivariate statistic method, called logistic regression, which is widely used worldwide. Both methods are supported in frequency histogram, Pearson correlation, Discriminant Analysis, and Principal Component Analysis. The accuracy of the landslide susceptibility maps produced from the two models is classified in high, medium and low by ROC analysis. The AUC plot estimation results showed that the susceptibility map using Logistic regression has a training accuracy of 76.5% and a prediction capacity of 77.5 %. The Weights of evidence method has the highest training accuracy of 77.8 % and a prediction of 77.5 %. This result allows to include the methods in territorial planning studies. <![CDATA[Estimación del potencial fotovoltaico mediante minería de datos en cuatro ciudades de Colombia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300065&lng=es&nrm=iso&tlng=es Resumen En este trabajo se analiza el potencial fotovoltaico en cuatro ciudades colombianas, gracias a la información recopilada en Bogotá, Cúcuta, Manizales y Pasto. La metodología propuesta utiliza técnicas de agrupamiento que se implementan mediante el uso del software MATLAB®. Se exponen dos algoritmos de comparación presentados: K-means y Fuzzy C-means, y uno de visualización que es el Análisis de componentes principales (PCA) que ayuda en el análisis de resultados. Este artículo muestra estudios previos relacionados con la minería de datos y se describen los algoritmos mencionados anteriormente. Por otro lado, los resultados y discusión más relevantes, que corresponden a la factibilidad de implementación de las micro-redes, se determinan mediante el cálculo del Factor de Capacidad.<hr/>Abstract This work analyzes the photovoltaic potential of four cities in Colombia-Bogotá, Cúcuta, Manizales, and Pasto-using information collected in situ and data mining strategies. The methodology of this study is based on clustering techniques implemented in MATLAB® software. Two comparison algorithms are presented: K-means, Fuzzy C-means, and an additional visualization algorithm, i.e., Principal Component Analysis (PCA), which supports results analysis. This article explores published studies regarding data mining and it describes the previously mentioned algorithms. On the other hand, the most relevant results and discussion, which are related to the feasibility of implementation of micro-grids, are determined by calculating the Capacity Factor. <![CDATA[Aplicación del modelo CE QUAL-W2: una aproximación a la estructura térmica en el embalse Miguel Martínez Isaza, Concordia, Antioquia, Colombia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300086&lng=es&nrm=iso&tlng=es Resumen La modelación de la temperatura contribuye a la gestión de embalses, ya que es posible crear escenarios con diferentes condiciones para predecir su respuesta ante los cambios climáticos y los procesos de mezcla. Con este trabajo se busca aportar elementos de análisis del funcionamiento e identificación de los forzantes que dominan la dinámica térmica de un embalse tropical de montaña. Se registró la temperatura y el nivel de agua en tres sitios del embalse durante tres muestreos. Además, se midieron los caudales de entrada y salida al embalse y se analizaron los registros climáticos históricos. Con esta información se construyeron los archivos de entrada del modelo bidimensional CE QUAL-W2, para simular cuatro escenarios climáticos (seco, lluvia, transición y el fenómeno El Niño). De las afluencias se evidenció que la quebrada Santa Mónica en términos hidrodinámicos ejerce su efecto hasta el sitio de captación; de otro lado, la quebrada la Nitrera presenta recirculaciones verticales que aumentan el tiempo de residencia lo que tiene consecuencias en la calidad del agua para este sector del embalse. Los resultados de este ejercicio preliminar de modelación indican que el comportamiento térmico del embalse responde de manera diferenciada según el escenario climático y la magnitud de las extracciones. Durante el fenómeno El Niño y ante un incremento del agua captada, el embalse disminuye el nivel de agua en cerca de un metro y aumenta su temperatura alrededor de 3°C en la zona central del embalse. Ante la tendencia de crecimiento del municipio, se espera mayores demandas de agua que deberán ser suplidas por el embalse, por lo que toman importancia las herramientas de modelación que apoyen la gestión ambiental y reduzcan el riesgo al desabastecimiento ante la vulnerabilidad al cambio de climático.<hr/>Abstract Hydrodynamic modelling of temperature is a tool that contributes to the management of reservoirs because it is possible to create scenarios with different conditions to predict the behavior facing the meteorological changes and the mixing processes. This work seeks to contribute elements of analysis to the functioning and identification of the external factors that dominate the thermal dynamics of a tropical reservoir of mountain. The temperature and the water level were registered in three places of the reservoir, during three campaigns of sampling. In addition, we measured the inflows and outflows to the reservoir and analyzed the climatic historical records. With this information the two-dimensional model CE QUAL-W2 archives was build, in order to simulate 3 climatic periods (dry, transition and wet) and one where El Niño is included. It is clearly demonstrated that Santa Mónica creek has a greater influence in the water extraction. The external factors like the increase of the water extraction and the climatic scenarios influence the temperature and availability of the reservoir, being El Niño scenario the most critical, where the reservoir approximately increases its temperature 3°C and the level of the water diminishes a meter. The reservoir is increasingly susceptible to the shortage of supplies and the decrease of quality in the scenes of drought with the increase of the resource demand. The model is a useful management tool of the reservoir for the future scenarios of climate change. <![CDATA[Aplicación del Internet de las cosas a través de una red de sensores inalámbricos en un cultivo de café para monitorear y controlar sus variables ambientales]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300101&lng=es&nrm=iso&tlng=es Abstract This article presents the application of the Internet of things (IoT), as a technological tool for the development of a wireless sensor network with the aim of monitoring and controlling a series of environmental variables affecting the cultivation of coffee and its final quality. The logical and physical design of the network and its devices was carried out, the sensors network was configured in a given field and the information of certain environmental variables was collected to be compared with a series of parameters already established. This procedure will allow the coffee growers to observe the behavior of these variables over time and set the generation of alerts or warnings when these measures are outside the established ranges. The study determined that the management of coffee cultivation is quite complex due to the large number of varieties found, the terrain and environmental variables affecting the production process and the final quality of the grain. It was also determined that the development and implementation of wireless sensor networks is possible today due to factors such as the reduction of device costs and the use of open source software, avoiding additional licensing values. Finally, based on the parameters analyzed, it was possible to establish that one of the main problems in coffee crops is the intense humidity that, in practice, can affect the performance of the sensors and their measurements.<hr/>Resumen En este artículo se presenta la aplicación del Internet de las cosas (IoT), como herramienta tecnológica para el desarrollo de una red inalámbrica de sensores, con el objetivo de monitorear y controlar una serie de variables ambientales que inciden en el cultivo del café y su calidad final. Se procedió al diseño lógico y físico de la red y sus dispositivos, se configuró la red de sensores en un terreno determinado y se procedió a recolectar la información de ciertas variables ambientales, para ser comparadas con una serie de parámetros ya establecidos, que permitirán al caficultor observar el comportamiento de dichas variables a través del tiempo y establecer la generación de alertas o advertencias cuando estas medidas se encuentran por fuera de los rangos establecidos. Una vez desarrollado el estudio se pudo determinar que el manejo del cultivo del café es bastante complejo, debido a la gran cantidad de variedades que se encuentran, el terreno y las variables de tipo ambiental que afectan el proceso de producción y la calidad final del grano. Además, se determinó que el desarrollo e implementación de redes inalámbricas de sensores es posible hoy en día por factores como la reducción de los costos de los dispositivos y el uso de software de código abierto, evitándose valores de licenciamiento adicionales. Finalmente, con base en los parámetros analizados, se pudo establecer que uno de los principales problemas en los cultivos de café es la humedad intensa, que en la práctica puede llegar a afectar el rendimiento de los sensores y sus mediciones. <![CDATA[Determinación de la incertidumbre en instrumentos en programas de ingeniería eléctrica]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300117&lng=es&nrm=iso&tlng=es Abstract When electrical engineering students start their instrumentation and measurement course, they have previously taken calculus, physics, probability, and statistics. However, they have problems to apply the knowledge they acquired to solve problems related to electrical measurements and variables in the profession, such as water flows, solar radiation, wind speed and water levels. This paper shows how to integrate all the concepts involved in the process to calculate measurement uncertainty in order to improve the way the results of measurements and/or error determination processes are described. For that purpose, this study presents an applied exercise and a methodological process by means of an example, where the value of a resistance is determined taking into account the data of voltage and current measurements and using few data. The objective is to focus the process on estimating Type A and Type B uncertainty and the factors that affect the measurement processes, such as uncertainty due to random variations of the measured signals, instrument defects, imprecision of the instruments, or their resolution. During the calculation of uncertainty proposed here, students use the probabilistic knowledge they have acquired after they determined the value of the uncertainty U from the combined uncertainty u𝑐 (R), where the coverage factor is taken into account. This allows us to learn about the importance of expressing the results with higher (+) or lower (-) values of uncertainty. In the exercise carried out in this work, R = 733.31 +/- 8.10 ohm.<hr/>Resumen Cuando los alumnos de Ingeniería Eléctrica inician el curso de Instrumentación y medidas, han visto previamente los cursos de Cálculo, Física, Probabilidad y Estadística; sin embargo, tienen problemas para aplicar los conocimientos adquiridos en la solución de problemas relacionados con mediciones, no solo eléctricas sino de las variables que tienen que ver con el ejercicio de la profesión como lo son: caudales de agua, radiación solar, velocidad del viento y niveles de agua. El artículo muestra cómo integrar todos los conceptos mencionados en el proceso de determinación de la incertidumbre en medidas, con el fin de mejorar la forma como se describen los resultados de los procesos de medición y/o determinación de errores. Con este propósito, se muestra el proceso metodológico descrito mediante un ejemplo para determinar el valor de una resistencia, teniendo en cuenta los datos de las medidas de voltaje y corriente, utilizando pocos datos. El objetivo es conocer la incertidumbre Tipo A, Tipo B y los factores que afectan los procesos de medida debida a: incertidumbre por variaciones aleatorias de las señales medidas, incertidumbre por defectos de los instrumentos, incertidumbre por imprecisión de los instrumentos e incertidumbre por resolución de los mismos. Durante el cálculo de la incertidumbre, el estudiante usa el conocimiento probabilístico adquirido después de determinar el valor de la incertidumbre U, a partir de la incertidumbre combinada u𝑐 (R), donde se tiene en cuenta el factor de cobertura. Esto permite aprender la importancia de expresar los resultados con valores superiores (+) o inferiores (-) de incertidumbre. Para el caso del ejercicio desarrollado: R = 733,31 +/- 8,10 ohm. <![CDATA[Desarrollo y prueba de un Sniffer en tiempo real de una red LoRawan usando GNU-Radio]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300130&lng=es&nrm=iso&tlng=es Abstract This paper shows the vulnerabilities present in a wireless sensor network implemented over a long-range wide area network (LoRaWAN) LoRaWAN, and identifies possible attacks that could be made to the network using sniffing and/or replay. Attacks on the network were performed by implementing a protocol analyzer (Sniffer) to capture packets. The Sniffer was implemented using the RTL2832U hardware and visualized in Wireshark, through GNU-Radio. Tests showed that data availability and confidentiality could be threatened through replay attacks with LoRa server verification using HackRF One and GNU-Radio hardware. Although the LoRaWAN specification has, frame counters to avoid replay attacks, under given the right conditions, this measure could be violated even deny service to the node on the server.<hr/>Resumen En este documento se muestran las vulnerabilidades presentes en una red de sensores inalámbricas implementada sobre una red de área amplia de largo alcance (LoRaWAN por sus siglas en inglés) LoRaWAN y se identifican los posibles ataques que se podrían realizar a la red usando sniffing y/o replay. Los ataques a la red se realizaron implementando un analizador de protocolos (Sniffer) para capturar los paquetes. El Sniffer se implementó utilizando el hardware RTL2832U y se visualizó en Wireshark, a través de GNU-Radio. Las pruebas mostraron que se pueden amenazar la disponibilidad y confidencialidad de los datos a través de ataques de replay con verificación en el LoRa server utilizando hardware HackRF One y GNU-Radio. Aunque la especificación LoRaWAN tiene contadores para evitar ataques de replay, bajo condiciones adecuadas se lograría vulnerar la red llegando a realizar la denegación del servicio del nodo en el servidor. <![CDATA[Análisis Cuasi-Dinámico de un sistema de distribución local con generación distribuida. caso de estudio: Sistema IEEE 13 Nodos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300140&lng=es&nrm=iso&tlng=es Abstract Distributed generation is one of the most accepted strategies to attend the increase in electrical demand around the world. Since 2014, Colombian government agencies have enacted laws and resolutions to promote and regulate the introduction of different generation technologies into the country’s electrical system. The incorporation of distributed generation systems into conventional distribution networks can cause problems if technical studies are not previously carried out to determine the consequences of the start of the operations of these new generation technologies. This scenario represents a new challenge for distribution networks operators because they must ensure that their systems can integrate these new generation sources without affecting the correct operation of the grid. In this article, the IEEE 13 nodes system is modified by incorporating the load curves of the three types of consumers in the Colombian electricity market into the model. Additionally, distributed generation systems from non-conventional sources of energy are integrated into two system nodes in order to perform a quasi-dynamic analysis of the different electrical variables, which can be used to determine the impact of these new technologies on a local distribution system. The voltage profiles and active and reactive power do not show considerable changes in the behavior of the electrical network; however, in the simulation scenarios where distributed generators are operating, the system exhibits a considerable increase in lines losses. There are two alternatives to manage these unusual levels in the operation of the nodes with distributed generation: (1) operating these new DG nodes in islanded mode or (2) strengthening the local distribution system through the implementation of new distribution lines in the network.<hr/>Resumen La generación distribuida es una de las estrategias más aceptadas para atender el aumento de la demanda de electricidad a nivel mundial. Desde el año 2014 las entidades gubernamentales en Colombia han emitido leyes y resoluciones para promover y regular la entrada en operación de diferentes tecnologías de generación, en el sistema eléctrico del país. Incorporar sistemas de generación distribuida en redes de distribución convencionales puede traer consigo problemas si previamente no se realizan los estudios que permitan determinar las consecuencias de la entrada en operación de estas nuevas tecnologías de generación. Este panorama representa un nuevo desafío para los operadores de las redes de distribución, ya que deben garantizar que los sistemas que administran puedan integrar estas nuevas fuentes de generación, sin afectar el correcto funcionamiento de la red eléctrica. En este artículo se modifica el sistema IEEE de 13 nodos incorporando las curvas de carga de los tres tipos de consumidores del sector eléctrico colombiano en las cargas del modelo y se integran sistemas de generación distribuida a partir de fuentes no convencionales de energía a dos nodos del sistema, con el objetivo de hacer un análisis cuasi-dinámico de las diferentes variables eléctricas que permitan determinar qué impacto tienen estas nuevas tecnologías en un sistema de distribución local. Como resultado, los perfiles de voltaje y potencia activa/reactiva no muestran cambios considerables en el comportamiento de la red eléctrica, pero sí se observa que, en los escenarios de simulación donde opera la generación distribuida, el sistema tiende a un aumento considerable en las corrientes y pérdidas presentes en las líneas. Así, se concluye que existen dos alternativas para no tener inconvenientes con la operación de los nuevos nodos con generación distribuida: operar de manera aislada esa parte del sistema o reforzar la red de distribución local a través de la implementación de nuevas líneas de distribución en el sistema. <![CDATA[Evaluación del aporte de la covarianza de las señales electroencefalográficas a las interfaces cerebro-computador de imaginación motora para pacientes con lesiones de médula espinal]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300158&lng=es&nrm=iso&tlng=es Resumen Las interfaces cerebro-computadora no invasivas basadas en EEG de maginación motora (miBCI) prometen restaurar efectivamente el control motor a pacientes con discapacidades motoras, por ejemplo, aquellos con lesión de la médula espinal (LME). Sin embargo, todavía es necesario investigar las miBCI, con fines de rehabilitación, para este tipo de pacientes que utilizan dispositivos de adquisición de señales EEG de bajo costo, tales como Emotiv EPOC. En este trabajo, se describe en detalle y se comparan diez arquitecturas miBCI basadas en información de covarianza de señales EEG, adquiridas con Emotiv EPOC, para la decodificación de intención de mano abierta y cerrada en tres sujetos control y dos pacientes con LME cervical. Cuatro de estas diez miBCI usan información de covarianza para construir filtros espaciales y el resto usa la información covarianza como una representación directa de las señales EEG, permitiendo la manipulación directa mediante geometría de Riemann. Como resultado, se encontró que, a pesar de que todas las arquitecturas miBCI tienen una precisión general por encima del nivel de azar, las que utilizan la covarianza como representación directa de las señales EEG junto con clasificadores lineales, superan las miBCI que usan la covarianza para el filtrado espacial, tanto en sujetos de control como en pacientes con LME. Estos resultados sugieren un alto potencial de las miBCI basadas en la geometría de Riemann para la rehabilitación de pacientes con LME, utilizando dispositivos de adquisición de EEG de bajo costo.<hr/>Abstract Non-invasive EEG-based motor imagery brain-computer interfaces (miBCIs) promise to effectively restore the motor control of motor-impaired patients with conditions that include Spinal Cord Injury (SCI). Nonetheless, miBCIs should be further researched for this type of patients using low-cost EEG acquisition devices, such as the Emotiv EPOC, for home rehabilitation purposes. In this work, we describe in detail and compare ten miBCI architectures based on covariance information from EEG epochs. The latter were acquired with Emotiv EPOC from three control subjects and two SCI patients in order to decode the close and open hand intentions. Four out of the ten miBCIs use covariance information to create spatial filters; the rest employ covariance as a direct representation of the EEG signals, thus allowing the direct manipulation by Riemannian geometry. We found that, although all the interfaces present an overall accuracy above chance level, the miBCIs that use covariance as a direct representation of the EEG signals together with linear classifiers outperform miBCIs that use covariance for spatial filtering, both in control subjects and SCI. These results suggest the high potential of Riemannian geometry-based miBCIs for the rehabilitation of SCI patients with low-cost EEG acquisition devices. <![CDATA[Análisis comparativo de algoritmos en paralelo de mapeo de actividad cerebral para modelos cerebrales de alta resolución]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300177&lng=es&nrm=iso&tlng=es Abstract This paper proposes a comparative analysis between regular and parallel versions of FISTA and Tikhonov-like optimizations for solving the EEG brain mapping problem. Such comparison is performed in terms of computational time reduction and estimation error achieved by the parallelized methods. Two brain models (high- and low-resolution) are used to compare the algorithms. As a result, it can be seen that, if the number of parallel processes increases, computational time decreases significantly for all the head models used in this work, without compromising the reconstruction quality. In addition, it can be concluded that the use of a high-resolution head model produces an improvement in any source reconstruction method in terms of spatial resolution.<hr/>Resumen En este artículo se propone un análisis comparativo entre versiones regulares y en paralelo de métodos de optimización FISTA y Tikhonov, para resolver el problema de mapeo cerebral a partir de EEG. La comparación se realiza en términos de la reducción del tiempo computacional y el error de estimación obtenido por los métodos paralelizados. Dos modelos de cabeza con alta y baja resolución son usados para la comparación de los algoritmos. Como resultado se puede ver que, si el número de procesos en paralelo se incrementa, el tiempo computacional disminuye significativamente para todos los modelos de cabeza, sin comprometer la calidad de la reconstrucción. Adicionalmente, se puede concluir que el uso de un modelo de cabeza de alta resolución resulta en una mejora de cualquier método de reconstrucción en términos de la resolución espacial. <![CDATA[Ciclo de vida y curvas en S aplicadas al cultivo de amaranto (Amaranthus spp.)]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300188&lng=es&nrm=iso&tlng=es Resumen Con el objetivo de evaluar las investigaciones desarrolladas en torno a la ecofisiología y el potencial alimentario de las semillas de amaranto, se realizó un proceso de vigilancia tecnológica a través del estudió del ciclo de vida de la producción bibliográfica, obtenida de documentos publicados en la base de datos Scopus, a través de curvas en S en relación con investigaciones encaminadas a la producción primaria, la interacción con las condiciones climáticas y su potencial agroindustrial. La información se analizó utilizando el paquete estadístico Sigmaplot, y la ejecución de 13 modelos junto con la aplicación de parámetros estadísticos como el R2 ajustado en relación al tiempo (t), la significancia (P) y la independencia de Durbin Watson, permitió calcular el punto de inflexión. Este se dio entre 2014 y 2038, según la serie de datos de artículos para el cultivo de amaranto; de 2017 a 2024 para el amaranto como alimento; y entre 2017 a 2018 para el clima de amaranto; lo que indica que en cada uno de los casos, el ciclo de vida se encuentra en fase entrante, clave y madura respectivamente y junto con las palabras clave asociadas a las ecuaciones de búsqueda, evidencian el interés agroindustrial, a partir de enfoques académicos, científicos y de innovación, para el fortalecimiento de líneas de investigación, proyectos de alto nivel y creación de spin-off.<hr/>Abstract In order to evaluate the research developed around the ecophysiology and the food potential of amaranth seeds, a process of technological surveillance was done through the life cycle of the bibliographic production, obtained from documents published in the database, was studied. Scopus, through S-curves in relation to research aimed at primary production, the interaction with climatic conditions and their agro-industrial potential. The information was analyzed using the Sigmaplot statistical package, and the execution of 13 models together with the application of statistical parameters such as the adjusted R2 in relation to time (t), significance (P) and independence of Durbin Watson, allowed calculating the inflection point. This occurred between 2014 and 2038, according to the series of data of articles for the cultivation of amaranth; from 2017 to 2024 for amaranth as food; and between 2017 to 2018 for the amaranth climate; which indicates that in each of the cases, the life cycle is in the incoming, key and mature phase, respectively, and together with the keywords associated with the search equations, they show the agro-industrial interest, based on academic, scientific approaches and innovation, to strengthen research lines, high-level projects and spin-off creation. <![CDATA[Combustión sin llama como una alternativa para mejorar la eficiencia de sistemas térmicos: revisión del estado del arte]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992019000300204&lng=es&nrm=iso&tlng=es Resumen El aumento de la demanda energética, así como de las emisiones contaminantes ha generado un incremento de la investigación de tecnologías que permitan mitigar ambas problemáticas a nivel mundial. Dentro de las alternativas para mejorar la eficiencia de los procesos térmicos, el régimen de combustión sin llama se presenta como una de las alternativas más promisorias, puesto que permite obtener altos valores del rendimiento térmico mediante el mejoramiento de la transferencia de calor y del proceso de combustión, con la consiguiente reducción de las emisiones contaminantes. Debido a esto, en el presente estudio se realiza una revisión del estado del arte de dicha tecnología, haciendo énfasis en los aspectos fenomenológicos asociados, las principales características del régimen y su estabilidad, pasando por los mecanismos de obtención y la presentación de una serie de estudios, tanto a nivel nacional como internacional, en los que se utilizaron combustibles fósiles y alternativos. La revisión finaliza con la discusión de algunos casos en los cuales se ha implementado el régimen a nivel industrial.<hr/>Abstract The increasing energy demand and polluting emissions have generated a growing number of studies into technologies that can be used to mitigate both problems worldwide. Among the alternatives for improving the efficiency of thermal processes, the flameless combustion regime has been presented as one of the most promising options because it enables high thermal performance by enhancing heat transfer and the combustion process, with the consequent reduction in polluting emissions. For that reason, this article reviews the state of the art of said technology, emphasizing the associated phenomenological aspects, the main characteristics of the regime, its stability, the mechanisms to obtain it, and a series of national and international studies in which fossil and alternative fuels were used. Finally, some cases in which such regime has been implemented at the industrial level are discussed.