Scielo RSS <![CDATA[Ingeniería y Universidad]]> http://www.scielo.org.co/rss.php?pid=0123-212620160002&lang=pt vol. 20 num. 2 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[<b>Efficient Home Energy Management based on Incentives of the Colombian Law 1715/2014</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-21262016000200001&lng=pt&nrm=iso&tlng=pt This paper proposes a home energy management model called GEDE, outlined in the Colombian Law 1715/2014. Different operation ways that can be applied in the proposed residential energy system are presented. The system has a variable topology, so that it is fed by distributed generation sources or by the interconnected system, and they are related to a control system. Three scenarios were analyzed: (1) Distributed generation during peak hours and the user manually activates the system; (2) the user decides to connect several loads that require high power levels in peak hours, and then the service of distributed generation is reserved until this hour to supply the high power, thus this scenario is semiautomatic, and (3) the system saves energy in an autonomous way through intelligent infrastructure controlling the appliances and lighting utilization. This proposal allows providing new energy consumption patterns through mechanisms that make a significant contribution to the efficient energy by utilizing monitoring, control, and supervision techniques together with distributed generation. In the proposal household users participate making decisions related to energy consumption and generation, through the incentives provided by Law 1715.<hr/>Este artículo propone un modelo de gestión de energía eléctrica domiciliaria (GEDE), en el marco de la Ley colombiana 1715 de 2014. Se plantean diferentes modos de operación que se pueden aplicar en el prototipo sugerido de la red de energía domiciliaria. El sistema es de topologia variable, de manera que se alimenta por fuentes de generación distribuida o por el sistema interconectado, y se relacionan con un sistema de control. Se analizaron tres escenarios: 1) generación distribuida en una hora pico, donde el usuario activa el sistema manualmente; 2) cargas prioritarias, donde el usuario decide qué conectar en las horas pico, y el servicio de generación distribuida se reserva para estas horas (este escenario es el semiautomático), y 3) sistema autónomo, donde se ahorra energía por medio de infraestructura inteligente que controla el uso de electrodomésticos e iluminación. Se prevé aportar nuevos esquemas de consumo de energía mediante dispositivos que aporten a la eficiencia energética empleando técnicas de monitoreo, control y supervisión de la energía, unidas a la generación distribuida. En esta propuesta, los usuarios domiciliarios tendrán participación en la toma de decisiones energéticas relacionadas con el consumo o generación, por medio de los incentivos ofrecidos en la Ley 1715. <![CDATA[<b>A Web-Forum Free of Disguised Profanity by Means of Sequence Alignment</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-21262016000200002&lng=pt&nrm=iso&tlng=pt Profanity is the use of offensive, obscene, or abusive vocables or expressions in public conversations. A big source of conversations in text format nowadays are digital media such as forums, blogs, or social networks where malicious users are taking advantage of their ample worldwide coverage to disseminate undesired profanity aimed at insulting or denigrating opinions, names, or trademarks. Lexicon-based exact comparisons are the most common filters used to prevent such attacks in these media; however, ingenious users are disguising profanity using transliteration or masking of the original vocable while still conveying its intended semantic (e.g. by writing piss as P!55 orp.i.s.s), hence defeating the filter. Recent approaches to this problem, inspired in the sequence alignment methods from comparative genomics in bioinformatics, have shown promise in unmasking such guises. Building upon those techniques we have developed an experimental Web forum (ForumForte) where user comments are cleaned of disguised profanity. In this paper we discuss briefly the techniques and main engineering artefacts obtained during the developing of the software. Empirical evidence reveals filtering effectiveness between 84% and 97% at vocable level depending on the length of the profanity (with more than four letters), and 86% at sentence level when tested in two sets of real user-generated-comments written in Spanish and Portuguese. These results suggest the suitability of the software as a language-independent tool.<hr/>Por su carácter ofensivo o vulgar, las obscenidades son palabras o expresiones consideradas inapropiadas en conversaciones públicas. Hoy en día es común encontrar en blogs, foros y redes sociales el uso de obscenidades para insultar a o denigrar de opiniones, personajes o marcas; una anomalía cuyo agravante es mayor si se tiene en cuenta la amplia cobertura mundial que pueden alcanzar. El uso de diccionarios de palabras vetadas como mecanismo de filtrado es insuficiente, debido a la versatilidad del lenguaje escrito, que permite a los usuarios inventar variantes con transliteraciones o enmascaramientos del texto (por ejemplo, cambiar mierda por mlerd@ o m.i.e.r.d.a). Inspirados en la genómica comparativa, se ha desarrollado un foro web experimental (ForumForte), donde los mensajes ingresados por los usuarios son inspeccionados y depurados de obscenidades transliteradas o enmascaradas. Este artículo presenta dicho software con una descripción breve de su diseño y su uso con datos reales de comentarios provenientes de medios digitales en español y portugués. La efectividad se ubicó entre 84 % y 97 % en la escala de palabra, dependiendo de la longitud de la obscenidad (para más de cuatro letras), y en 86 % en la escala de comentario. Estos resultados insinúan la utilidad del software para filtrado de obscenidades en foros web, independientes del idioma del usuario. <![CDATA[<b>MONO+KM</b>: <b>Knowledge Management in Collaborative Project Development</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-21262016000200003&lng=pt&nrm=iso&tlng=pt In the dynamics of collaborative project management, participating organizations make great efforts and provide technical, technological, and human resources to achieve a product they can hardly develop individually. Although there are tools to integrate, monitor, and manage processes for such projects, it is not uncommon to find technological support to manage the knowledge generated during their execution. Usually, this knowledge is part of the experience of participants but it is not recovered or documented nor is it used at an organizational level, thus losing an important asset. In this study we propose a technique in which a Knowledge Management (KM) approach is applied to the management of Collaborative Projects (CP) and where knowledge is expressed in terms of decisions. This is achieved through the analysis of interactions that occur among participants in these projects, the identification and recovery of decisions using Grounded Theory Method (GTM) techniques, and the specification of a set of concrete usage scenarios. The technique was applied in MONO, a framework for integration, control, and optimization of production processes in which digital content companies in the creative industry work collaboratively. The study provides an annotation model that, without being intrusive, allows for the recovery and structuring of knowledge expressed as decisions, thus making possible its replication in other domains.<hr/>En la dinámica de la gestión de proyectos colaborativos, las organizaciones participantes hacen grandes esfuerzos y aportan recursos técnicos, tecnológicos y humanos para conseguir un producto que difícilmente podrán desarrollar de forma individual. Aunque existen las herramientas para ello, no es común encontrar soporte tecnológico para gestionar el conocimiento generado durante su ejecución. Por lo general, este conocimiento hace parte de la experiencia de los participantes, pero ni se recupera, ni se documenta, ni se aprovecha en las organizaciones y se pierde así un importante activo. En este artículo se propone una técnica en la que se aplica un enfoque de administración de conocimiento a la gestión de proyectos colaborativos y donde el conocimiento se expresa en términos de decisiones. Esto se logra por medio del análisis de las interacciones verbales que se dan entre los participantes en este tipo de proyectos, la identificación y recuperación de decisiones mediante técnicas de Grounded Theory Method (GTM) y la especificación de un conjunto de escenarios concretos de uso. La técnica fue aplicada en MONO, un fra^w/ork para integración, control y optimización de procesos de producción de contenidos digitales en la que trabajan colaborativamente empresas de la industria creativa. El estudio provee un modelo de anotaciones que, sin ser intrusivo, permite recuperar y estructurar conocimiento expresado como decisiones, lo cual hace viable su reproducción en otros dominios. <![CDATA[<b>Development and Instrumentation of a Framework for the Generation and Management of Self-Adaptive EnterpriseApplications</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-21262016000200004&lng=pt&nrm=iso&tlng=pt Operations of companies have become over-dependent on their supporting enterprise software applications. This situation has placed a heavy burden onto software maintenance teams who are expected to keep these applications up and running optimally in varying execution conditions. However, this high human intervention drives up the overall costs of software ownership. In addition, the current dynamic nature of enterprise applications constitutes challenges with respect to their architectural design and development, and the guarantee of the agreed quality requirements at runtime. Efficiently and effectively achieving the adaptation of enterprise applications requires an autonomic solution. In this paper, we present SHIFT, a framework that provides (i) facilities and mechanisms for managing self-adaptive enterprise applications using an autonomic infrastructure, and (ii) automated derivation of self-adaptive enterprise applications and their respective monitoring infrastructure. Along with the framework, our work led us to propose a reference specification and architectural design for implementing self-adaptation autonomic infrastructures. We developed a reference implementation of SHIFT; our contribution includes the development of monitoring infrastructures, and dynamic adaptation planning and automated derivation strategies. SHIFT, along with its autonomic infrastructure and derived enterprise application, can provide a cost-effective mean to fulfill the agreed quality in these types of applications.<hr/>Las operaciones de las empresas se han vuelto excesivamente dependientes en sus aplicaciones empresariales. Esta situación ha puesto una carga sobre los equipos de mantenimiento de software, de quienes se espera que mantengan estas aplicaciones disponibles y funcionando óptimamente en diferentes condiciones de ejecución. Sin embargo, esta alta intervención humana hace subir los costos totales de propiedad del software; además, la actual naturaleza dinámica de las aplicaciones empresariales constituye retos respecto a su diseño arquitectónico y su desarrollo, y el cumplimiento en tiempo de ejecución de los escenarios de calidad acordados. Para lograr adaptar las aplicaciones empresariales con eficiencia y eficacia se requiere una solución autonómica. Este artículo presenta SHIFT, un marco de trabajo que provee: 1) servicios y mecanismos para la gestión de aplicaciones empresariales autoadaptativas mediante una infraestructura autonómica, y 2) derivación automatizada de aplicaciones empresariales autoadaptativas y su respectiva infraestructura de monitoreo. Junto con el marco de trabajo, el trabajo lleva a proponer una especificación de referencia y un diseño arquitectónico para implementar infraestructuras autonómicas para autoadaptación. Se desarrolló una implementación de referencia de SHIFT. Se incluye el desarrollo de infraestructuras de monitoreo y estrategias de planeación dinámica de adaptaciones y derivación automatizada. SHIFT, junto con su infraestructura autonómica y aplicaciones empresariales derivadas, puede proporcionar un mecanismo costo-efectivo para cumplir con la calidad acordada en este tipo de aplicaciones. <![CDATA[<b>Towards a Domain-Specific Language to Design Adaptive Software</b>: <b>the DMLAS Approach</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-21262016000200005&lng=pt&nrm=iso&tlng=pt An adaptive software has the ability to modify its own behavior at runtime due to changes in the users and their context in the system, requirements, or environment in which the system is deployed, and thus, give the users a better experience. However, the development of this kind of systems is not a simple task. There are two main issues: (1) there is a lack of languages to specify, unambiguously, the elements related to the design phase. As a consequence, these systems are often developed in an ad-hoc manner, without the required formalism, augmenting the complexity in the process of derivation of design models to the next phases in the development cycle. (2) Design decisions and the adaptation model tend to be directly implemented into the source code and not thoroughly specified at the design level. Since the adaptation models become tangled with the code, system evolution becomes more difficult. To address the above issues, this paper proposes DMLAS, a Domain-Specific Language (DSL) to design adaptive systems. As proof of concept, this paper also provides a functional prototype based on the Sirius plugin for Eclipse. This prototype is a tool to model, in several layers of abstraction, the main components of an adaptive system. The notation used both in the models and the tool was validated against the nine principles for designing cognitively effective visual notations presented by Moody.<hr/>Un software adaptativo es capaz de modificar su comportamiento en tiempo de ejecución debido a cambios en el sistema, en los requisitos o en el entorno en el que se despliega. La importancia del software adaptativo radica en el hecho de que puede ajustar su propio comportamiento a diferentes entornos y contextos, y por lo tanto, dar a los usuarios una mejor experiencia. Sin embargo, el desarrollo de sistemas adaptativos no es una tarea sencilla, por dos inconvenientes: 1) faltan lenguajes para especificar los elementos relacionados con la fase de diseño. Como consecuencia, estos sistemas se desarrollan a menudo en una manera ad-hoc, sin el formalismo requerido, dificultando el proceso de derivación de modelos de diseño para las siguientes fases del ciclo de desarrollo.2) las decisiones de diseño y el modelo de adaptación tienden a ser implementados directamente en el código y no se especifican a nivel de diseño. Cuando los modelos de adaptación se acoplan directamente con el código, la evolución del sistema se vuelve más difícil. Para hacer frente a los problemas mencionados, este artículo propone DMLAS, un lenguaje específico de dominio para el diseño de sistemas adaptativos. Como prueba de concepto, este artículo proporciona un prototipo funcional basado en el plugin Sirius para Eclipse. El propototipo desarrollado es una herramienta que permite modelar, en varios niveles de abstracción, los principales componentes de un sistema adaptativo. La notación usada tanto por los modelos como por la herramienta ha sido validada de acuerdo con los nueve principios formulados por Moody. <![CDATA[<b>Process Simulation-Based Improvements to Maximize Naphtha Production in an Existing Gas Processing Plant</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-21262016000200006&lng=pt&nrm=iso&tlng=pt This study estimates the parameters for the proper operation of each one of the process stages (compression, cooling, and separation) in an existing gas processing plant, which processes 1.5 million standard cubic feet per day (MMSCFD). The study also proposes changes in some existing operational equipment to maximize the production of naphtha, which translates into an improved efficiency in each analyzed stage and an improved production rate of fuel gas, liquefied petroleum gas (LPG) and naphtha, which are current products of the plant. First, the gas plant was simulated using the Aspen HYSYS® V7.3 software with the current operational plant conditions and the measured properties of the fluids (gas chromatography for input gas, fuel gas, and LPG). Subsequently, unidimensional searches were performed via sensitivity analyses of the key stages of the process to obtain suitable parameters for improving naphtha production. This resulted in a maximum naphtha recovery rate of 99.13% (which is an improvement over the current recovery rate of 82.79%) and an increase in naphtha quality of 20.85%. The study allowed to have a sensibility analysis for nafta recovery, which provides a tool for decision-making and establishes a basis for analyzing other plants<hr/>Este artículo busca determinar los intervalos de operación adecuados en diferentes etapas de proceso (compresión, enfriamiento y separación) de una planta de gas existente y diseñada para procesar 1.5 millones de pies cúbicos estándar por día (MMSCFD) de gas, así como modificar algunos equipos operacionales existentes en busca de maximizar la producción de nafta, lo cual significa una mayor eficiencia en cada etapa analizada y mayor rendimiento en la producción de fuel gas, gases licuados de petróleo (GLP) y nafta, que son los productos actuales de la planta. En primera instancia, se llevó a cabo la simulación del proceso según las condiciones operacionales actuales de la planta y las propiedades monitoreadas de los fluidos manejados (cromatografía de gases para el gas de entrada, fuel gas y GLP). Este procedimiento se llevó a cabo con el software de simulación Aspen HYSYS® V7.3. Posteriormente, se llevaron a cabo búsquedas unidimensionales mediante casos de sensibilidad en las etapas clave del proceso y con esto se obtuvieron parámetros adecuados en cada etapa que permiten mejorar la producción de nafta. Con los resultados obtenidos se logró realizar una sensibilidad para maximizar la recuperación de nafta, lo que brinda una herramienta en toma de decisiones y propone bases de análisis para su utilización en otras plantas. <![CDATA[<b>Adaptation of the L-Moments Method for the Regionalization for Maximum Annual Temperatures in Colombia</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-21262016000200007&lng=pt&nrm=iso&tlng=pt The present study has developed a regional frequency analysis for Annual Maximum Temperature (AMT) in the hydrographic basins of Colombia. The L-moments methodology was applied for the regionalization. Five stages were considered to apply the methodology: data analysis; the L-Moments estimation; identification of homogeneous regions; fit of probability density functions (pdf) to observed data and estimation of quantile values; and finally, the developing and drawing of regionalized maps. Overall, fifteen homogeneous regions were identified and selected for the regionalization of AMT, which meet specific criteria of homogeneity and discordance. Several pdf for regional frequency analysis were tested in order to select the best probability function. Finally, regionalized temperature maps were generated for several return periods. Using the L-Moments methodology, the regionalization procedure was done using the average of AMT as the key scale parameter. The regionalization procedure ensures, as far as possible, a coherent-basin approach: the boundaries between homogeneous regions were drawn, complying with the catchment borders.<hr/>Para este artículo se desarrolló un análisis de frecuencia regional para las temperaturas máximas anuales (TMA) en las cuencas hidrográficas de Colombia. Se ha aplicado la metodología de los L-moments para efectuar la regionalización. Se consideraron cinco etapas para aplicar esta metodología: análisis de datos, cálculo de los L-Moments, identificación de regiones homogéneas, ajuste de funciones de densidad de probabilidad (pdf) y cálculo de los cuantiles. Por último se construyeron mapas regionalizados de TMA. Se conformaron quince regiones para la regionali-zación de la TMA, las cuales cumplieron con los criterios establecidos de homogeneidad y discordancia. Se probaron distintas pdf para el análisis regional de frecuencia, con el fin de seleccionar la mejor de ellas para el cálculo de los cuantiles. Finalmente, se trazaron mapas de temperatura máxima anual para distintos periodos de retorno. Al utilizar la metodología de los L-Moments se puede regionalizar aplicando como parámetro de escala clave el promedio de las temperaturas máximas anuales. El procedimiento de regionalización asegura, en la medida de lo posible, una aproximación cuenca-coherente: los límites entre las regiones homogéneas fueron trazados obedeciendo las divisorias entre cuencas. <![CDATA[<b>A Maximum Power Point Tracking Algorithm for Photovoltaic Systems under Partially Shaded Conditions</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-21262016000200008&lng=pt&nrm=iso&tlng=pt This paper shows a modification of the traditional 'perturb and observe' algorithm used to the maximum power point tracking in photovoltaic systems. The proposal is justified by the need of algorithms to track the global maximum power point in solar panels connected in series under partially shaded conditions. The proposal tracks the global maximum power point avoiding the previous iterative search in local maximums. The algorithm performance is evaluated by simulations in the software PSIM and its behavior is compared with the traditional perturb and observe algorithm. The results show the outstanding performance of the modified algorithm in the tracking of the global maximum power point under different non uniform conditions of temperature and irradiance in the solar array.<hr/>En este artículo se propone una modificación al algoritmo de perturbar y observar tradicional utilizado para el seguimiento del punto de máxima potencia en sistemas fotovol-taicos. El trabajo se encuentra justificado en la necesidad de disponer de algoritmos con los cuales encontrar el máximo global de potencia en paneles solares fotovoltaicos en conexión serie cuando están expuestos a condiciones de sombras parciales. El algoritmo propuesto realiza el seguimiento del máximo global de potencia y evita la búsqueda iterativa previa en máximos locales. El desempeño del algoritmo se evalúa por medio de simulaciones en el software PSIM y su funcionamiento se compara con el algoritmo de perturbar y observar tradicional, donde se evidencia la eficacia del algoritmo modificado en el seguimiento del máximo global bajo diferentes condiciones no uniformes de irradiancia y temperatura en el conjunto de paneles. <![CDATA[<b>Sources and Coded Aperture Transmittance Analysis in Compressive Computed Tomography</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-21262016000200009&lng=pt&nrm=iso&tlng=pt Computed tomography (CT) allows the three-dimensional internal structure reconstruction of an object illuminated with X-ray light. In CT, a set of two-dimensional projections are taken to reconstruct the underlying object structure. The number of projections needed for sensing a CT scene is determined by the Nyquist limit. In some cases, the imposed projections number is excessive. Compressive sensing (CS) has emerged as a new sampling technique requiring fewer projections than those specified by the Nyquist criterion. Instead of measuring the samples directly, they are encoded before being integrated into the detector. This paper describes a CS system for CT based on coded apertures. An optimized value of transmittance and an aperture distribution are selected such that the quality of reconstruction is maximized. Simulations show that results in reconstruction with 50% of measurements are comparable with the traditional CT method based on Nyquist criterion. Similarly, results indicate that the PSNR of reconstructed images can be controlled according to the number of projections taken.<hr/>La tomografía computarizada (TC) permite la reconstrucción tridimensional de la estructura interna de un objeto que es iluminado con rayos X. En TC se toman un conjunto de proyecciones bidimensionales para luego reconstruir la estructura del objeto. El número de proyecciones necesarias para realizar el muestreo de una escena en TC se determina por el límite de Nyquist. En algunos casos, el número de proyecciones impuestas es excesivo. El muestreo compresivo (CS) ha emergido como una nueva técnica de muestreo que requiere un número menor de proyecciones que las especificadas por el criterio de Nyquist. En lugar de medir las muestras directamente, en CS, son codificadas antes de integrarse en el detector. En este trabajo se describe un sistema de CS para TC basado en aperturas codificadas. Se realiza la selección de los valores óptimos de transmitancia y la distribución de aperturas que garantizan una reconstrucción eficiente. Las simulaciones realizadas muestran que los resultados de las reconstrucciones con el 50 % de las medidas son comparables con las del método tradicional. Igualmente, los resultados indican que las imágenes reconstruidas tienen un PSNR que puede controlarse de acuerdo con el número de proyecciones tomadas.