Scielo RSS <![CDATA[Revista Facultad de Ingeniería Universidad de Antioquia]]> http://www.scielo.org.co/rss.php?pid=0120-623020130003&lang=pt vol. num. 68 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[<B>Editorial</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300001&lng=pt&nrm=iso&tlng=pt <![CDATA[<B>A simplification to the fast FIR-FFT filtering technique in the DSP interpolation process for band-limited signals</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300002&lng=pt&nrm=iso&tlng=pt Frequently, when great amounts ofsampled data are manipulated, it is necessary to reduce them to a fraction that truly represents the data. Here two elements are important; neither is it desirable for the amount of data to be too extensive; nor is it desirable to lose key information. For the data econstruction,it is often required a interpolation technique. This work proposes an optimization of the fast FIR filtering-based DSP interpolation technique. The resulting interpolator is a feasible, simplified version of hardware implementations, which is ideal for the reconstruction of band-limited signals with adequate sampling. In case studies included in this work, wind and temperature signals are used. The temperature signal has a suitable sampling rate and with the use of the interpolator it presents an error of 3.95% for a reduction of 99.61% of the data. The wind signal is very unpredictable and it does not have a suitable sampling rate. Hence, the interpolator does not improve the reconstruction of the signal in comparison to the averages. Typically, an average signal value is recorded for each 10 minute period, in which, the wind signal presents an error 8.6 times greater than the temperature signal. In order to reduce this error in the wind signal, it is recommended to increase the sampling rate and the quantization levels in measurement equipment.<hr/>En ocasiones cuando se manipula una gran cantidad de datos muestreados, se requiere reducir dicha cantidad para conservar solo una representación de estos. Aquí dos aspectos son importantes; por un lado no se quiere que la cantidad de datos sea demasiado extensa y por el otro no se quiere perder información. Para la reconstrucción de datos generalmente se requiere de una interpolación. En este trabajo se presenta una optimización a la técnica de interpolación digital basada en el filtrado rápido FFT. El interpolador resultante es una versión simplificada factible de implantaciones hardware, que resulta ideal para la reconstrucción de señales pasa-bajas, con muestreo adecuado. Como casos de estudio se utilizan señales de viento y temperatura. La señal de temperatura, tiene un muestreo adecuado y con el uso del interpolador presenta un error de 3.95% para una reducción del 99.61% de datos. La señal de viento es caótica y no tiene un muestreo adecuado por lo que el interpolador no mejora la reconstrucción de la señal en comparación a los promedios. Típicamente estas señales se almacenan en promedios de 10 minutos, en las cuales, la señal de viento presenta un error 8.6 veces mayor que la señal de temperatura. Para reducir este error en la señal de viento es recomendable aumentar la velocidad de muestreo y los niveles de cuantización en equipos de medición de dicha señal. <![CDATA[<B>Non-linear joint transform correlator for micro-displacement measurement using speckle patterns</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300003&lng=pt&nrm=iso&tlng=pt This work presents a procedure for measuring displacements of tens micrometer, in one and two dimensions, based on the correlation between two speckle patterns. For this purpose, two objective speckle patterns are recorded by a digital camera -one before and one after the object has been moved- and placed in the input plane of nonlinear joint transform correlator. Nonlinear transformation of the joint power spectrum allows a sharper correlation peak and a high signal to noise ratio. The autocorrelation peak coordinates of the first pattern are set as a reference for measuring shifts of the successive cross-correlation peak. One criterion for reliable measure is proposed. Results related with different distances sample-sensor and illuminating wavelengths at 632.8 nm and 543.5 nm are presented.<hr/>Se presenta un procedimiento para medir desplazamiento en el rango de micrones, en una y dos dimensiones, basado en la correlación conjunta de patrones de speckle (moteado característico de la superficie iluminada por un láser). Para este propósito, dos patrones de speckle por propagación libre, registrados por una cámara digital, uno antes y otro después del movimiento de la superficie objeto, se colocan en el plano de entrada de un correlador de transformada conjunta. Una transformación no lineal de la densidad espectral de energía logra una alta razón señal a ruido en el plano de salida del correlador. Las coordenadas del pico de autocorrelación, del primer patrón se colocan como origen para medir los desplazamientos sucesivos del pico de correlación cruzada. Se propone un criterio para determinar el rango de medida confiable y se presentan algunos resultados para diferentes distancias superficie-sensor y longitud de onda del láser. <![CDATA[<B>Cryptanalysis and improvement of Chen-Hsiang- Shih's remote user authentication scheme using smart cards</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300004&lng=pt&nrm=iso&tlng=pt Recently, Chen-Hsiang-Shih proposed a new dynamic ID-based remote user authentication scheme. The authors claimed that their scheme was more secure than previous works. However, this paper demonstrates that their scheme is still unsecured against different kinds of attacks. In order to enhance the security of the scheme proposed by Chen-Hsiang-Shih, a new scheme is proposed. The scheme achieves the following security goals: without verification table, each user chooses and changes the password freely, each user keeps the password secret, mutual authentication, the scheme establishes a session key after successful authentication, and the scheme maintains the user's anonymity. Security analysis and comparison demonstrate that the proposed scheme is more secure than Das-Saxena-Gulati's scheme, Wang et al.'s scheme and Chen-Hsiang-Shih.<hr/>Recientemente, Chen-Hsiang-Shih propusieron un nuevo esquema de autenticación de usuario remoto basado en un identificador dinámico. Los autores afirman que su esquema es más seguro que los trabajos previos. Sin embargo, se demuestra que su esquema continúa siendo inseguro contra diferentes tipos de ataques. Con el fin de mejorar la seguridad del esquema propuesto por Chen-Hsiang-Shih, se propone un esquema que consigue los siguientes objetivos de seguridad: el esquema no requiere de una tabla de verificación, cada usuario elige y cambia su contraseña libremente, cada usuario mantiene su contraseña en secreto, el esquema requiere autenticación mutua, el esquema establece una clave de sesión después de una autenticación correcta, y el esquema mantiene el anonimato del usuario. El análisis de seguridad y la comparación demuestran que nuestro esquema es más seguro que el esquema propuesto por Das-Saxena-Gulati, Wang-Liu-Xiao-Dan, y Chen-Hsiang-Shih. <![CDATA[<B>Library for model-based design of image processing algorithms on FPGAs</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300005&lng=pt&nrm=iso&tlng=pt This paper describes a library (XSGImgLib) that includes parameterizable blocks to implement low-level image processing tasks on FPGAs. A model&shy;based design technique provided by Xilinx System Generator (XSG) has been used to design the blocks, which implement point operation (binarization) and neighborhood operations (linear and non-linear filtering) in grayscale images. The blocks are parameterizable for input/output data precision, window size, normalization strategy, and implementation options (area versus speed optimization). The paper includes the implementation results obtained after fixing these options and exemplifies the combination of several blocks of the library to build a complete design for image segmentation purposes.<hr/>Este artículo describe una biblioteca de bloques parametrizables (XSGImgLib) para la implementación de tareas de procesado de imágenes en FPGA. Se ha utilizado la técnica de diseño basado en modelos proporcionada por Xilinx System Generator (XSG) para diseñar diferentes bloques de procesado que implementan operaciones puntuales (binarización) y basadas en vecindad (filtros lineales y no-lineales) para imágenes en escala de grises. La parametrización de los bloques permite configurar la precisión de los datos de entrada/salida, el tamaño de la ventana, la estrategia de normalización y distintas opciones de implementación (optimización en área o velocidad). El artículo muestra los resultados de implementación para las diferentes opciones de configuración y ejemplifica la combinación de los bloques de procesado en el desarrollo de un sistema para segmentado de imágenes. <![CDATA[<B>Efficient hardware implementation of a full COFDM processor with robust channel equalization and reduced power consumption</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300006&lng=pt&nrm=iso&tlng=pt This work presents the design of a 12 Mb/s Coded Orthogonal Frequency Division Multiplexing (COFDM) baseband processor for the standard IEEE 802.11a. The COFDM baseband processor was designed by using our designed circuits for carrier phase correction, symbol timing synchronization, robust channel equalization and Viterbi decoding. These circuits are flexible, parameterized and described by using generic structural VHDL. The COFDM processor has two clock domains for reducing power consumption, it was synthesized on a Stratix II FPGA, and it was experimentally tested by using 2.4 GHz Radio Frequency (RF) circuitry.<hr/>Este trabajo presenta el diseño de un procesador banda-base para multiplexación por división de frecuencias ortogonales codificada (COFDM) de 12 Mb/s para el estándar IEEE 802.11a. El procesador COFDM banda-base fue diseñado usando circuitos diseñados por nosotros para corrección de fase de portadora, sincronización de tiempo de símbolo, ecualización de canal robusta y decodificación Viterbi. Estos circuitos son flexibles, parametrizados y descritos usando VHDL estructural y genérico. El procesador COFDM banda- base tiene dos dominios de reloj para reducción del consumo de potencia, fue sintetizado sobre un FPGA Stratix II y fue probado experimentalmente usando circuitería de radio frecuencia (RF) a 2.4 GHz. <![CDATA[<B>Managing and developing distributed research projects in software engineering by means of action-research</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300007&lng=pt&nrm=iso&tlng=pt Participation in software research projects involving several organizations (research groups, enterprises, etc) scattered all around the world is an increasingly frequent phenomenon. The geographical distribution of the organizations entails the research projects development and management taking suitable Software Engineering research methods which must satisfy the acquired commitments as well as the new coming challenges. In that respect, this paper discusses how the Action-research qualitative method can be suitable for managing and developing software engineering distributed research projects. Furthermore, we propose a strategy to guide the use of Action-research in the context of distributed research projects. The application of this strategy in a research project, in which more than 10 enterprises and 27 research groups from 13 countries from Latin-America plus Portugal and Spain took part, is also illustrated. We observed that the use of the proposed strategy was able to provide the research managers with: (i) a suitable research project centralized administration, and (ii) appropriate coordination and apportioning of the research responsibilities for the research products construction and validation. It is important to highlight that the proposed strategy is a new way of applying the Action-research method in Software Engineering.<hr/>Cada vez es más frecuente que proyectos de investigación relacionados con software involucren diferentes organizaciones (grupos de investigación, empresas, etc.) repartidos por todo el mundo. Esta distribución geográfica implica que para el desarrollo y la gestión de estos proyectos de investigación se debe asumir un adecuado método de investigación de Ingeniería del Software que satisfaga los compromisos adquiridos, así como los desafíos adicionales que puedan surgir. En este sentido, el presente artículo analiza cómo el método de investigación cualitativo investigación-acción puede ser adecuado para gestionar y desarrollar proyectos de investigación distribuidos en el campo de ingeniería de software. Además, se propone una estrategia para orientar el uso del método de investigación-acción en el marco de proyectos de investigación realizados de manera distribuida. También se muestra en este artículo la aplicación de la estrategia propuesta en un proyecto de investigación que involucró más de 10 empresas y 27 grupos de investigación de 13 países de Iberoamérica. Se ha observado que el uso de esta estrategia proporcionó a los gestores de investigación: (i) una adecuada administración centralizada del proyecto de investigación, y (ii) una apropiada coordinación y reparto de las responsabilidades de investigación para la construcción y validación de los productos de investigación. Es importante resaltar que la estrategia propuesta es una nueva forma de aplicar el método de investigación-acción en Ingeniería de Software. <![CDATA[<B>Reducing the hardware requirements in FPGA- based controllers</B>: <B>a photovoltaic application</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300008&lng=pt&nrm=iso&tlng=pt Single-phase grid connected photovoltaic systems suffer from voltage oscillations due to the difference between the average power produced by the source and the pulsating instantaneous power injected into the grid. Such voltage variations have a detrimental effect on the power production. This paper proposes a solution for mitigating the oscillations at the source terminals minimizing the hardware resources required to implement the technique in a FPGA device, allowing its coexistence with additional control algorithms in a single device. The effectiveness of the approach was experimentally validated, and its FPGA resources requirement was contrasted with commercial IP cores based solutions.<hr/>Sistemas fotovoltaicos monofásicos experimentan oscilaciones de voltaje debido a la diferencia entre la potencia promedio generada y la potencia instantánea inyectada a la red. Estas oscilaciones de voltaje degradan la producción de potencia. Este artículo propone una solución para mitigar las oscilaciones propagadas a las terminales del generador, la cual minimiza los recursos de hardware requeridos para implementar la técnica de compensación de un dispositivo FPGA, permitiendo su coexistencia con algoritmos de control adicionales en un solo dispositivo. La efectividad de la solución se valida experimentalmente, y sus requerimientos de hardware se contrastan con soluciones basadas en plataformas comerciales. <![CDATA[<B>Molecular dynamics simulations of nanoindentation in Cr, Ni, and Ni/Cr bilayer films using a hard spherical potential</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300009&lng=pt&nrm=iso&tlng=pt Molecular dynamics (MD) simulations of nanoindentation using the hard sphere potential were carried out for Cr, Ni and Ni/Cr bilayer thin films with interaction of BCC and FCC single-crystal and the contact between the Cr- Ni. On the other hand, fixed boundary conditions were used and the repulsive radial potential was employed for modeling the interaction between the tip and sample surface. Mechanical properties of the material at 300 K were obtained for Cr and Ni thin films and Ni/Cr bilayers. Hardness and elastic parameters were determined from the load-unload curves obtained by means of the simulations. These results show a better mechanical response in the case of bilayers compared to the Ni and Cr monolayers.<hr/>Se empleó la simulación por dinámica molecular de nanoindentación usando el potencial de esfera dura en películas delgadas de Cr, Ni y bicapa de Ni/ Cr con interacción mono-cristal BCC y FCC y contacto entre el Cr y Ni. Por otro lado, se consideraron condiciones de frontera fijas y el potencial radial repulsivo fue usado para modelar la indentación entre la punta y la superficie de la muestra. Propiedades mecánicas del material a 300 K fueron obtenidas para las películas delgadas de Cr, Ni y bicapa de Ni/Cr. Los parámetros elásticos y de dureza fueron obtenidos de las curvas de carga y descarga generadas de la simulación. Estos resultados muestran una mejor respuesta mecánica en la bicapa comparado con las monocapas de películas delgadas de Ni y Cr. <![CDATA[<B>Automated design of customized implants</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300010&lng=pt&nrm=iso&tlng=pt This paper presents a model capable of design a customized cranial implant directly from a medical imaging process, whose output will be a file in a manufacture system recognizable format. The proposed system has been created by linking two computer prototypes developed during the present research and studying the inner and outer related technologies. The core of the model is the KBS (Knowledge Based System) technology, able to store and manage medical data, as well as designer knowledge, in order to use this information in the implant design process. The aim of this project is to obtain a tool to improve the design process, the biocompatibility with patient and reduce final costs, which can be operated without necessity of wide knowledge from the user.<hr/>Este artículo muestra un modelo que se postula como capaz para el diseño de un implante craneal personalizado directamente desde el proceso de toma de imágenes médica. La salida de este proceso de diseño se conseguirá en un formato capaz de ser reconocido por el sistema de manufactura. El sistema propuesto se ha creado a partir de la unión de dos prototipos informáticos desarrollados durante la presente investigación, y a través del estudio de las tecnologías relacionadas o circundantes. El núcleo del modelo en la tecnología basada en el conocimiento (KBS), que debe permitir de almacenar y gestionar datos médicos y de diseño para poder aplicar dichos conocimientos durante el proceso de diseño del implante. El objeto de este proyecto es el de obtener una herramienta para mejorar el proceso de diseño, la biocompatibilidad con el paciente y reducir los costes finales, y que pueda ser operado sin necesidad del conocimiento completo de todas sus fases por el usuario. <![CDATA[<B>Component-Based Java Legacy Code Refactoring</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300011&lng=pt&nrm=iso&tlng=pt Component-Based Software Engineering (CBSE) claims to improve software modularisation and to embed architectural concerns. Refactoring Java legacy code with CBSE in mind requires first assessing the compliance of legacy code with component programming principles. This paper presents a portfolio of rules to assess the compliance of Java legacy code with the Communication Integrity (CI) property, which is one of the major strengths of the CBSE approach. These rules are proposed with the objective of identifying implicit component types and thus provide a measure of the componentisation of an application. In order to help developers and legacy code maintainers when refactoring their applications, along with the rules, this work leads to define a set of refactoring actions. Additionally, the results of testing, comparing and analysing the outputs of refactoring several Java applications are also presented.<hr/>La Ingeniería de Software Basada en Componentes (CBSE) pretende mejorar la modularización del software y la inserción de preocupaciones arquitecturales. Refactorizar código Java legado con CBSE en mente requiere evaluar primero el cumplimiento del código legado con los principios de la programación por componentes. En este artículo presentamos un portafolio de reglas para evaluar el cumplimiento de la propiedad de Integridad de Comunicación en código Java legado; esta propiedad es una de las mayores fortalezas del enfoque CBSE. Proponemos estas reglas para identificar tipos componente y así proveer una medida de la construcción de componentes CBSE de una aplicación. Con el objetivo de ayudar a los desarrolladores y al personal responsable del mantenimiento de código legado cuando se hace necesario refactorizar sus aplicaciones, nuestro trabajo nos lleva a definir un conjunto de acciones de refactorización. En este artículo también presentamos resultados de pruebas, comparaciones y análisis de las salidas logradas luego de refactorizar varias aplicaciones Java. <![CDATA[<B>Effect of chloride salts on biodesulfurization process of a colombian coal</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300012&lng=pt&nrm=iso&tlng=pt A chloride salts medium was evaluated in biodesulfurization processes of a Colombian coal (2.34% total sulfur: 1.34% as pyritic, 0.90% as organic and 0.10% from sulfates), employing a consortium of Acidithiobacillus ferrooxidans and Acidithiobacillus thiooxidans. The process was carried out at three pulp concentrations (9.09%, 16.67% and 23.08%) and was compared with assays under similar conditions but containing modified T&K medium. All the tests were determined by measuring changes in soluble iron, pH, redox potential and microbial populations approach. Original and treated coal was analyzed by scanning electron microscopy with an energy-dispersive X-ray (SEM-EDX). For bioassays with chloride salts medium, the results showed above 70% of pyritic sulfur oxidation after 12 days, regardless of pulp concentration in contrast with results obtained for bioassays with a T&K modified medium where pulp concentration had influence and the pyrite oxidation was lower (below 55%).<hr/>Se evaluó el efecto de un medio de sales cloruros para un consorcio de Acidithiobacillus ferrooxidans y Acidithiobacillus thiooxidans en un proceso de biodesulfurización de un carbón colombiano (azufre total: 2.34%, azufre pirítico: 1.34%, azufre orgánico: 0.90% y azufre de sulfatos: 0.10%), bajo tres concentraciones de pulpa (9.09%, 16.67% y 23.08%). Los ensayos se compararon con otros bajo condiciones similares, pero utilizando medio T&K modificado. Todos los procesos se monitorearon con mediciones periódicas de hierro en solución, pH, potencial redox y concentración celular. El carbón fue analizado antes y después de la biodesulfurización por microscopía electrónica de barrido con analizador microquímico (SEM-EDX). Los ensayos con el medio de sales cloruros obtuvieron una oxidación del 70% de azufre pirítico después de 12 días para todas las concentraciones de pulpa evaluadas. En contraste, en los ensayos con el medio T&K modificado, la concentración de pulpa influyó en la oxidación de pirita y fue menor (por debajo de 55%). <![CDATA[<B>Static and dynamic characteristics of turbulent flow in a closed compound channel</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300013&lng=pt&nrm=iso&tlng=pt La técnica de anemometría de hilo caliente se emplea para estudiar la distribución de velocidades y las características dinámicas del flujo en dos tipos de canales compuestos cerrados. Los canales compuestos fueron construidos utilizando dos tubos rectangulares, unidos a las paredes de un canal de viento, separados por una distancia d. En esta configuración, una distancia estrecha conecta al subcanal. Los resultados revelaron un flujo interesante que fue bastante similar a una capa de mezcla. Todos los perfiles de velocidad axial presentaron puntos de inflexión en la interface entre el subcanal principal. Mediante el uso de las cantidades medias del flujo turbulento se puede describir los perfiles de velocidad axial por una función tangente hiperbólica. Se sugirió también un número Strouhal. Independientemente del tipo de canal, la frecuencia adimensional fue casi constante, resultando en un número Strouhal de aproximadamente 0.10.<hr/>Este artículo describe una biblioteca de bloques parametrizables (XSGImgLib) para la implementación de tareas de procesado de imágenes en FPGA. Se ha utilizado la técnica de diseño basado en modelos proporcionada por Xilinx System Generator (XSG) para diseñar diferentes bloques de procesado que implementan operaciones puntuales (binarización) y basadas en vecindad (filtros lineales y no-lineales) para imágenes en escala de grises. La parametrización de los bloques permite configurar la precisión de los datos de entrada/salida, el tamaño de la ventana, la estrategia de normalización y distintas opciones de implementación (optimización en área o velocidad). El artículo muestra los resultados de implementación para las diferentes opciones de configuración y ejemplifica la combinación de los bloques de procesado en el desarrollo de un sistema para segmentado de imágenes. <![CDATA[<B>Electrokinetic remediation of mercury- contaminated soil, from the mine El Alacran-San Jorge river basin, Cordoba - Colombia</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300014&lng=pt&nrm=iso&tlng=pt The aim of this work was to evaluate the electrokinetic technique for remediation of mercury contaminated soils from the mine El Alacrán, located in the San Jorge river basin from Colombian's Córdoba department. KI and NaCl solutions were used as complexing agents for removing mercury at two concentrations 0.01 M and 0.05 M, by applying voltages of 30 and 40 V respectively. The best results were obtained when KI was used as complexing agent, reaching percentages of recovery up to 98.7%. The treatments where NaCl was used as complexing agent not achieved significant recoveries (< 1%), except when was used a concentration of 0.05 M NaCl with an applied voltage of 40 V reaching a recovery of 38%. In all experiments, the mercury moved towards the anode due to complexation of anionic nature complex and was observed that increasing concentrations and voltages a more efficient and speedy removal of mercury in the soil was achieved. The results showed that the iodide has properties that make it a promising electrolyte solution for the removal of mercury in the soil.<hr/>El objetivo de este trabajo fue evaluar la técnica electrocinética para la remediación de suelos contaminados con mercurio de la mina El Alacrán, ubicada en la cuenca del río San Jorge en el departamento de Córdoba, Colombia. Soluciones de KI y NaCl fueron usadas como agentes complejantes para la remoción del mercurio en dos concentraciones 0.01 y 0.05 M, aplicando voltajes de 30 y 40 V respectivamente. Los mejores resultados fueron obtenidos cuando el KI se usó como agente complejante, alcanzando porcentajes de recuperación hasta de 98.7%. los tratamientos donde el NaCl se usó como agente complejante no alcanzaron recuperaciones significativas (< 1%), excepto cuando se usó una concentración de 0.05 M de NaCl con un voltaje de 40 V alcanzando una recuperación de 38%. En todos los experimentos, el mercurio se movió hacia el ánodo, debido a la formación de complejos de naturaleza aniónica y se observó que incrementando la concentración y el voltaje, una mayor eficiencia y velocidad de remoción de mercurio del suelo fue alcanzada. Los resultados muestran que el ioduro tiene propiedades que lo hacen una solución electrolítica prometedora para la remoción del mercurio en suelos contaminados. <![CDATA[<B>Passive sampling in the study of dynamic and environmental impact of pesticides in water</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300015&lng=pt&nrm=iso&tlng=pt Pesticides are the most applied substances in agricultural activities which can contaminate water bodies by direct or indirect discharge, but large volumes and natural transformation processes can decrease the concentration of these substances and their degradates in watershed. Currently, conventional extraction methods such as: solid phase extraction (SPE) and solid phase micro extraction (SPME) among others do not permit low detection limits. However low levels of pesticides and degradates could produce chronic toxicity in different species. Nowadays, passive sampling is widespread used for monitoring pesticides and for ensuring the water quality and bioaccumulation studies due to this methodology allows the detection of pollutant from parts per quadrillion (ppq). The most popular membranes used in passive sampling are the semipermeable membrane devices (SPMD), which permit the concentration of lipophilic substances and the polar organic chemical integrative sampler (POCIS), which permits concentration of the hydrophilic ones. This review is about the application of passive samplers in pesticides analysis, the importance of these devices in the bioaccumulation studies and the evaluation of the ecotoxicological risks. Finally, passive sampling allows reducing costs, time and the amount of organic solvent used which classifies it within the environmental trends of ''green analytical chemistry''.<hr/>Los plaguicidas son las sustancias con mayor aplicación en la agricultura las cuales pueden contaminar los cuerpos de agua por descarga directa o indirecta, pero los grandes volúmenes y los procesos transformación pueden disminuir la concentración de estas sustancias y sus productos de degradación en las cuencas. Actualmente, los métodos convencionales de extracción tales como: la extracción en fase sólida (SPE) y la micro extracción en fase sólida (SPME) entre otras, no permiten bajos límites de detección, sin embargo bajos niveles de pesticidas y productos de degradación podrían producir toxicidad crónica en diferentes especies. Actualmente el muestreo pasivo es ampliamente usado en el monitoreo de plaguicidas y para el aseguramiento de la calidad del agua debido a que esta metodología es aplicada in estudios de bioacumulación y deteccion a partes por cuatrillón (ppq). Las membranas con mayor uso en el muestreo pasivo son las membranas tipo SPMD (Semi-permeable membrane devices), las cuales permiten la concentración de sustancias lipofílicas y las membranas tipo POCIS (Polar organic chemistry integrative sampler), las cuales permiten concentrar sustancias hidrofílicas. Esta revisión cubre la aplicación de los muestreadores pasivos en el análisis de plaguicidas, en los estudios de biacumulación y en la evaluación de los riesgos ecotoxicológicos. Finalmente los muestreadores pasivos permiten reducir costos, el tiempo de concentración y la cantidad de solventes orgánicos empleados en el tratamiento de muestra, lo que conduce a su clasificación dentro de las tendencias de la ''química analítica verde''. <![CDATA[<B>Home health care logistics management problems</B>: <B>a critical review of models and methods</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300016&lng=pt&nrm=iso&tlng=pt Home Health Care (HHC) services are based on a delivery network in which patients are hospitalized at their homes and health care providers must deliver coordinated medical care to patients. Demand for HHC services is rapidly growing and governments and health care providers face the challenge to make a set of complex decisions in a medical service business that has an important component of logistics problems. The objective of this paper is to provide a critical review of models and methods used to support logistics decisions in HHC. For this purpose, a reference framework is proposed first in order to identify research perspectives in the field. Based on this framework, a literature review is presented and research gaps are identified. In particular, the literature review reveals that more emphasizes is needed to develop and implement more integrated methodologies to support decisions at tactical and strategic planning levels and to consider key features from real systems.<hr/>Los servicios de Hospitalización Domiciliaria (HD) se basan en una red de distribución, en la cual los pacientes son hospitalizados en sus casas y los prestadores de servicios de salud deben entregar cuidados médicos coordinados a los pacientes. La demanda de estos servicios está creciendo rápidamente y los gobiernos y proveedores de servicios de salud enfrentan el reto de tomar un conjunto de decisiones complejas en un sector con un componente logístico importante. En este artículo se presenta una revisión crítica de los modelos y métodos utilizados para darle soporte a las decisiones logísticas en HD. Para esto se presenta primero un marco de referencia, con el objetivo de identificar las oportunidades de investigación en el campo. Con base en dicho marco, se presenta la revisión de la literatura y la identificación de brechas en la investigación. En particular, se hace énfasis en la necesidad de desarrollar e implementar metodologías más integradas para dar soporte a las decisiones estratégicas y tácticas y de considerar puntos clave de los sistemas reales. <![CDATA[<B>Genetic algorithm for estimating in-situ rock elastic constants by acoustic reflection records</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300017&lng=pt&nrm=iso&tlng=pt The elastic properties of rocks can be estimated from the density (&rho;), acoustic (Vp), and shear (Vs) wave velocities, whose values establish the reflected wave amplitudes. This paper presents an indirect method to estimate rocks' elastic properties, that uses Vp, Vs, and &rho; values supplied by the inversion of acoustic reflection records. Because of the non-uniqueness and non-linear nature of the inversion, the solution must be sought in a search space by minimizing a cost function that measures the error between the observed datum and the inferred one. The search may converge to a local minimum, and then the true global minima may not be reached. Genetic algorithms have proven to be more efficient in finding the optimal solution for this type of search space. A genetic algorithm coded in Matlab estimates &rho;, Vp, and Vs through the inversion of the equation that relates them to the amplitudes and angles of incidence of the acoustic waves. Lamé elastic constant (&lambda;), Poisson's ratio (v), and modulus of elasticity (E), compressibility (K) and rigidity (G) can be deemed from &rho;, Vp and Vs. The algorithm was tested in synthetic data to verify its robustness and stability, and then applied to seismic records showing a good performance in both cases. The presented method has a deeper scope than the refraction method, and is applicable to different engineering fields.<hr/>Las propiedades elastomecánicas de las rocas se pueden estimar a partir de la densidad (&rho;) y las velocidades de ondas acústica (Vp) y cizalla (Vs) cuyos valores establecen las amplitudes de las ondas reflejadas. Este artículo presenta un método indirecto para estimar propiedades elásticas de las rocas, que usa valores de Vp, Vs y &rho; por la inversión de registros de reflexión acústica. Debido a la no-unicidad y a la naturaleza no-lineal de la inversión el motor de inferencia debe buscar una solución en un espacio de búsqueda, minimizando una función de costo que mide el error entre el dato observado y el inferido. La búsqueda puede converger en un mínimo local y no alcanzar el mínimo global verdadero. Los algoritmos genéticos han mostrado ser más eficientes en hallar la solución óptima en este tipo de espacios de búsqueda. Un algoritmo genético codificado en Matlab estima &rho;, Vp y Vs a través de la inversión de una ecuación que las relaciona con las amplitudes y ángulos de incidencia de las ondas acústicas. La constante elástica de Lamé (&lambda;), el coeficiente de Poisson (v), y los módulos de elasticidad (E), compresibilidad (K) y rigidez (G) se pueden estimar a partir de &rho;, Vp y Vs. Para verificar la robustez y estabilidad del algoritmo, éste se probó con datos sintéticos y se aplicó a registros reales exhibiendo un buen desempeño en alcanzar las soluciones en ambos casos. El método presentado tiene una profundidad de sondeo mayor al método de refracción, siendo aplicable en distintos campos de la ingeniería. <![CDATA[<B>A heuristic decomposition method for large-scale traffic assignment</B>: <B>Aburra Valley case study</B>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-62302013000300018&lng=pt&nrm=iso&tlng=pt Traffic assignment is one of the most important stages in transportation planning; however, its application to real case studies in medium- to large-sized cities makes the solution of the model difficult because of the scale and high computational complexity related to the combinatorial and non-linear nature of the problem. The aim of this paper is to present a decomposition method based on sub-region analysis, and a simple heuristic rule for solving large-scale traffic assignment problems. This reduces the total amount of variables and equations of the model and offers a practical solution in a reasonable computing time. The proposed traffic assignment model is applied to the multimodal main road network of the Aburrá Valley, Colombia. Such an application of a great amount of variables and equations converts the model into a large-scale problem. The proposed method considerably reduces the computational complexity of the problem, and it reveals accurate solutions in an execution time which is reasonable for such a large-scale model.<hr/>La asignación de tráfico es una de las etapas más importante de la planificación del transporte, sin embargo su aplicación a casos reales en ciudades de tamaño medio y grande se hace difícil de resolver por la gran escala y complejidad computacional de estos modelos, asociada a su naturaleza combinatoria y no lineal. El objetivo de este artículo es presentar un método de descomposición basado en subregiones y una regla heurística sencilla, para resolver modelos de asignación de tráfico de gran escala, que reducen la cantidad de variables y de ecuaciones del modelo, sin comprometer la calidad de la solución. El modelo de asignación de tráfico propuesto es aplicado a la red multimodal de vías principales del Valle de Aburrá, y dicha aplicación resulta en un problema de gran escala, por el alto número de variables y ecuaciones asociadas. El método propuesto reduce significativamente la complejidad computacional del problema y encuentra soluciones adecuadas en un tiempo de ejecución razonable para un modelo de gran escala.