Scielo RSS <![CDATA[TecnoLógicas]]> http://www.scielo.org.co/rss.php?pid=0123-779920240002&lang=pt vol. 27 num. 60 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Challenges in Human-Computer Interaction from a Retrospective Perspective: A Global Reflection with Emphasis on Latin America]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200100&lng=pt&nrm=iso&tlng=pt <![CDATA[Exploratory Case Study on Cross-Influences between Human-Computer Interaction and Interactive Arts]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200200&lng=pt&nrm=iso&tlng=pt Resumen La Interacción Humano-Computadora (HCI por sus siglas en inglés) y las Artes Interactivas (AI) tienen tradiciones, objetivos, enfoques y herramientas diferentes, aunque mantienen desde hace mucho tiempo una relación de diálogo, intercambio de ideas e incluso polinización cruzada. La presente investigación buscó explorar parte de estas influencias mutuas: identificar temas de HCI que puedan enriquecer la práctica artística y reconocer ideas de AI que puedan incorporarse a la agenda de HCI. La metodología empleada consistió en un estudio de caso exploratorio organizado como una experiencia pedagógica de conceptos de HCI para profesionales de AI que involucró a más de 100 artistas que desarrollaron proyectos de interacciones enactivas. Para la recolección de datos se utilizó el método de Observación Participante. Los principales resultados del análisis de los datos mostraron un entrelazamiento de aportes entre ambas disciplinas en al menos tres aspectos: a) la importancia del trabajo en primera persona, b) las relaciones entre el engagement del usuario y el tiempo de uso, y c) la necesidad de contar con definiciones de Experiencia de Usuario con mayor consenso para facilitar las prácticas de evaluación. En conclusión, este trabajo exploratorio proporciona evidencia de la apropiación por parte de las AI del contenido de la HCI y la existencia los tres aspectos mencionados de entrelazamiento entre las agendas de HCI y las AI.<hr/>Abstract Human-Computer Interaction (HCI) and Interactive Arts (IA) have different traditions, objectives, approaches, and tools, although they have long maintained a relationship of dialogue, exchange of ideas, and even cross-pollination. The present research sought to explore some of these mutual influences: identify HCI themes that can enrich artistic practice and recognize AI ideas that can be incorporated into the HCI agenda. The methodology used consisted of an exploratory case study organized as a pedagogical experience of HCI concepts for AI professionals that involved more than 100 artists who developed enactive interaction projects. The Participant Observation method was used to collect data. The main results of the data analysis showed an interweaving of contributions between both disciplines in at least three aspects: a) the importance of first-person work, b) the relationships between user engagement and time of use, and c) the need to have definitions of user experience with greater consensus to facilitate evaluation practices. In conclusion, this exploratory work provides evidence of the appropriation by IAs of HCI content and the existence of the three aforementioned aspects of intertwining between the HCI and IA agendas. <![CDATA[Trend Analysis of Total Suspended Solids in Inland Waters Using the BFAST Algorithm on MOD09GA Products in Porto Primavera Reservoir - Brazil]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200201&lng=pt&nrm=iso&tlng=pt Abstract Satellite remote sensing, particularly using the MODIS orbital platform, is crucial for large-scale lake monitoring, allowing the observation of optically active components with suitable spatial and temporal resolution for lakes with surfaces greater than 40 hectares. In this context, the objective of this article was to propose a methodology that improves the retrieval and monitoring of data related to Total Suspended Solids (TSS) in large lakes. The methodology employed involved defining a baseline to map the spatiotemporal dynamics of TSS using MODIS band 1, which generates information in the infrared spectrum and is centered at 645 nm. The method was tested in the Porto Primavera Reservoir (PPR), Brazil. To validate the model, two fieldwork campaigns were conducted in the PPR, where radiometric and water quality data were collected. An empirical model was fitted between reflectance and the TSS data set (r = 0.93, R2= 0.85, p &lt; 0.01, n = 25). This empirical model was applied to a time series of MODIS images from May 2000 to April 2020. Using the spatial distribution maps, a time series was created from an average pixel of the sampling stations, and then this time series was analyzed to separate the trend and seasonality. The results showed that the average TSS values observed in the time series were 5.79 mg/L. The seasonality of the time series revealed that the highest concentration is recorded in the austral summer (December-February), the rainiest season. The trend component indicates that variations in TSS concentration coincide with exceptional events of increased precipitation and with a homogenization interval of the waters following the reservoir's construction.<hr/>Resumen La teledetección satelital es crucial para monitorear lagos a gran escala, permitiendo la observación de componentes ópticamente activos con una resolución espacial y temporal adecuada para lagos con superficies mayores a 40 hectáreas. El objetivo de este artículo fue proponer una metodología que mejore la recuperación y el monitoreo de los datos correspondientes a los Sólidos en Suspensión Totales (SST) en lagos de grandes dimensiones. La metodología empleada consistió en definir una línea base en la que se puede mapear la dinámica espacio temporal de los SST a partir de la banda 1 de MODIS que genera información en el espectro infrarrojo y está centrada en los 645 nm. El método fue probado en el Embalse de Porto Primavera (EPP), Brasil. Para comprobar la validez del modelo se realizaron dos trabajos de campo en el EPP, en los que se recolectaron datos radiométricos y de calidad del agua. Un modelo empírico fue ajustado entre la reflectancia y el conjunto de datos de SST (r = 0.93, R2 = 0.85, p &lt; 0.01, n = 25). Este modelo empírico fue aplicado a una serie temporal de imágenes MODIS desde mayo de 2000 hasta abril de 2020. Usando los mapas de distribución especial, se creó una serie del tiempo a partir de un píxel promedio de las estaciones de muestreo, esto se analizó para separar la tendencia y la estacionalidad. Los resultados mostraron que los valores promedio de SST observados en la serie temporal son de 5.79 mg/L. La estacionalidad de las series temporales reveló que la mayor concentración se registra en el verano austral (diciembre-febrero), la estación más lluviosa. La componente de tendencia indica que las variaciones en la concentración de SST coinciden con eventos excepcionales de aumento de precipitaciones y con un intervalo de homogeneización de las aguas posterior a la construcción del embalse. <![CDATA[Optimization in a Multi-Microgrid Peer-To-Peer Scenario with Replicator Dynamics]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200202&lng=pt&nrm=iso&tlng=pt Resumen La optimización desempeña un papel crucial en la planificación y operación de los sistemas de gestión de energía, reduciendo costos y evitando pérdidas en su generación, disminuyendo, además, las emisiones de carbono. Lo anterior se da teniendo en cuenta el equilibrio entre oferta y demanda y el aprovechamiento de los recursos energéticos distribuidos (DER, por sus siglas en inglés). Este trabajo tuvo como objetivo proponer un esquema generalizado de comunidad energética, donde los generadores que componen una microrred suplen la demanda de esta o de las microrredes vecinas. Es de considerar que cada generador de energía tiene una función de costos asociada a esta, y existe una penalización, o costo de transmisión, cuando un DER, ubicado en una microrred definida, envía energía a la microrred vecina. Con el fin de abordar las restricciones, se propuso, como metodología de solución, un enfoque basado en juegos poblacionales, en conjunto con la técnica de relajación lagrangiana. Los resultados obtenidos fueron la aplicación del modelo y método de solución en tres diferentes escenarios. Además, se comparó el desempeño de la solución propuesta con la respuesta de un método de optimización convencional, logrando despachos similares y errores mínimos en comparación con la técnica tradicional. La investigación demostró que la combinación de conceptos de juegos poblacionales y técnicas de relajación lagrangiana permiten asumir restricciones que son de difícil manejo para la dinámica de replicadores. Finalmente, se concluye que el modelo es una buena herramienta para abordar problemas de gestión de energía que implican cumplir con la demanda por región en un escenario peer to peer.<hr/>Abstract Optimization plays a crucial role in the planning and operation of energy management systems, reducing costs and avoiding losses in generation while also decreasing carbon emissions. This is achieved by balancing supply and demand and leveraging distributed energy resources (DER). This study aimed to propose a generalized energy community scheme, where the generators within a microgrid meet the demand of their own or neighboring microgrids. It is important to consider that each energy generator has an associated cost function, and there is a penalty or transmission cost when a DER, located in a specific microgrid, sends energy to a neighboring microgrid. To address these constraints, a solution methodology based on population games was proposed, in conjunction with the Lagrangian relaxation technique, was proposed. The results obtained included the application of the model and solution method in three different scenarios. Additionally, the performance of the proposed solution was compared with the response of a conventional optimization method, achieving similar dispatches and minimal errors compared to the traditional technique. The research demonstrated that the combination of population game concepts and Lagrangian relaxation techniques can handle constraints that are challenging for replicator dynamics. Finally, it is concluded that the model is an effective tool for addressing energy management problems that involve meeting regional demand in a peer-to-peer scenario. <![CDATA[Collaborative Approach for Feature Models in Software Product Lines]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200203&lng=pt&nrm=iso&tlng=pt Abstract One of the strategies that help to software reuse are the Software Product Lines (SPL), which are a set of products developed from common and variable features that meet specific needs of a domain. In this sense, feature models are a key tool to manage common features, variability, and customization of the line products; however, their definition is a complex task that requires the participation of a multidisciplinary team. Therefore, to achieve their definition, it is crucial to establish clear guidelines for communication and collaboration among stakeholders. The lack of effective collaboration may result in a poor definition of the model since it is a fundamental component for the construction of an SPL. This paper aims to present CINDERELLA, a collaborative approach to define feature models in SPLs, and to show its initial evaluation. Evaluation was carried out by defining an experiment in an academic environment. The experiment revealed that the students had a positive perception of CINDERELLA, highlighting its usefulness and completeness, although the clarity of its instructions needs to be improved. CINDERELLA is perceived as a user-friendly, useful, and complete approach to define feature models, because of its consistency and organization. However, its description needs to be improved and additional experiments in real contexts are required to confirm its applicability and effectiveness.<hr/>Resumen Una de las estrategias de ayuda a la reutilización de software son las Líneas de Productos de Software (LPS), las cuales son un conjunto de productos desarrollados a partir de características comunes y variables que satisfacen necesidades específicas de un dominio. En este sentido, los modelos de características son una herramienta clave para gestionar características comunes, variabilidad y personalización de los productos de la línea; sin embargo, su definición es una tarea compleja que requiere la participación de un equipo multidisciplinario. Por lo tanto, para lograr su definición, es crucial establecer directrices claras de comunicación y colaboración entre actores involucrados. La falta de colaboración efectiva puede resultar en una definición deficiente del modelo, debido a que es un componente fundamental para la construcción de una LPS. Este artículo tuvo como objetivo presentar CINDERELLA, un enfoque colaborativo para definir modelos de características en LPS, y mostrar su evaluación inicial. La evaluación se hizo mediante la definición de un experimento en un entorno académico. El experimento reveló que los estudiantes tuvieron una percepción positiva de CINDERELLA, destacando su utilidad e integridad, aunque se necesita mejorar la claridad de sus instrucciones. CINDERELLA es percibido como un enfoque fácil de usar, útil y completo para definir modelos de características, gracias a su coherencia y organización. Sin embargo, se requiere mejorar su descripción y realizar experimentos adicionales en contextos reales para confirmar su aplicabilidad y efectividad. <![CDATA[Fabrication and Control of a Decontamination System with UV-C LED for Garlic <em>(Allium sativum L.)</em> Used in Planting]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200204&lng=pt&nrm=iso&tlng=pt Resumen El proceso de desinfección es esencial para prevenir proliferación de bacterias que pueden contaminar los alimentos causando pérdida dentro de la cadena de suministro. Por lo tanto, el objetivo de la propuesta tuvo como finalidad la fabricación y control de un sistema de desinfección integrando una banda transportadora multinivel y luz UV-C LED. La metodología consistió en adaptar la automatización al mecanismo, mediante la programación con base en GEMMA y GRAFCET. Se integró un Controlador Lógico Programable (PLC, por sus siglas en inglés) e Interfaz Hombre Máquina (HMI, por sus siglas en inglés) como elementos de control. Adicionalmente, se configuraron diferentes rutinas como la velocidad de la banda, altura de las lámparas, el tiempo de exposición, paro de emergencia y emisión de la luz UV-C LED en cada zona de radiación. Se realizó un conteo microbiológico para evaluar el proceso de desinfección de la semilla de ajo (Allium sativum L.), utilizando dosis reportadas en la literatura. Los resultados demostraron que la propuesta es un producto científico tecnológico semi-industrial. Los niveles de la banda transportadora permiten que la semilla de ajo rote durante el proceso de desinfección. Con un efecto germicida del 92.30 % en mesófilos aerobios, se atiende adecuadamente el funcionamiento de los mecanismos de transporte y emisión de luz UV-C LED. Se puede concluir que el sistema puede adaptarse a cualquier producto del sector agroindustrial, además la automatización se puede extender con la inclusión de mayores parámetros. Para trabajo futuro queda determinar la mejor dosis, manejo de otros productos y combinaciones de radiación UV LED, así como un conteo microbiológico más exhaustivo.<hr/>Abstract The decontamination process is essential to prevent the proliferation of bacteria that can contaminate food causing loss within the supply chain. Therefore, the objective of the proposal was to manufacture and control a decontamination system that integrates a multilevel conveyor belt and UV-C LED light. The methodology consisted of adapting the automation to the mechanism, through programming based on GEMMA and GRAFCET. A Programmable Logic Controller (PLC) and a Human Machine Interface (HMI) were integrated as control elements. Additionally, different routines were configured such as the speed of the band, height of the lamps, exposure time, emergency stop, and emission of UV-C LED light in each radiation zone. A microbiological count was performed to evaluate the garlic (Allium sativum L.) seed disinfection process, using doses reported in the literature. The results gave evidence that the proposal is a semi-industrial scientific technological product. The levels of the conveyor belt allow the garlic seed to rotate during the disinfection process. With a 92.30 % germicidal effect on aerobic mesophiles, the functioning of the transport and emission mechanisms of the UV-C LED light is adequately taken care of. It can be concluded that the system can be adapted to any product of the agroindustrial sector; the automation can also be extended with the inclusion of more parameters. For future work, it remains to determine the best dose, handling of other products and combinations of UV LED radiation, as well as a more exhaustive microbiological count. <![CDATA[Optimization Model for Collective Energy Demand Management in Smart Homes]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200205&lng=pt&nrm=iso&tlng=pt Abstract Power systems are gradually evolving towards smart grids to improve their efficiency and reliability through demand response and management strategies. This study presents the Multi-User Model of Controllable Electric Loads (MMCEL), an optimization model developed to collectively manage the residential demand of multiple users, through Controllable Electric Load Scheduling (CELS). The objective of the model was to minimize the cost of energy and achieve a more uniform distribution of the electric load, taking into account dynamic pricing rates and specific constraints. The methodology was based on classical optimization techniques in two stages. The first stage focused on the single user level using the exhaustive search method to select solutions that minimize the cost of each user's bill. The second stage employed the local search method for multi-user optimization to find a flatter demand curve. For this purpose, an algorithm was designed in MATLAB® that simulated a scenario with 60 users for 24 hours, scheduling the most appropriate on/off periods of controllable loads. Two scenarios were compared: one where users manage their loads at their convenience and the other where the proposed model was applied. The results indicated a decrease in peak demand, with an average savings of 4.94 % on the electricity bill for all users and up to 12.34 % individually. The simulation achieved this optimal solution in 25 minutes, despite the computational complexity involved in managing the demand of 60 users. Therefore, the model used simple methods to optimize multiple variables, providing better performance compared to processing that would require a more complex algorithm.<hr/>Resumen Los sistemas eléctricos están evolucionando hacia redes inteligentes para mejorar su eficiencia y confiabilidad mediante estrategias de gestión y respuesta a la demanda. Este estudio presenta el Modelo Multiusuario de Cargas Eléctricas Controlables (MMCEC), un modelo de optimización desarrollado para gestionar colectivamente la demanda residencial de múltiples usuarios mediante la Programación de Cargas Eléctricas Controlables (PCEC). El objetivo del modelo fue minimizar el costo de la energía y lograr una distribución más uniforme de la carga eléctrica, teniendo en cuenta tarifas dinámicas de precios y restricciones específicas. La metodología se basó en técnicas clásicas de optimización en dos etapas. La primera se enfocó a nivel de único usuario utilizando el método de búsqueda exhaustiva para seleccionar soluciones que minimicen el costo de la factura de cada usuario. La segunda etapa empleó el método de búsqueda local para la optimización multiusuario, para encontrar una curva de demanda más plana. Para ello, se diseñó un algoritmo en MATLAB® que simuló un escenario con 60 usuarios durante 24 horas, programando los periodos más adecuados de encendido/apagado de las cargas controlables. Se compararon dos escenarios: uno donde los usuarios administran sus cargas a su conveniencia y otro donde se aplicó el modelo propuesto. Los resultados indicaron una disminución de los picos de demanda, con un ahorro promedio del 4.94 % en la factura eléctrica para el conjunto de usuarios y hasta el 12.34 % individualmente. La simulación logró esta solución óptima en 25 minutos a pesar de la complejidad computacional que implica gestionar la demanda de 60 usuarios. Por tal motivo, el modelo planteado utilizó métodos simples para optimizar múltiples variables, proporcionando un mejor rendimiento en comparación con el procesamiento requerido por algoritmos más complejos. <![CDATA[Reinforcement Learning to Support Monthly Precipitation Prediction. Case Study: Department of Boyacá - Colombia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200206&lng=pt&nrm=iso&tlng=pt Resumen La emisión de gases de efecto invernadero, atribuida directa o indirectamente a la actividad humana, es la principal causa del cambio climático a nivel mundial. Entre los gases emitidos, el dióxido de carbono (CO2) es el que más contribuye a la variación espacio temporal de magnitudes físicas como la humedad relativa, la presión atmosférica, la temperatura ambiente y, de manera más significativa, la precipitación. El objetivo de la investigación fue presentar un análisis de la predicción de la precipitación mensual en el departamento de Boyacá mediante el uso de modelos basados en aprendizaje reforzado (RL, por sus siglas en inglés). La metodología empleada consistió en extraer datos desde CHIRPS 2,0 (Climate Hazards Group InfraRed Precipitation with Station data, versión 2,0) con una resolución espacial de 0,05° que posteriormente fueron preprocesados para la implementación de enfoques basados en una simulación Montecarlo y aprendizaje reforzado profundo (DRL, por sus siglas en inglés) para proporcionar predicciones de la precipitación mensual. Los resultados obtenidos demostraron que la simulación Montecarlo como el DRL generan predicciones significativas de la precipitación mensual. Es esencial reconocer que los modelos convencionales basados en Aprendizaje profundo, como Memoria a Corto Plazo (LSTM) o Redes Convolucionales a Corto Plazo (ConvLSTM), pueden superar a los enfoques de simulación Montecarlo y DRL en términos de precisión de predicción. Se concluye que la implementación de técnicas de aprendizaje por refuerzo en modelos de predicción de la precipitación mensual detecta patrones de información que pueden ser usados como soporte a estrategias dirigidas a mitigar los riesgos económicos y sociales derivados de fenómenos climáticos.<hr/>Abstract The emission of greenhouse gases, directly or indirectly attributed to human activity, is the main cause of global climate change. Among the gases emitted, carbon dioxide (CO2) is the most important contributor to the spatio-temporal variation of physical quantities such as relative humidity, atmospheric pressure, ambient temperature and, most significantly, precipitation. The objective of the research was to present an analysis of the prediction of monthly precipitation in the department of Boyacá using models based on reinforced learning (RL). The methodology used consisted of extracting data from CHIRPS 2.0 (Climate Hazards Group InfraRed Precipitation with Station data, version 2.0) with a spatial resolution of 0.05 ° that were subsequently preprocessed for the implementation of Monte Carlo simulation and deep reinforced learning (DRL) approaches to provide monthly precipitation predictions. The results obtained showed that Monte Carlo simulation such as DRL generate meaningful predictions of monthly precipitation. It is essential to recognize that conventional models based on Deep Learning, such as Short-Term Memory (LSTM) or Short-Term Convolutional Networks (ConvLSTM), can outperform Monte Carlo and DRL simulation approaches in terms of prediction accuracy. It is concluded that the implementation of reinforcement learning techniques in monthly precipitation prediction models detects information patterns that can be used to support strategies aimed at mitigating economic and social risks derived from climate phenomena. <![CDATA[Postcontrast Medical Image Synthesis in Breast DCE-MRI Using Deep Learning]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200207&lng=pt&nrm=iso&tlng=pt Abstract Breast cancer is one of the leading causes of death in women in the world, so its early detection has become a priority to save lives. For the diagnosis of this type of cancer, there are techniques such as dynamic contrast-enhanced magnetic resonance imaging (DCE-MRI), which uses a contrast agent to enhance abnormalities in breast tissue, which improves the detection and characterization of possible tumors. As a limitation, DCE-MRI studies are usually expensive, there is little equipment available to perform them, and in some cases the contrast medium can generate adverse effects due to an allergic reaction. Considering all of the above, the aim of this work was to use deep learning models for the generation of postcontrast synthetic images in DCE-MRI studies. The proposed methodology consisted of the development of a cost function, called CeR-Loss, that takes advantage of the contrast agent uptake behavior. As a result, two new deep learning architectures were trained, which we have named G-RiedGAN and D-RiedGAN, for the generation of postcontrast images in DCE-MRI studies, from precontrast images. Finally, it is concluded that the peak signal-to-noise ratio, structured similarity indexing method, and mean absolute error metrics show that the proposed architectures improve the postcontrast image synthesis process, preserving greater similarity between the synthetic images and the real images, compared to the state-of-the-art base models.<hr/>Resumen El cáncer de mama es una de las principales causas de muerte en mujeres en el mundo, por lo que su detección de forma temprana se ha convertido en una prioridad para salvar vidas. Para el diagnóstico de este tipo de cáncer existen técnicas como la imagen de resonancia magnética dinámica con realce de contraste (DCE-MRI, por sus siglas en inglés), la cual usa un agente de contraste para realzar las anomalías en el tejido de la mama, lo que mejora la detección y caracterización de posibles tumores. Como limitación, los estudios de DCE-MRI suelen tener un costo alto, hay poca disponibilidad de equipos para realizarlos, y en algunos casos los medios de contraste pueden generar efectos adversos por reacciones alérgicas. Considerando lo anterior, este trabajo tuvo como objetivo el uso de modelos de aprendizaje profundo para la generación de imágenes sintéticas postcontraste en estudios de DCE-MRI. La metodología consistió en el desarrollo de una función de costo denominada pérdida en las regiones con realce de contraste que aprovecha el comportamiento de la captación del agente de contraste. Como resultado se entrenaron dos nuevas arquitecturas de aprendizaje profundo, las cuales hemos denominado G-RiedGAN y D-RiedGAN, para la generación de imágenes postcontraste en estudios de DCE-MRI, a partir de imágenes precontraste. Finalmente, se concluye que las métricas proporción máxima señal ruido, índice de similitud estructural y error absoluto medio muestran que las arquitecturas propuestas mejoran el proceso de síntesis de las imágenes postcontraste preservando mayor similitud entre las imágenes sintéticas y las imágenes reales, esto en comparación con los modelos base en el estado del arte. <![CDATA[Implementation of Fuzzy Cognitive Maps with Genetic Algorithms for Predicting Type 2 Diabetes Mellitus]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200208&lng=pt&nrm=iso&tlng=pt Resumen La diabetes mellitus tipo 2 es una enfermedad crónica no transmisible, causada por un trastorno en el metabolismo de la glucosa, que provoca un aumento anormal de su concentración en la sangre. El diagnóstico tardío de esta enfermedad contribuye al aumento de las tasas de morbilidad y mortalidad a nivel mundial. El desarrollo de modelos basados en inteligencia artificial para la predicción de diabetes podría acelerar el diagnóstico. Por tanto, el objetivo del presente estudio fue implementar un modelo de predicción de diabetes mellitus tipo 2 basado en mapas cognitivos difusos entrenado con un algoritmo genético. La metodología empleada consistió en utilizar un conjunto de datos del Instituto Nacional de Diabetes y Enfermedades Digestivas y Renales de la población de indios PIMA, que contiene información demográfica y clínica de 768 pacientes. El 70 % de los datos se empleó para el entrenamiento y validación, y el 30 % restante se utilizó para las pruebas de rendimiento. El modelo de mapas cognitivos difusos puede predecir la enfermedad con un 99 % de exactitud, 98 % de precisión y recall de 100 %. Se concluye que el modelo presenta una buena capacidad para predecir y evaluar el comportamiento de las variables de interés en la diabetes mellitus tipo 2, mostrando su valor como herramienta de soporte en la identificación oportuna de la enfermedad y apoyo a la toma de decisiones por parte del profesional médico.<hr/>Abstract Type 2 diabetes mellitus is a chronic non-communicable disease caused by a disorder in glucose metabolism, which results in an abnormal increase in glucose concentration in the blood. The late diagnosis of this disease contributes to the increased worldwide rates of morbidity and mortality. The development of models based on artificial intelligence for the prediction of diabetes could accelerate diagnosis. Therefore, the aim of the present study was to develop a prediction model for type 2 diabetes mellitus based on fuzzy cognitive maps trained with a genetic algorithm. The methodology employed consisted of using a dataset from the National Institute of Diabetes and Digestive and Kidney Diseases PIMA Indian population, which contains demographic and clinical information from 768 patients. For training and validation, 70 % of the data was used and the remaining 30 % was used for performance testing. The fuzzy cognitive map model can predict the disease with 99 % accuracy, 98 % precision, and 100 % recall. It is concluded that the model presents a good ability to predict and evaluate the behavior of the variables of interest in type 2 diabetes mellitus, showing its value as a support tool for the timely identification of the disease and support for decision making by the physician. <![CDATA[Blockchain for Ensuring Integrity and Traceability in the Chain of Custody of Digital Evidence in Computer Forensics: A Systematic Mapping Study]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-77992024000200300&lng=pt&nrm=iso&tlng=pt Resumen La incorporación de blockchain como estrategia para mejorar la seguridad de la información en diversos sectores de la sociedad se ha identificado como una potencial solución para reducir los riesgos asociados con el tratamiento de datos en Internet. Garantizar la cadena de custodia en investigaciones forenses es esencial para preservar el registro y procedencia de la evidencia digital. No obstante, la falta de investigación en el desarrollo e implementación de soluciones que integren blockchain para la cadena de custodia dificulta su aplicación y adopción. Por ello, esta investigación tuvo como objetivo clasificar las características de blockchain que permiten garantizar la integridad y trazabilidad de la evidencia digital en el proceso de cadena de custodia, mediante una revisión de literatura basada en un Estudio de Mapeo Sistemático. El estudio describió los conceptos y estado actual de blockchain en relación con la cadena de custodia. Los hallazgos revelaron diversos marcos, pruebas de concepto, prototipos y protocolos que propusieron aplicaciones de blockchain en el registro, intercambio y trazabilidad de evidencia digital en diferentes contextos, así como los beneficios, limitaciones y desafíos asociados con su implementación. Como conclusión final, se destaca la estrecha relación entre integridad y trazabilidad como propiedades fundamentales para la construcción de aplicaciones blockchain, además de proporcionar una base sólida de información que pueda servir de referencia para futuras investigaciones.<hr/>Abstract The incorporation of blockchain as a strategy to improve information security in various sectors of society has been identified as a potential solution to reduce the risks associated with data processing on the Internet. Ensuring chain of custody in forensic investigations is essential to preserve the record and provenance of digital evidence. However, the lack of research on the development and implementation of solutions that integrate blockchain for chain of custody hinders its application and adoption. Therefore, this research aimed to classify the characteristics of blockchain that allow to guarantee the integrity and traceability of digital evidence in the chain of custody process, through a literature review based on a Systematic Mapping Study. The study described the concepts and current status of the blockchain in relation to chain of custody. The findings revealed various frameworks, proofs of concept, prototypes, and protocols that proposed blockchain applications in the recording, exchange, and traceability of digital evidence in different contexts and the benefits, limitations, and challenges associated with their implementation. As a final conclusion, it highlights the close relationship between integrity and traceability as fundamental properties for the construction of blockchain applications and provides a solid foundation of information that can serve as a reference for future research.