Scielo RSS <![CDATA[Ciencia en Desarrollo]]> http://www.scielo.org.co/rss.php?pid=0121-748820240002&lang=en vol. 15 num. 2 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Effect of microencapsulated <em>Lactobacillus lactis</em> on <em>Klebsiella pneumoniae</em> under <em>in-vitro</em> gastrointestinal conditions]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200001&lng=en&nrm=iso&tlng=en Resumen K. pneumoniae se encuentra de forma nativa en el tracto respiratorio y gastrointestinal de humanos, animales domésticos y salvajes con posibles vínculos zoonóticos. Está comúnmente asociada con infecciones nosocomiales y en algunos alimentos se ha reportado como vector de transmisión. Los Lactobacillus se consideran una alternativa preventiva para al uso de antibióticos en salud animal y humana, gracias a la producción de ácido láctico, ácidos orgánicos, exopolisacáridos (EPS) y metabolitos secundarios con propiedades antibacterianas, antioxidantes, reológicas y conservación de alimentos. El objetivo de la investigación es evaluar el potencial inhibitorio de Lactobacillus lactis microencapsulado mediante secado por aspersión sobre Klebsiella pneumoniae bajo condiciones gastrointestinales in-vitro. Se realizaron pruebas preliminares como crecimiento a diferente temperatura (37°C y 42°C), producción de gas y actividad de catalasa. Posteriormente se realizó cinética de fermentación donde se evaluó UFC/mL, consumo de azúcar (mg/L), producción de proteínas, pH y producción de ácido láctico. La microencapsulación se realizó mediante secado por aspersión con inulina (5%) y maltodextrina (5%), el producto resultante se almacenó por 50 días. El estudio estructural, de estabilidad y supervivencia en condiciones gastrointestinales in-vitro se realizaron después del periodo de almacén. Finalmente se efectuaron las pruebas de inhibición de L. lactis sobre K. pneumoniae. Los resultados permiten concluir que existe efecto protector sobre L. lactis microencapsulado y respuesta inhibitoria de la cepa láctica sobre K. pneumoniae.<hr/>Abstract K. pneumoniae is found natively in the respiratory and gastrointestinal tracts of humans, domestic and wild animals with possible zoonotic links. It is commonly associated with nosocomial infections and has been reported in some foods as a vector of transmission. Lactobacillus are considered a preventive alternative to the use of antibiotics in animal and human health, thanks to the production of lactic acid, organic acids, exopolysaccharides (EPS) and secondary metabolites with antibacterial, antioxidant, rheological and food preservation properties. The objective of the research is to evaluate the inhibitory potential of Lactobacillus lactis microencapsulated by spray drying on Klebsiella pneumoniae under gastrointestinal conditions in-vitro. Preliminary tests were conducted, including growth at different temperatures (37°C and 42°C), gas production, and catalase activity. Subsequently, fermentation kinetics were performed, evaluating CFU/mL, sugar consumption (mg/L), protein production, pH, and lactic acid production. Microencapsulation was carried out through spray drying with inulin (5%) and maltodextrin (5%), and the resulting product was stored for 50 days. Structural, stability, and survival studies under in-vitro gastrointestinal conditions were conducted after the storage period. Finally, inhibition tests of L. lactis on K. pneumoniae were performed. The results allow us to conclude that there is a protective effect on microencapsulated L. lactis and an inhibitory response of the lactic strain on K. pneumoniae. <![CDATA[Genotoxic effect of Aloin in Human Lymphocytes]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200008&lng=en&nrm=iso&tlng=en Resumen La aloína es una sustancia presente en el gel de aloe, con gran utilidad en agricultura, la cual sirve como medio defensa para alejar depredadores de las plantas, es por ello que el objetivo de la investigación fue evaluar el efecto genotóxico de la aloína en linfocitos humanos como componente principal de un bioinsecticida. La metodología consistió en la extracción de aloína en las hojas de Aloe vera, se realizaron tratamientos a concentraciones de aloína de 1.0 %, 1.5 % y 2.0 %, los cuales fueron expuestos en linfocitos humanos, posterior a ello, se realizó un proceso de electroforesis utilizando el ensayo cometa, las imágenes capturadas fueron con microscopio optika pro view y analizadas en el software Comet score, teniendo en cuenta la longitud de la cola y porcentaje de ADN, como resultado se obtuvo mayor daño en los tratamientos de concentraciones de 1.5 % y 2.0 %. Con lo cual se concluyó que la exposición a concentraciones altas de aloína es un factor clave para el daño en linfocitos humanos.<hr/>Abstract Aloin is a substance present in the aloe gel, with great utility in agriculture, which serves as a means of defense to ward off predators. The objective of the work was to evaluate the genotoxic effect of aloin in human lymphocytes as the main component of a bioinsecticide. The methodology consisted in the extraction of aloin in Aloe vera leaves, treatments were performed at aloin concentrations of 1.0 %, 1.5 % and 2.0 %, which were exposed in human lymphocytes, after that, an electrophoresis process was performed using the comet assay, the images captured were with optika pro view microscope and analyzed in the Comet score software, taking into account the length of the tail and percentage of DNA, as a result greater damage was obtained in the treatments of concentrations of 1.5 % and 2.0 %. Thus, it was concluded that exposure to high concentrations of aloin is a key factor for damage in human lymphocytes.. <![CDATA[Design of a correlational model to quantify physicochemical variables from spectroradiometry techniques in water bodies. Case study Cuja River Cundinamarca Colombia]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200015&lng=en&nrm=iso&tlng=en Resumen La gestión ambiental enfrenta un desafío crítico vinculado a la calidad del agua, particularmente en la región de Cundinamarca, responsable de proporcionar el 80 % del suministro hídrico en la ciudad de Bogotá. En este contexto, la teledetección surge como una herramienta esencial para llevar a cabo una evaluación efectiva de la calidad del agua. Su capacidad para obtener datos de manera remota y a gran escala la posiciona como una solución innovadora y confiable para monitorear y analizar la contaminación en cuerpos de agua dulce de manera cada vez más precisa y oportuna. En esta investigación se analizó la correlación entre variables fisicoquímicas y datos obtenidos mediante espectro-radiometría de campo. Las variables fueron conductividad, pH, sólidos suspendidos totales (TSS), Demanda química de oxígeno (DQO), nitratos y fosfatos, tomados en cuatro puntos diferentes de la cuenca del rio Cuja. Se capturaron 70 firmas espectrales, utilizando el espectro radiómetro de mano ASD FieldSpec HandHeld 2. Utilizando el coeficiente de correlación de Pearson y el coeficiente de determinación R-cuadrado, se analizaron los datos de entrada en modelos de regresión con un nivel de confiabilidad del 95 %, mostrando una fuerte correlación entre las variables pH del agua con un nivel de determinación del 92 % y la longitud de onda del espectro visible de 400 nm. Se determinó que la longitud de onda de 822 nm en el rango de los infrarrojos es altamente efectiva para la medición de los niveles de nitratos, con un coeficiente de determinación del 90 %. Además, las longitudes de onda de 760 nm en el borde rojo y de 393 nm en el azul visible son adecuadas para la medición de fosfatos y sólidos suspendidos, con coeficientes de determinación del 86 % y 82 %, respectivamente. Cabe destacar que, en comparación, las variables de conductividad y demanda química de oxígeno (DQO) exhibieron coeficientes de determinación del 82 % y 77%, respectivamente. Estos hallazgos sugieren que la espectroradiometría de campo es una valiosa aliada en la medición de parámetros fisicoquímicos en la calidad del agua.<hr/>Abstract Water quality is a critical issue in environmental management, and in this sense, remote sensing has acquired a relevant role as a highly effective evaluation tool. With its ability to obtain data remotely and on a large scale, remote sensing is presented as an innovative and reliable solution to monitor and analyze contamination in freshwater bodies in an increasingly accurate and timely manner. In this research, the correlation between physicochemical variables and data obtained by field spectro-radiometry was analyzed. The variables were conductivity, pH, total suspended solids (TSS), chemical oxygen demand (COD), nitrates and phosphates, taken at four different points in the Cuja river basin. 70 spectral signatures were captured, using the ASD FieldSpec HandHeld 2 handheld spectrum radiometer. Using the Pearson correlation coefficient and the R-squared coefficient of determination, the input data were analyzed in regression models with a confidence level of 95 %, showing a strong correlation between the pH variables of the water with a determination level of 92 % and the wavelength of the visible spectrum of 400 nm. Likewise, it was determined that the 822 nm wavelength in the infrared range is highly effective for measuring nitrate levels with a determination coefficient of 90 %, while the 760 nm wavelengths of the red edge and 393nm of the visible blue were adequate to measure phosphates and suspended solids with coefficients of 86 % and 82 %, respectively. Notably, in comparison, the conductivity and chemical oxygen demand (COD) variables exhibited coefficients of determination of 82 % and 77 %, respectively. These findings suggest that field spectroradiometry is a valuable ally in the measurement of physicochemical parameters in water quality. <![CDATA[Vector-Host Insects in Colombia: Molecular Revelations of ITS2 and COII Markers in their Phylogeny and Biogeography]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200024&lng=en&nrm=iso&tlng=en Resumen Se investigó la filogenia y biogeografía de insectos vector-hospederos en Colombia utilizando marcadores moleculares ITS2 y COII. Por medio de los datos del Centro Nacional de Información Biotecnológica (NCBI), se establecieron bases de datos locales de marcadores moleculares para especies de Diptera y Hemiptera. Se utilizaron modelos de máxima verosimilitud para examinar las relaciones de parentesco, los orígenes y la distribución potencial de estos insectos. Los análisis revelaron 18 clados parafiléticos con una resolución superior al 55 % para Diptera y 28 clados que superan el 50 % para ITS2. En el caso de Hemiptera, se identificaron 20 clados parafiléticos con una resolución superior al 13 % con el marcador COII, y 14 clados parafiléticos con una resolución superior al 50 % con ITS2. Estos resultados resaltan la solidez y precisión de los marcadores ITS2 y COII para separar taxonómicamente a estos organismos hospederos en Colombia. También, se encontró que los géneros Diptera y Hemiptera están ampliamente extendidos en la región Caribe, Pacífica, Andina, Orinoquía y Amazonía. Además, se concluye que a pesar de la notable escasez de datos moleculares y registros taxonómicos, los taxones Diptera y Hemiptera tienen orígenes monofiléticos, y el marcador ITS2 permitió separar los clados encontrados, con congruencia taxonómica a nivel de género. La carencia de datos moleculares y taxonómicos en Colombia, resalta la necesidad de futuras investigaciones para desentrañar la biogeografía y la ecología de los insectos vectores y hospederos, para facilitar el desarrollo de bases de datos nacionales de biodiversidad integrales..<hr/>Abstract This study investigated the phylogeny and biogeography of vector-host insects in Colombia using molecular markers ITS2 and COII. By leveraging data from the National Center for Biotechnology Information (NCBI), we established local knowledge bases of molecular markers for Diptera and Hemiptera species. We used maximum likelihood and Neighbor-Joining models to examine the kinship relationships, origins, and potential distributions of these vector-host insects. Our analysis revealed 18 paraphyletic clades with a resolution exceeding 55 % for Diptera, and 28 clades surpassing 50 % for ITS2. In the case of Hemiptera, we identified 20 paraphyletic clades with a resolution greater than 13 % using the COII marker, and 14 paraphyletic clades with a resolution higher than 50 % with ITS2. These results highlight the robustness and accuracy of ITS2 and COII markers in taxonomically discerning host organisms in Colombia, owing to their high precision, molecular stability, and ease of PCR amplification. We also found that Diptera and Hemiptera are widespread across the Caribe, Pacífica, Andina, Orinoquía y Amazonía regions. Furthermore, it is concluded that despite the noticeable paucity of molecular data and taxonomic records, the taxa Diptera and Hemiptera have monophyletic origins, and the ITS2 marker allowed us to separate the clades found, with taxonomic congruence at the genus level. This underscores the need for future research to unravel the biogeography and ecology of insect vectors and hosts in Colombia, thus facilitating the development of comprehensive national biodiversity databases. <![CDATA[Nanoparticles: A promising alternative for the treatment of breast cancer]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200032&lng=en&nrm=iso&tlng=en Resumen El cáncer de seno (CS) es una enfermedad común y representa uno de los mayores problemas de salud en el mundo, siendo por ende una preocupación global significativa considerando el alto porcentaje de nuevos casos diagnosticados (2.261.419), y el número de muertes atribuidas a esta enfermedad (684.996) en el 2020. Las decisiones terapéuticas para pacientes con CS, se basan principalmente en la evaluación de parámetros clínicos y patológicos. En particular, la evaluación inmunohistoquímica de factores pronósticos, la clasificación del subtipo tumoral, el marcador de proliferación celular Ki67 y el grado histológico, entre otros, desempeñan un papel importante en la planificación de las estrategias terapéuticas. Sin embargo, aunque este ha sido un enfoque exitoso, algunos pacientes recaen y/o eventualmente desarrollan resistencia. Por lo tanto, el desarrollo de mecanismos de terapia blanco específicos se convierten en una necesidad. Dentro de estos tratamientos, las nanopartículas (NPs) se han constituido en los últimos años, como una prometedora alternativa de terapias dirigidas, ya que permiten potencializar las propiedades farmacocinéticas de los medicamentos. Las NPs pueden brindar una gran oportunidad para tratar el CS, debido a que se aprovechan las características propias del tumor para una eficaz orientación del fármaco con potencial antitumoral. Considerando lo anterior, esta revisión se centra en estudios recientes que destacan el uso de NPs como un sistema prometedor para la administración dirigida de fármacos en el tratamiento de CS.<hr/>Abstract Breast cancer (BC) is a common disease and represents one of the major health problems in the world, thus being a significant global concern considering the high percentage of new cases diagnosed (2,261,419), and the number of deaths attributed to this disease (684,996) in 2020. Therapeutic decisions for patients with BC are mainly based on the evaluation of clinical and pathological parameters. In particular, immunohistochemical evaluation of prognostic factors, tumor subtype classification, cell proliferation marker Ki67 and histological grade, among others, play an important role in planning therapeutic strategies. However, although this has been a successful approach, some patients relapse and/or eventually develop resistance. Therefore, the development of specific target therapy mechanisms becomes a necessity. Within these treatments, nanoparticles (NPs) have been established in recent years, as a promising alternative for targeted therapies, since they allow potentiating the pharmacokinetic properties of drugs. NPs can provide a great opportunity to treat BC, because the characteristics of the tumor are used for effective drug targeting with antitumor potential. Considering the above, this review focuses on recent studies that highlight the use of NPs as a promising system for targeted drug delivery in the treatment of BC <![CDATA[Numfracpy, Fractional Calculus Techniques with Python]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200043&lng=en&nrm=iso&tlng=en Resumen En este trabajo se introduce una librería en el lenguaje Python que implementa técnicas propias del cálculo fraccionario. Este tipo de cálculo ha visto un incremento notable de sus aplicaciones en diversas áreas de las ciencias en las últimas décadas. Sin embargo, el tipo de cálculos que se necesitan para su desarrollo no son simples y no hay muchas ayudas computacionales para su implementación, especialmente en Python. Numfracpy se encuentra disponible al público en el índice de paquetes PyPI (Python Package Index) e implementa diversos conceptos del cálculo fraccionario como lo son: La integral y la derivada de Riemann-Liouville, la derivada de Caputo, la derivada de Grünwald-Letnikov, las funciones de Mittag-Leffler, la solución numérica de un tipo de ecuación diferencial en derivadas fraccionarias y un sistema de tales ecuaciones diferenciales. En este trabajo se presentan varios algoritmos implementados y los resultados obtenidos se comparan con aquellos reportados en la literatura, encontrando una buena aproximación en los diferentes ejemplos ilustrados.<hr/>Abstract This work introduces a Python library that implements techniques of fractional calculus. This type of calculus has seen a significant increase in its applications across various scientific areas in recent decades. However, the calculations required for its development are not straightforward, and there are limited computational tools available, especially in Python. Numfracpy is publicly available on the Python Package Index (PyPI) and incorporates various fractional calculus concepts, such as Riemann-Liouville integral and derivative, Caputo derivative, Grünwald-Letnikov derivative, Mittag-Leffler functions, numerical solution of a specific fractional differential equation, and a system of such differential equations. The paper presents several implemented algorithms, and the obtained results are compared with those reported in the literature, demonstrating good approximations in the various illustrated examples. <![CDATA[General Lyapunov-based control design for a reaction wheel pendulum: A simulation study case]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200053&lng=en&nrm=iso&tlng=en Resumen En este artículo se aborda el problema de control sobre un péndulo con rueda de reacción (RWP) a partir un diseño de control no lineal que se fundamenta en la teoría de estabilidad de Lyapunov. En primer lugar, se realiza el análisis de estabilidad de pequeña señal (método de linealización por series de Taylor) alrededor de los puntos de equilibrio del sistema en lazo abierto, lo que resulta para la posición vertical superior del RWP en un punto inestable de tipo silla, mientras que para la parte vertical inferior resulta en un foco estable. En segundo lugar, se diseña un controlador no lineal a partir de una función candidata de Lyapunov para diseñar el sistema de control en lazo cerrado, lo que genera una ley de control generalizada para el sistema con estructura no lineal que convierte el punto de equilibrio en la posición vertical superior en un foco estable. Validaciones numéricas demuestran que el diseño del controlador estabiliza el sistema en su punto de equilibrio entre los 400 ms y los 600 ms, lo que depende de las incertidumbres paramétricas del RWP y las variaciones de los parámetros de control. La principal contribución de este artículo corresponde a la generalización de la ley de control que, en función de los parámetros seleccionados puede resultar en una linealización exacta de las variables de estado o en un controlador no lineal generalizado para el RWP. Las validaciones computacionales se realizan en el software MATLAB, empleando el equivalente discreto del sistema con derivada hacia adelante.<hr/>Abstract This article addresses the control problem on a reaction wheel pendulum (RWP) using a control design supported by Lyapunov stability theory. Firstly, a stability analysis using the small signal theory (the linearization approach via Taylor's series) around the RWP equilibrium points considering the open-loop operation case. This analysis defines that the system has a sink unstable equilibrium point in the upright position, while the equilibrium point is a stable focus in the downright place. Secondly, a nonlinear controller is designed using a Lyapunov candidate function to obtain a stable focus on the upright position during its closed-loop operation. Numerical validations demonstrate that the proposed controller stabilizes the RWP system between 400 ms and 600 ms, which depends on the parametric uncertainties of the system parameters and variations in the control parameters. The main contribution of this article corresponds to the generalization of the control lay, which, as a function of the selected parameters, could result in an exact feedback linearization approach or a nonlinear generalized control approach for the RWP. Computational validations were made in MATLAB software using the discrete equivalent of the dynamic system via the ahead derivative method. <![CDATA[Efficient pole balancing in bipolar DC asymmetric networks via the vortex search algorithm]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200063&lng=en&nrm=iso&tlng=en Resumen Este artículo presenta la aplicación del algoritmo de optimización de búsqueda por vórtices y el método de flujo de potencia triangular al problema de balance óptimo de polos en redes de corriente continua bipolares mediante una estrategia de optimización del tipo maestro-esclavo. Este problema consiste en la redistribución eficiente de cargas en los polos positivo y negativo, respecto del polo de neutro, tal que las pérdidas de potencia para una condición de carga determinada son reducidas. El problema de balance óptimo de polos corresponde a un problema de programación no lineal entero-mixto de difícil solución. Para abordar este problema se propone la utilización del algoritmo de búsqueda por vórtices en su etapa maestra y el método de flujo de potencia triangular en su etapa esclava. La etapa maestra se encarga de definir las conexiones de las cargas en los polos positivo y negativo para cada nodo, mientras que la etapa esclava se encarga de evaluar el problema de flujo de potencia resultante y definir el valor de pérdidas para cada condición de carga proveída por la etapa maestra. Los resultados numéricos en los sistemas de 21 y 85 nodos, demuestran la efectividad del modelo de optimización propuesto cuando se compara con métodos combinatorios, disponibles en la literatura especializada. Todas las implementaciones computacionales han sido desarrolladas en el entorno de programación de MATLAB en la versión 2022b.<hr/>Abstract This paper presents the application of the vortex search optimization algorithm and the triangular power flow method to the optimal pole balancing problem in bipolar direct current networks using a master-slave type optimization strategy. This problem consists of the efficient redistribution of loads in the positive and negative poles, with respect to the neutral pole, such that the power losses for a given load condition are reduced. The optimal pole balancing problem corresponds to a mixed-integer nonlinear programming problem that is difficult to solve. To address this problem, the use of the vortex search algorithm in its master stage and the triangular power flow method in its slave stage is proposed. To address this problem, the use of the vortex search algorithm in its master stage and the triangular power flow method in its slave stage is proposed. The master stage is responsible for defining the connection of the loads on the positive and negative poles for each node, while the slave stage is responsible for evaluating the resulting power flow problem, and defining the loss value for each load condition. provided by the master stage. The numerical results for the 21 and 85 node systems demonstrate the effectiveness of the proposed optimization model when compared with combinatorial methods available in the specialized literature. All computational implementations have been developed in the MATLAB programming environment in version 2022b. <![CDATA[The habitable zone of confirmed exoplanets to-date]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200079&lng=en&nrm=iso&tlng=en Resumen En este trabajo presentamos un análisis estadístico con el más reciente catálogo de exoplanetas confirmados. Usamos las propiedades físicas de los exoplanetas y las estrellas que orbitan para calcular la zona de habitabilidad. Para incrementar nuestra muestra, definimos una extensión de la zona habitable a partir de los errores asociados a la luminosidad de cada estrella, pasando de 89 a 134 exoplanetas dentro de la región que favorece la presencia de vida. Encontramos además que 6 exoplanetas dentro de la zona habitable extendida presentan agua y otros biomarcadores compuestos por hidrógeno, carbono, oxígeno y nitrógeno. A partir del conjunto de datos recolectados por los telescopios enfocados en identificar exoplanetas y sin incluir ningún tipo de modelado de las atmósferas de estos planetas, concluimos que se tiene una probabilidad condicionada del 5 % de detectar exoplanetas dentro de la zona de habitabilidad de su estrella y al menos, 0.2 % de probabilidad de observar biomoléculas en las atmósferas de estos exoplanetas. No obstante, las probabilidades calculadas con este método cambiarán sustancialmente con el censo de exoplanetas que arrojará el James Webb Space Telescope en sus próximas campañas de observación, así como otros espectrógrafos de alta resolución.<hr/>Abstract This work presents a statistical analysis of the most recent confirmed exoplanets catalog to date. We use the physical properties of the exoplanets and their stars to calculate the Habitable Zone (HZ). We augment the sample of exoplanets in the HZ by defining an extension to this region from the uncertainties of the inferred luminosity. The latter adaption to our pipeline allows us to increase the sample of exoplanets inside the region that favors live from 89 to 134. Besides that, we find six exoplanets have water and other biosignatures formed with Carbon, Hydrogen, Oxygen, and Nitrogen. From the catalog built with different telescopes focused on the discovery and confirmation of exoplanets, and without including any modeling for the exoplanet's atmosphere, we conclude that there is a 5 % of detecting exoplanets inside the Habitable Zone of their star, and at least, a 0.2 % probability of finding traces of biomolecules in their atmospheres. However, the calculated probabilities with the implemented method here will change dramatically with the ongoing campaigns run by the James Webb Space Telescope and other high-resolution spectroscopic capabilities. <![CDATA[Classification of Astrophysical Spectra using Deep Learning Pre-Trained Algorithms]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200085&lng=en&nrm=iso&tlng=en Resumen La implementación de la espectroscopia como herramienta en la clasificación de objetos astrofísicos es una técnica que cada día se vuelve de mayor utilidad para la astronomía moderna. Actualmente, hay una serie de telescopios espaciales y terrestres cartografiando el cielo cada noche, incrementando el volumen de datos de forma exponencial en el tiempo. Esto lleva al límite los esfuerzos de los astrónomos para clasificar eficientemente los espectros de los objetos observados. En este trabajo, se implementan los algoritmos pre-entrenados: INCEPTION V3, RESNET 50 y MNIST, que se basan en Visión Computacional y Redes Neuronales Convolucionales (CV y CNN, por sus siglas en inglés). En este trabajo realizamos una comparación del rendimiento en la clasificación de espectros tomados de la campaña Sloan Digital Sky Survey (SDSS), Data Release (DR12) del espectrógrafo Baryon Oscillation Spectroscopic Survey (BOSS) con una muestra de 300000 espectros. En el proceso de aprendizaje se ajustaron los hiperparámetros asociados a la entrada de cada modelo, y cada algoritmo se valoró implementando las métricas de exactitud, precisión y sensibilidad. Los resultados de la clasificación demuestran que el mejor clasificador para espectros de cuásares es RESNET 50 con un rendimiento de más de 60 % con respecto a su desempeño con galaxias y estrellas, además ratifican que la implementación de algoritmos de Aprendizaje Profundo para la clasificación de espectros astrofísicos es una estrategia que debe incorporarse a las rutinas de trabajo de los nuevos surveys espectroscópicos con el fin de optimizar el tiempo y la calidad durante el proceso de clasificación manual que hacen los astrónomos.<hr/>Abstract The implementation of spectroscopy as a tool in the classification of astrophysical objects is a technique that is becoming increasingly useful for modern astronomy. Currently, a collection of space and ground-based telescopes map the sky every night, exponentially increasing data volume over time. The growing number of datasets pushes astronomers to efficiently classify the spectra of observed objects. In this work, we implement the pre-trained algorithms: INCEPTION V3, RESNET 50 and MNIST, that are based on algorithms of Computer Vision (CV) and Convolutional Neural Networks (CNN). We compare the performance of the classifiers applied on spectra taken from the Sloan Digital Sky Survey (SDSS) in its Data Release DR12 with the Baryon Oscillation Spectroscopic Survey (BOSS) spectrograph with a sample of 300000 spectra. In the learning process, the hyperparameters associated with each model were adjusted, and each model was evaluated with accuracy, precision, and sensitivity metrics. The exercise results show that the best classifier for quasar spectra is RESNET 50 with a performance of more than 60 % accuracy. In addition, a low loss rate was obtained in the case of star classification with the INCEPTION V3 model. Furthermore, this investigation confirms that this procedure should be introduced as a regular step in the pipeline of ongoing and upcoming spectroscopy surveys in order to optimize time and quality during the manual classification process carried out by astronomers. <![CDATA[Jump Function]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200095&lng=en&nrm=iso&tlng=en Resumen Se realiza la construcción implícita de una función estrictamente creciente, dada en el segmento [0; 1] con el conjunto de puntos de discontinuidad, coincidente con el conjunto de números racionales diádicos del mismo segmento.<hr/>Abstract The implicit construction of a strictly increasing function, given on the segment [0; 1] with the set of discontinuity points, coinciding with the set of dyadic rational numbers of the same segment. <![CDATA[Enseñando análisis de varianza de un solo factor usando rompecabezas del mapa de un país]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200102&lng=en&nrm=iso&tlng=en Resumen La enseñanza del diseño de experimentos de un solo factor es crucial para futuros profesionales. Por lo general, los profesores imparten clases magistrales y asignan ejercicios, sin explorar metodologías didácticas más cautivadoras. Esta investigación presenta una metodología novedosa: los estudiantes aprenden jugando con un rompecabezas del mapa de un país. Deben armar uno de dos rompecabezas: uno con nombres de departamentos y otro sin los nombres. La variable de interés es el tiempo que tardan en completar el rompecabezas. Además, se propone una aplicación Shiny para registrar datos y análisis. En un experimento con 25 estudiantes, se encontró evidencia de que el tiempo es menor cuando el rompecabezas incluye nombres de departamentos. En resumen, esta metodología innovadora ayuda a los estudiantes a comprender el diseño de experimentos en el aula.<hr/>Abstract The teaching of single-factor experimental design is crucial for future professionals. Typically, instructors deliver lectures and assign exercises without exploring more engaging didactic methodologies. This research introduces a novel approach: students learn by playing with a puzzle of a country map. They must assemble one of two puzzles: one with department names and one without names. The variable of interest is the time it takes to complete the puzzle. Additionally, a Shiny application is proposed for data logging and analysis. In an experiment involving 25 students, evidence was found that completion time is shorter when the puzzle includes department names. In summary, this innovative methodology aids students in understanding experimental design in the classroom. <![CDATA[Mathematical modeling for the dynamics of savanna and forest ecosystems under the effects of fire, rain and competition for space]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200107&lng=en&nrm=iso&tlng=en Resumen El objetivo principal de este trabajo es estudiar las propiedades de las soluciones de un modelo matemático que examina la dinámica de los ecosistemas de sabana y bosque bajo los efectos típicos de fuego, lluvia y competencia por el espacio. En particular, se estudia la existencia de soluciones de equilibrio y su respectiva estabilidad en términos de los parámetros demográficos. Lo anterior, permite evaluar la resiliencia de los ecosistemas frente a perturbaciones, además, facilita el diseño de estrategias de conservación efectivas que promuevan la sostenibilidad a largo plazo. Los resultados obtenidos son comparados por medio de simulaciones numéricas con la ayuda del software MATLAB.<hr/>Abstract The main objective of this work is to study the properties of the solutions of a mathematical model that examines the dynamics of savanna and forest ecosystems under the typical effects of fire, rain and competition for space. Particularly, the existence of equilibrium solutions and their respective stability in terms of demographic parameters are studied. This allows us to evaluate the resilience of ecosystems against disturbances and also facilitates the design of effective conservation strategies that promote long-term sustainability. The results obtained are compared through numerical simulations with the help of MATLAB software. <![CDATA[Burr XII Distribution with Truncated and Censored Data: Maximum Likelihood Estimation Based on Newton-Raphson Method]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200125&lng=en&nrm=iso&tlng=en Abstract This work shows a methodology to estimate by maximum likelihood (ML) the parameters of a Burr XII distribution when data are simultaneously left-truncated and right-censored. Given that ML equations do not have a definitive solution under these conditions, an iterative procedure based on the Newton-Raphson method is considered; percentile matching is used to set initial values to the algorithm. Simulation and real data analysis results indicate that the alternative proposed performs well.<hr/>Resumen Este trabajo muestra una metodología para estimar por máxima verosimilitud (ML) los parámetros de una distribución Burr XII cuando los datos son simultáneamente truncados por la izquierda y censurados por la derecha. Dado que las ecuaciones de ML no tienen solución definitiva en estas condiciones, se considera un procedimiento iterativo basado en el método de Newton-Raphson. La coincidencia de percentiles se utiliza para establecer valores iniciales en el algoritmo. Los resultados basados en simulaciones y análisis de datos reales indican que la alternativa propuesta tiene un buen desempeño. <![CDATA[Stests: an R package to perform multivariate statistical tests]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200135&lng=en&nrm=iso&tlng=en Abstract The Behrens-Fisher problem refers to a statistical challenge in comparing the mean vectors of two normally distributed p-variate populations when the covariance matrices of these populations are assumed to be unequal. This problem can be addressed using Hotelling's T2 test that requires equality of covariance matrices. However, when the assumption of equality between the two covariance matrices is violated, the performance of this test can be affected, leading to incorrect conclusions. This article presents the implementation of 11 alternative tests proposed in the statistical literature for the Behrens-Fisher problem. These tests are hosted in the stests library in R, and any of these tests can be used through a single function. Additionally, this article conducted a Monte Carlo simulation study in which factors such as sample size, the distance between the mean vectors, and a scaling factor between the covariance matrices were examined. The results found that the rejection rate of the null hypothesis (H0: μ 1 = μ 2) increases when there is a greater discrepancy between the two mean vectors and when the sample size increases. The results demonstrate that all the tests developed in the stests package, which address the multivariate Behrens-Fisher problem, are plausible for comparing two mean vectors.<hr/>Resumen El problema de Behrens-Fisher se refiere a un desafío estadístico en la comparación de vectores de medias de dos poblaciones distribuidas normal p-variadas cuando se asume que las matrices de covarianzas de estas poblaciones no son iguales. Este problema se puede abordar mediante la prueba T 2 de Hotelling y que exige igualdad de matrices de covarianzas. Sin embargo, cuando el supuesto de igualdad entre las dos matrices de covarianzas se viola, el desempeño de esta prueba puede verse afectada, dando lugar a conclusiones incorrectas. En este artículo se muestra la implementación de 11 pruebas alternativas propuestas en la literatura estadística para el problema de Behrens-Fisher, estas pruebas están alojadas en la librería stests en R y por medio de una sola función se puede usar cualquiera de estas pruebas. Adicionalmente, en este artículo se hizo un estudio de simulación Monte Carlo en el cual se estudiaron factores como el tamaño de muestra, la distancia entre los vectores de medias y un factor escalar entre las matrices de covarianza. Como resultado se encontró que la tasa de rechazos de la hipótesis nula (H0: μ 1 = μ 2) aumenta cuando hay una mayor discrepancia entre los dos vectores de media y cuando el tamaño de muestra aumenta. Los resultados demuestran que todas las pruebas desarrolladas en el paquete stests, que abordan el problema multivariado de Behrens-Fisher, son plausibles para comparar dos vectores de medias. <![CDATA[Bootstrap versus Jackknife: Confidence intervals, hypothesis testing, density estimation, and kernel regression]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200143&lng=en&nrm=iso&tlng=en Resumen Se comparan los métodos Bootstrap y Jackknife en varios contextos estadísticos. Inicialmente usando estimaciones de coeficientes de variación obtenidos a partir de muestras de varios modelos de probabilidad (Normal, Gama, Binomial y Poisson) generadas por simulación de Monte Carlo. Con los resultados se evalúa sesgo y varianza los estimadores. También se estudia el desempeño de los dos procedimientos inferenciales considerados en problemas de una muestra, estimación de la densidad y regresión kernel. Los resultados muestran que en el caso del coeficiente de variación Jackknife tiene menor sesgo pero mayor error estándar. Bootstrap es más potente en este contexto. En lo referente a la estimación de la densidad (histograma y Kernel) y la estimación del ancho de banda en la estimación de la función de regresión Jackknife produce estimaciones más cercanas a las clásicas que las halladas con Bootstrap. Los correspondientes intervalos de confianza con Jackknife son más cortos que los establecidos con Bootstrap.<hr/>Abstract Bootstrap and Jackknife methods are compared in various statistical contexts. Initially, these are evaluated using estimates of coefficients of variation obtained from samples of different probability models (Normal, Gamma, Binomial, and Poisson) generated by Monte Carlo simulation. With the results, the bias and variance of the estimators are evaluated. The performance of the two inferential procedures considered in one-sample problems, density estimation, and kernel regression, is also studied. The results show that in the case of the Jackknife coefficient of variation, it has a lower bias but a higher standard error. Bootstrap is a more powerful estimator in this context. Both methodologies produce similar results regarding density estimation (histogram and kernel). In regression Kernel, it is observed that Jackknife allows obtaining estimates of the regression bandwidth closer to the classical ones than those found with Bootstrap. The corresponding confidence intervals with Jackknife are shorter than those established with Bootstrap. <![CDATA[Tumor Growth Dynamics Under Chemotherapy Treatment, a Mathematical Analysis With Periodic Drug Concentration]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200153&lng=en&nrm=iso&tlng=en Resumen En general el crecimiento tumoral en el cuerpo humano a menudo se controla mediante un tratamiento quimioterapeutico. Esta investigación tiene como objetivo interpretar matemáticamente la dinámica entre las células tumorales y las células normales considerando el tratamiento con quimioterapia suministrada periódicamente. De esta manera se presenta un modelo con dos compartimentos celulares y uno farmacológico. Además, se proporciona un análisis de estabilidad local de los puntos estacionarios en el modelo, a partir del cual se consideran cuatro escenarios diferentes para la dinámica tumoral. Finalmente, se presentan simulaciones numéricas considerando diferentes intervalos para las sesiones de quimioterapia.<hr/>Abstract In general, tumor growth in human body is often controlled through chemotherapy treatment. This research aims to mathematically interpret the dynamics between tumor cells and normal cells considering treatment with chemotherapy administered periodically. In this way, a two-cell one-drug model is introduced via a nonlinear system of differential equations. In addition, the stability analysis of stationary points in the model is provided, from which four different scenarios for the tumor dynamics are produced. Lastly, several numerical simulations are presented considering different intervals for the chemotherapy sessions. <![CDATA[Diseños <em>D</em>-Óptimos Bayesianos Penalizados para Modelos de Regresión de Respuesta Continua]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200162&lng=en&nrm=iso&tlng=en Resumen Se propone extender el uso de funciones de deseabilidad en diseños óptimos bayesianos para modelos de regresión. Esta técnica genera diseños experimentales con buenas propiedades de inferencia estadística de acuerdo con la teoría del diseño óptimo bayesiano y características prácticas, según lo definido por un investigador. Estas características prácticas se definen mediante una función de penalización, utilizando una función de deseabilidad general, que se agrega a un criterio de diseño bayesiano D-óptimo para penalizar los diseños experimentales poco prácticos. Esta metodología se ilustra con dos ejemplos de modelos de regresión: cuadrático y exponencial. Luego, comparamos los diseños obtenidos para diferentes distribuciones previas de parámetros desconocidos mediante cálculos de eficiencia y estudios de simulación. Los resultados muestran que las D-eficiencias de los diseños penalizados en relación con los diseños D-óptimos bayesianos no penalizados son competitivas.<hr/>Abstract We propose extending the use of desirability functions in Bayesian optimal designs for regression models. This technique generates experimental designs with good statistical inference properties according to Bayesian optimal design theory and practical features, as defined by an investigator. These practical features are defined by a penalty function, using an overall desirability function, which is added to a Bayesian D-optimal design criterion to penalize impractical experimental designs. This methodology is illustrated by two examples of regression models: quadratic and exponential. Then, we compare designs obtained for different prior distributions of unknown parameters by efficiency calculations and simulation study. Results show that the D-efficiencies of the penalized designs relative to the non-penalized Bayesian D-optimal designs are competitive. <![CDATA[Chromium removal potential from tannery process by diatomaceous soil filtration.]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200170&lng=en&nrm=iso&tlng=en Abstract The problem of using chromium in the leather industry to stabilize animal skin is related to the associated contamination processes, especially those referred to as polluted water discharge to rivers. This situation, due to its high toxicity, added to the complications of removing this heavy metal from liquids. Diatomaceous soils can be a good alternative as a filtering barrier in capturing chromium residues due to their large surface area and high porosity. This investigation analyzed and treated contaminated water obtained from a tannery located in the city of Bogotá. Diatomaceous soils from the United States and Colombia were used as filter material. The north american soil is multispecies type, while the colombian soil is composed only of the Aulacoseira granulata specie. The filter medium consists of layers of dry diatomaceous earth, of variable thickness, with and without thermal activation, installed inside a pressurized chamber. In conclusion, all the samples showed chromium removal percentages. The filters of colombian origin reported a higher Cr removal capacity. The acidity and conductivity of the water were reduced compared to the original sample.<hr/>Resumen El problema de la utilización de cromo en la industria del cuero para estabilizar la piel animal, está relacionado con los procesos de contaminación asociados, especialmente aquellos referentes con la descarga de aguas a nacimientos de ríos. Esto, debido a su alta toxicidad, sumado a las complicaciones de remoción de este metal pesado desde los líquidos. Debido a su gran área superficial y alta porosidad, los suelos de diatomeas pueden ser una buena alternativa como barrera filtrante en la captura de residuos de cromo. Esta investigación analizó y trató agua contaminada obtenida desde una fábrica curtiembre ubicada en la ciudad de Bogotá. Como material filtrante se utilizaron suelos diatomáceos de Estados Unidos y Colombia. El suelo norteamericano es de tipo multiespecie, mientras que el suelo colombiano se compone únicamente de la especie Aulacoseira granulata. El medio filtrante consiste en capas de tierra de diatomeas secas, de espesor variable, con y sin activación térmica, instaladas dentro de una cámara presurizada. Como conclusión, todas las probetas arrojaron porcentajes de eliminación de cromo. Los filtros de origen colombiano reportaron una mayor capacidad de remoción de Cr. Se redujo la acidez y la conductividad del agua, respecto de la muestra original. <![CDATA[Production of <em>Lactuca Sativa L.</em> and <em>Ocimum Basilicum L.</em> In aquapony: characterization of essential oils.]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200179&lng=en&nrm=iso&tlng=en Resumen La acuaponía es una estrategia que permite el ahorro de agua, eficiencia de nutrientes y producción limpia de alimentos. Sin embargo, su implementación todavía es un desafío en los países en vía de desarrollo por los problemas asociados a la baja eficiencia de recuperación de nutrientes, costo y calidad de agua; que afectan la producción y calidad de los alimentos. Es así que, este trabajo tuvo como objetivo establecer la producción de Lactuca Sativa L. y Ocimum Basilicum L. en un prototipo semicomercial acuapónico de Oreochromis niloticus y la caracterización del aceite esencial de Ocimum Basilicum L. Se evaluaron parámetros de calidad de agua del sistema, crecimiento de las especies vegetales y composición del aceite esencial extraído por destilación usando un equipo tipo clevenger. Los resultados mostraron concentraciones adecuadas de fosfato y nitrato para el crecimiento de las plantas y bajas niveles de K+, Ca2+ e Fe2+. Las lechugas alcanzaron un peso promedio de 110-155 g a los 40 días de cultivo, mientras que la albahaca generó un peso fresco de 20.5 ± 8.7 a 40.7 ± 5.5 g a los 60 días del cultivo. Por otro lado, se observó que linalol y chavicol fueron los componentes principales del aceite esencial de albahaca y esto fue relacionado con el contenido de nutrientes presentes el sistema.<hr/>Abstract Aquaponics is a strategy that allows water savings, nutrient efficiency and clean food production. However, its implementation is still a challenge in developing countries due to the problems associated with low nutrient recovery efficiency, cost and water quality; that affect the production and quality of food. Thus, this work aimed to establish the production of Lactuca Sativa L. and Ocimum Basilicum L. in a semi-commercial aquaponic Oreochromis niloticus prototype and the characterization of the essential oil of Ocimum Basilicum L. System water quality parameters, growth of the plant species and composition of the essential oil extracted by distillation using clevenger-type equipment. The results showed adequate concentrations of phosphate and nitrate for plant growth and low levels of K+, Ca2+ e Fe2+. The lettuces reached an average weight of 110-155 g after 40 days of cultivation, while the basil generated a fresh weight of 20.5 ± 8.7 to 40.7 ± 5.5 g after 60 days of cultivation. On the other hand, it was observed that linalool and chavicol were the main components of basil essential oil and this was related to the content of nutrients present in the system. <![CDATA[Advanced oxidation technology using Fe<sup>0</sup>/H<sub>2</sub>O<sub>2</sub> as an effective treatment to recycle industrial wastewater for irrigation of s crops.]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200186&lng=en&nrm=iso&tlng=en Abstract This study focused on the development of a new Phenton treatment of water effluent from a local industrial park and dyeing industry. Different advanced oxidation technologies (AOTs) such as heterogeneous photocatalysis, photo-Fenton and UV-Vis/H2O2 using FeSO4 and pure iron were evaluated. To develop this study, water samples were tested before and after each treatment. In general, the amount of chlorides, nitrates, hydrocarbons, heavy metals, TOC and bacteria decreased significantly after AOTs. Photo-Fenton and UV-Vis/H2O2/TiO2 showed the best performance in the treatment of dyeing industry and industrial wastewater, respectively. Photo-Fenton mineralized 100% of the dyes, reduced total coliforms by 99%, eliminated 76% of the TOC and 60% of the heavy metals tested. Interestingly, the use of ferrous metal in the Photo-Fenton treatment was found to achieve similar results. This means that wastewater can be treated with benign chemicals. Treated wastewater was evaluated as a potential water source for irrigation of Lolium perenne, a conventional forage crop. In general, the physical characteristics of Lolium perenne, such as leaf and canopy length and width, were not significantly altered after irrigation with treated wastewater. Similar results were obtained using treated tap water as a reference. Trace amounts of metals remaining from the treatment were detected in the grass and soil. However, the concentration of Cd, Cr, Cu and Zn was very similar to that of tap water. Considering these results, the use of non-toxic zero-valent iron metal and hydrogen peroxide in a photo-Fenton reaction is a pilot plant scalable alternative oxidative treatment technology for recycling industrial wastewater in agricultural activities. <![CDATA[Production of a protein isolate from boyacense quinoa flour <em>(chenopodium quinoa)</em> by combined methods]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200197&lng=en&nrm=iso&tlng=en Abstract Quinoa is a pseudocereal known for its high content of plant protein. The aim of this study was to obtain a high-purity protein isolate using different extraction methodologies. Initial characterization of the quinoa flour on a dry basis (QF) showed protein content of 16% and starch content of 53%. Optimal pH values were determined through solubility curves, and extractions were performed using 0% and 1% NaCl solutions, resulting in a protein yield of 38%. Fractionated extraction was then used, increasing the protein yield to 42%. Finally, enzymatic hydrolysis of the starch, which acts as an interferent in protein extraction, was performed. The combined use of enzymatic hydrolysis and fractionated extraction resulted in a protein isolate with a high degree of purity (~55%). This study demonstrates that the combination of different extraction methodologies can significantly improve the yield and purity of the final product.<hr/>Resumen La quinua es un pseudocereal que es conocido por su alto contenido de proteína vegetal. El presente estudio se enfocó en obtener un aislado proteico, utilizando diferentes metodologías de extracción. La caracterización inicial de la harina de quinua en base seca (QF) mostró un contenido de proteína del 16 % y de almidón del 53 %. Se establecieron los mejores valores de pH, a través de curvas de solubilidad, y se llevaron a cabo extracciones en soluciones 0 % y 1 % de NaCl, obteniendo un rendimiento del 38% de proteína. Posteriormente, se empleó una extracción fraccionada, lo que permitió aumentar el rendimiento proteico al 42 %. Por último, se aplicó una hidrólisis enzimática del almidón presente en la harina, que actúa como interferente en la extracción proteica. El uso combinado de la hidrólisis enzimática y la extracción fraccionada permitió obtener un aislado proteico con un alto porcentaje de pureza (~55 % ). Este estudio demostró que la combinación de diferentes metodologías de extracción puede mejorar significativamente el rendimiento y pureza del producto final. <![CDATA[Sideróforos de rizobacterias y su aplicación en la biorremediación]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200203&lng=en&nrm=iso&tlng=en Resumen La contaminación del suelo por metales tóxicos reduce la producción agrícola y la calidad de los alimentos. La biorremediación es una alternativa para la recuperación de suelos contaminados, mediado por rizobacterias que cuentan con diferentes mecanismos, como la producción de sideróforos, para contrarrestar la toxicidad de los metales pesados. Los sideróforos son pequeñas moléculas orgánicas quelantes de hierro, que es un elemento esencial para la vida de todos los organismos y es requerido en diferentes procesos celulares. El conocimiento sobre los mecanismos de síntesis de los sideróforos y su potencial efecto en la biorremediación es fundamental para la implementación de alternativas ecológicas para reducir los efectos adversos ocasionados por el uso de químicos. En esta revisión se describe las clases, síntesis, transporte y regulación de los sideróforos; también se presenta los principales hallazgos relacionados con el uso de rizobacterias promotoras del crecimiento vegetal (PGPR) productores de sideróforos en la biorremediación de ambientes contaminados, con el fin de consolidar información para el desarrollo de nuevas alternativas sostenibles en la reducción del impacto negativo de los metales tóxicos en la producción agrícola.<hr/>Abstract Soil contamination by toxic metals reduces agricultural production and food quality. Bioremediation is an alternative for the recovery of contaminated soils, mediated by microorganisms that have different mechanisms, such as the production of siderophores, to counteract the toxicity of heavy metals. Siderophores are small organic molecules that chelate iron, which is an essential element for the life of all organisms and is required in different cellular processes. Knowledge about the synthesis mechanisms of siderophores and their potential effect on bioremediation is fundamental for the implementation of ecological alternatives to reduce the adverse effects caused by the use of chemicals. This review describes the classes, synthesis, transport and regulation of siderophores; it also presents the main findings related to the use of plant growth promoting rhizobacteria (PGPR) producers of siderophores in the bioremediation of contaminated environments, in order to consolidate information for the development of new sustainable alternatives to reduce the negative impact of toxic metals in agricultural production. <![CDATA[Hidden Markov model the cornerstone of modern proteomics]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0121-74882024000200212&lng=en&nrm=iso&tlng=en Resumen El modelo oculto de Markov (HMM) se ha convertido en una de las herramientas más utilizadas en el análisis de secuencias biológicas, ya que proporcionan un sólido marco matemático para modelar y analizar secuencias biológicas. En este documento, presentamos una revisión del concepto básico de los HMM y cómo es posible usar de manera efectiva el HMM para la representación de secuencias biológicas en la identificación de secuencias de proteínas evolutivamente distantes.<hr/>Abstract Hidden Markov Model (HMM) have become one of the most widely used tools in biological sequence analysis, as they provide a robust mathematical framework for the modelling and analysis of biological sequences. In this paper we review the basic concept of HMMs and how it is possible to effectively use HMMs to represent biological sequences when identifying evolutionarily distant protein sequences.