Scielo RSS <![CDATA[Revista Colombiana de Estadística]]> http://www.scielo.org.co/rss.php?pid=0120-175120180001&lang=pt vol. 41 num. 1 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Simultaneous Confidence Bands for the Estimation of Expected Discounted Warranty Costs for Coherent Systems under Minimal Repair]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512018000100001&lng=pt&nrm=iso&tlng=pt Abstract This paper develops simultaneous confidence bands using computer intensive methods based on resampling, for the expected discounted warranty costs in coherent systems under physical minimal repair, that is, when the system is observed at its components level and only the component that causes the fault is minimally repaired. For this purpose, it is shown that, under the framework of the Martingale processes and the central limit resampling theorem (CLRT) over stochastic processes, the discounted warranty cost processes satisfy the conditions set by the central limit resampling theorem (CLRT). Additionally, a simulation study is performed on the most relevant variables, such that the finite sample features of the proposed bands may be assessed, based on their actual coverage probabilities. The results in the considered scenarios show that resampling-based simultaneous confidence bands have coverage probabilities that are close to the nominal coverage. In particular, the agreement is good when there are 100 systems or more where a large number of resamples are used for the approximation.<hr/>Resumen Este trabajo desarrolla bandas de confianza simultáneas usando métodos computacionales intensivos basados en remuestreo, para el costo medio de garantía descontado en sistemas coherentes bajo reparo mínimo físico, esto es, cuando el sistema es observado al nivel de sus componentes y sólo la componente que causa la falla es reparada mínimamente. Para ello se prueba que, bajo el marco teórico de los procesos martingala, los procesos de costos de garantía descontados cumplen las condiciones del teorema de límite central de remuestreo (CLRT). Un estudio de simulación Monte Carlo se realiza para evaluar, a través de las probabilidades de cobertura alcanzadas, el desempeño de las bandas propuestas en muestras finitas. Los resultados en los escenarios considerados muestran que las bandas de confianza basadas en remuestreo tienen probabilidades de cobertura con valores cercanos a los esperados, en particular para aquellas basadas en muestras con más de 100 sistemas donde el número de remuestras usado para la aproximación es grande. <![CDATA[Estimating dynamic Panel data. A practical approach to perform long panels]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512018000100031&lng=pt&nrm=iso&tlng=pt Abstract Panel data methodology is one of the most popular tools for quantitative analysis in the field of social sciences, particularly on topics related to economics and business. This technique allows simultaneously dressing individual effects, numerous periods, and in turn, the endogeneity of the model or independent regressors. Despite these advantages, there are several methodological and practical limitations to perform estimations using this tool. There are two types of models that can be estimated with Panel data: Static and Dynamic, the former is the most developed while dynamic models still have some theoretical and practical constraints. This paper focuses precisely on the latter, Dynamic panel data, using an approach that combines theory and praxis, and paying special attention on its applicability on macroeonomic data, specially datasets with a long period of time and a small number of individuals, also called long panels.<hr/>Resumen La metodología de Datos de Panel es una de las técnicas más usadas para realizar análisis cuantitativos en el ámbito de las ciencias sociales, especialmente en temas relacionados con la economía y los negocios. Su riqueza reside en que esta técnica permite trabajar con varios periodos de tiempo, incorporar los efectos individuales, y a su vez, tratar la endogeneidad. A pesar de estas ventajas, existen diversos obstáculos para su implementación, tanto metodológicos como operativos. Dentro de los tipos de modelos que se pueden estimar con Datos de Panel, los de carácter estáticos han sido los más desarrollados, persistiendo aún carencias teórico-prácticas para los modelos dinámicos. Este artículo pone precisamente su énfasis en estos últimos, aplicando un enfoque que conjuga la teoría y la praxis, y prestando especial atención a su aplicabilidad para datos macroeconómicos, fundamentalmente para paneles que poseen un período de tiempo largo y un número de individuos pequeño. <![CDATA[Estimating the Gumbel-Barnett Copula Parameter of Dependence]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512018000100053&lng=pt&nrm=iso&tlng=pt Abstract In this paper, we developed an empirical evaluation of four estimation procedures for the dependence parameter of the Gumbel-Barnett copula obtained from a Gumbel type I distribution. We used the maximum likelihood, moments and Bayesian methods and studied the performance of the estimates, assuming three dependence levels and 20 different sample sizes. For each method and scenario, a simulation study was conducted with 1000 runs and the quality of the estimator was evaluated using four different criteria. A Bayesian estimator assuming a Beta(a; b) as prior distribution, showed the best performance regardless the sample size and the dependence structure.<hr/>Resumen En este artículo, desarrollamos una evaluación empírica de cuatro procedimientos de estimación para el parámetro de dependencia, de la función copula Gumbel Barnett obtenida a partir de la distribución Gumbel tipo I. Se usó el método de estimación por momentos, el método de la máxima verosimilitud y dos aproximaciones Bayesianas. Se estudió el comportamiento de las estimaciones asumiendo tres niveles de dependencia y 20 tamaños de muestra distintos. Para cada método y escenario formado entre el nivel de dependencia y el tamaño de muestra, se desarrolló un estudio de simulación con 1000 repeticiones y el comportamiento de las estimaciones fue evaluado usando cuatro criterios. El estimador obtenido asumiendo una distribución Beta(a; b) para modelar la información previa, presentó el mejor desempeño sin importar el tamaño de muestra y la estructura de dependencia. <![CDATA[Finite Mixture of Compositional Regression With Gaussian Errors]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512018000100075&lng=pt&nrm=iso&tlng=pt Abstract In this paper, we consider to evaluate the efficiency of volleyball players according to your performance of attack, block and serve, considering the compositional structure of the data related to the fundaments of this sport. In this way, we consider a nite mixture of regression model to compositional data. The maximum likelihood estimation of this model was obtained via an EM algorithm. A simulation study reveals that the parameters are correctly recovery. In addition, the estimators are asymptotically unbiased. By considering real dataset of Brazilian volleyball competition, we show that the model proposed presents best fit than the usual regression model.<hr/>Resumen En este estudio evaluamos la eficiencia de los jugadores de voleibol de acuerdo con su desempeño de ataque, bloqueo y servicio, teniendo en cuenta la estructura composicional de los datos relacionados con los fundamentos de este deporte. Así, consideramos un modelo de regresión de mixtura finita para datos composicionales. La estimación de máxima verosimilitud fue obtenida via un Algoritmo EM. Un estudio de simulación revela que los parámetros son correctamente recuperados. Adicionalmente, los estimadores son asintóticamente insesgados. Considerando dados reales del campeonato de voleyball brasileño nosotros mostramos que el modelo propuesto presenta mejor ajuste que el modelo de regresión usual. <![CDATA[A Bivariate Model based on Compound Negative Binomial Distribution]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512018000100087&lng=pt&nrm=iso&tlng=pt Abstract A new bivariate model is introduced by compounding negative binomial and geometric distributions. Distributional properties, including joint, marginal and conditional distributions are discussed. Expressions for the product moments, covariance and correlation coefficient are obtained. Some properties such as ordering, unimodality, monotonicity and self-decomposability are studied. Parameter estimators using the method of moments and maximum likelihood are derived. Applications to traffic accidents data are illustrated.<hr/>Resumen Un nuevo modelo de dos variables se introduce mediante la composición distribuciones binomiales negativos y geométricos. propiedades distributivas, incluyendo distribuciones conjuntas, marginales y condicionales se discuten. se obtienen las expresiones para los momentos de productos, la covarianza y el coeficiente de correlación. Se estudian algunas propiedades tales como pedidos, unimodalidad, monotonía y la auto-decomposability. Estimadores de parámetros utilizando el método de los momentos y de máxima verosimilitud se derivan. Aplicaciones a los datos de accidentes de tráfico se ilustran. <![CDATA[The Odd Log-Logistic Dagum Distribution: Properties and Applications]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512018000100109&lng=pt&nrm=iso&tlng=pt Abstract This paper introduces a new four-parameter lifetime model called the odd log-logistic Dagum distribution. The new model has the advantage of being capable of modeling various shapes of aging and failure criteria. We derive some structural properties of the model odd log-logistic Dagum such as order statistics and incomplete moments. The maximum likelihood method is used to estimate the model parameters. Simulation results to assess the performance of the maximum likelihood estimation are discussed. We prove empirically the importance and flexibility of the new model in modeling real data.<hr/>Resumen Este artículo introduce un nuevo modelo de sobrevida de cuatro parámetros llamado la distribución Odd Log-Logistica de Dagum. El nuevo modelo tiene la ventaja de ser capaz de modelar varias formas de envejecimiento y criterios de falla. Derivamos propiedades estructurales del modelo Odd Log-Logistica de Dagum tales como estadísticos de orden y momentos incompletos. El método de máxima verosimilitud es usado para estimar los parámetros del modelo. Se discuten resultados de algunas simulaciones, las cuales permitieron establecer la eficiencia del método de máxima verosimilitud. Probamos empíricamente la importancia y flexibilidad del nuevo modelo a través de un ejemplo en datos reales.