Scielo RSS <![CDATA[Revista Colombiana de Estadística]]> http://www.scielo.org.co/rss.php?pid=0120-175120110003&lang=es vol. 34 num. 3 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Estimación jerárquica basada en el diseño muestral para encuestas estratificadas multi-propósito]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512011000300001&lng=es&nrm=iso&tlng=es This paper considers the joint estimation of population totals for different variables of interest in multi-purpose surveys using stratified sampling designs. When the finite population has a hierarchical structure, different methods of unbiased estimation are proposed. Based on Monte Carlo simulations, it is concluded that the proposed approach is better, in terms of relative efficiency, than other suitable methods such as the generalized weight share method.<hr/>Este artículo considera la estimación conjunta de totales poblacionales para distintas variables de interés en encuestas multi-propósito que utilizan diseños de muestreo estratificados. En particular, se proponen distintos métodos de estimación insesgada cuando el contexto del problema induce una población con una estructura jerárquica. Con base en simulaciones de Monte Carlo, se concluye que los métodos de estimación propuestos son mejores, en términos de eficiencia relativa, que otros métodos de estimación indirecta como el recientemente publicado método de ponderación generalizada. <![CDATA[Prueba de homogeneidad para procesos de Poisson]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512011000300002&lng=es&nrm=iso&tlng=es We developed an asymptotically optimal hypothesis test concerning the homogeneity of a Poisson process over various subintervals. Under the null hypothesis, maximum likelihood estimators for the values of the intensity function on the subintervals are determined, and are used in the test for homogeneity.<hr/>Una prueba de hipótesis asintótica para verificar homogeneidad de un proceso de Poisson sobre ciertos subintervalos es desarrollada. Bajo la hipótesis nula, estimadores máximo verosímiles para los valores de la función intensidad sobre los subintervalos mencionados son determinados y usados en el test de homogeneidad. <![CDATA[Indices para medir dependencia entre pruebas para diagnóstico clínico: un estudio comparativo]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512011000300003&lng=es&nrm=iso&tlng=es In many practical situations, clinical diagnostic procedures include two or more biological traits whose outcomes are expressed on a continuous scale and are then dichotomized using a cut point. As measurements are performed on the same individual there is a likely correlation between the continuous underlying traits that can go unnoticed when the parameter estimation is done with the resulting binary variables. In this paper, we compare the performance of two different indexes developed to evaluate the dependence between diagnostic clinical tests that assume binary structure in the results with the performance of the binary covariance and two copula dependence parameters.<hr/>Muchos procedimientos de diagnóstico clínico médico exigen la evaluación de dos o mas rasgos biológicos que se ven alterados ante la presencia de fenómenos de enfermedad o infección, los cuales se expresan en una escala contínua de medición con posterior dicotomización usando de un valor límite o punto de corte. Dado que las mediciones son realizadas en el mismo indivíduo, los resultados probablemente presenten dependencia de algún tipo, lo cual puede ser ignorado en la etapa de análisis de datos dada la presentación binaria de los datos. En este estudio comparamos el comportamiento de dos parámetros de dependencia presentes en funciones de cópula con el de la covarianza binaria y dos índices creados para medir dependencia entre pruebas diagnósticas de respuesta dicótoma. <![CDATA[El estimador de regresión logística generalizado en un muestreo sin reemplazo con respuesta aleatorizada en poblaciones finitas]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512011000300004&lng=es&nrm=iso&tlng=es The randomized response technique (RR), introduced by Warner (1965) was designed to avoid non-answers to questions about sensitive issues and protect the privacy of the interviewee. Some other randomized response techniques have been developed as the Mortons technique which was developed based on a finite population sampling without replacement. In this paper we are presenting an estimation of the population (total of individuals N) based on Mortons technique assisted for a logistic regression model and considering a specific sensitive characteristic A, with an auxiliary variable associated to the sensitive variable. Analyses were conducted assuming finite population sampling and based on the p-estimators theory through a model assisted estimator. In addition, we propose an estimator of the variance of the estimator, as well as the results of simulations showing that the model assisted estimator of the variance decreases compared with an estimator which depends of the sampling design.<hr/>La técnica de respuesta aleatorizada (RA) introducida por Warner (1965), fue diseñada para disminuir la no-respuesta sobre aspectos sensibles y para proteger la confidencialidad del entrevistado en muestreos con reemplazo. Otras técnicas RA para muestreos sin reemplazo en poblaciones finitas, como la de Morton, han sido desarrolladas y comparadas. En este trabajo se exponen los resultados de la estimación del total de individuos de una población finita con la técnica de Morton, considerando una característica específica sensitiva A en un muestreo sin reemplazo y asistido por un modelo de regresión logística, con una variable auxiliar asociada a la variable sensitiva. Se desarrolla en el contexto de poblaciones finitas y en el marco de la teoría de los estimadores-&pi;, a través de un estimador asistido por el modelo. Asimismo, se propone un estimador para la varianza del estimador y se muestra, vía simulación, que este estimador para la varianza disminuye, comparado con otro estimador que depende únicamente del diseño de muestreo. <![CDATA[Cuasi dominancia estocástica. Aplicaciones]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512011000300005&lng=es&nrm=iso&tlng=es The aim of this work is to show that on certain ocasions classic decision rules used in the context of options (Stochastic Dominance criteria and Mean-Variance rules) do not provide a selection of one specific option over the other, therefore, the need of working with other criteria that can help us in our choice. We place special interest in economic and financial applications.<hr/>El objetivo de este trabajo es mostrar que en ocasiones las reglas clásicas de decisión sobre inversiones (reglas de Dominancia Estocástica y reglas de Media-Varianza) no siempre conducen a una selección de una inversión sobre otra, surgiendo la necesidad de trabajar con otros criterios que ayudan en dicha elección cuando los clásicos no conducen a ninguna selección concreta. Se pone principal interés en las aplicaciones de carácter económico-financiero. <![CDATA[Una aplicación de los modelos semi-markovianos al problema de la ruina]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512011000300006&lng=es&nrm=iso&tlng=es We consider the classical ruin problem due to Cramer and Lundberg and we generalize it. Ruin times of the considered models are studied and sufficient conditions to usual stochastic dominance between ruin times are established. In addition an algorithm to simulate processes verifying the conditions under consideration is proposed.<hr/>Se considera el problema clásico de ruina de Cramér y Lundberg y se generaliza. Se estudian los tiempos hasta la ruina de los modelos considerados y se establecen condiciones suficientes para la dominancia estocástica en el sentido usual entre los tiempos de ruina. Por otro lado, se establecen algoritmos de simulación de los procesos bajo estudio y de obtención de estimadores para las probabilidades involucradas. <![CDATA[Generalización Bivariada de la Distribución Kummer-Beta]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512011000300007&lng=es&nrm=iso&tlng=es In this article, we study several properties such as marginal and conditional distributions, joint moments, and mixture representation of the bivariate generalization of the Kummer-Beta distribution. To show the behavior of the density function, we give some graphs of the density for different values of the parameters. Finally, we derive the exact and approximate distribution of the product of two random variables which are distributed jointly as bivariate Kummer-Beta. The exact distribution of the product is derived as an infinite series involving Gauss hypergeometric function, whereas the beta distribution has been used as an approximate distribution. Further, to show the closeness of the approximation, we have compared the exact distribution and the approximate distribution by using several graphs. An application of the results derived in this article is provided to visibility data from Colombia.<hr/>En este artículo, definimos la función de densidad de la generalización bivariada de la distribución Kummer-Beta. Estudiamos algunas de sus propiedades y casos particulares, así como las distribuciones marginales y condicionales. Para ilustrar el comportamiento de la función de densidad, mostramos algunos gráficos para diferentes valores de los parámetros. Finalmente, encontramos la distribución del producto de dos variables cuya distribución conjunta es Kummer-Beta bivariada y utilizamos la distribución beta como una aproximación. Además, con el fin de comparar la distribución exacta y la aproximada de este producto, mostramos algunos gráficos. Se presenta una aplicación a datos climáticos sobre niebla y neblina de Colombia. <![CDATA[Estimación del costo de garantía descontado para un sistema coherente bajo reparo mínimo]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512011000300008&lng=es&nrm=iso&tlng=es A martingale estimator for the expected discounted warranty cost process of a minimally repaired coherent system under its component level observation is proposed. Its asymptotic properties are also presented using the Martingale Central Limit Theorem.<hr/>En este trabajo modelamos los costos de garantía descontados para un sistema coherente reparado mínimamente a nivel de sus componentes y proponemos un estimador martingalas para el costo esperado para un período de garantía fijo, también probamos sus propiedades asintóticas mediante el Teorema del Limite Central para Martingalas. <![CDATA[Comparación entre métodos de estimación de matrices de covarianza de alta dimensionalidad]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512011000300009&lng=es&nrm=iso&tlng=es Accurate measures of the volatility matrix and its inverse play a central role in risk and portfolio management problems. Due to the accumulation of errors in the estimation of expected returns and covariance matrix, the solution to these problems is very sensitive, particularly when the number of assets (p) exceeds the sample size (T). Recent research has focused on developing different methods to estimate high dimensional covariance matrixes under small sample size. The aim of this paper is to examine and compare the minimum variance optimal portfolio constructed using five different estimation methods for the covariance matrix: the sample covariance, RiskMetrics, factor model, shrinkage and mixed frequency factor model. Using the Monte Carlo simulation we provide evidence that the mixed frequency factor model and the factor model provide a high accuracy when there are portfolios with p closer or larger than T.<hr/>Medidas precisas para la matriz de volatilidad y su inversa son herramientas fundamentales en problemas de administración del riesgo y portafolio. Debido a la acumulación de errores en la estimación de los retornos esperados y la matriz de covarianza la solución de estos problemas son muy sensibles, en particular cuando el número de activos (p) excede el tamaño muestral (T). La investigación reciente se ha centrado en desarrollar diferentes métodos para estimar matrices de alta dimensión bajo tamaños muestrales pequeños. El objetivo de este artículo consiste en examinar y comparar el portafolio óptimo de mínima varianza construido usando cinco diferentes métodos de estimación para la matriz de covarianza: la covarianza muestral, el RiskMetrics, el modelo de factores, el shrinkage y el modelo de factores de frecuencia mixta. Usando simulación Monte Carlo hallamos evidencia de que el modelo de factores de frecuencia mixta y el modelo de factores tienen una alta precisión cuando existen portafolios con p cercano o mayor que T. <![CDATA[Ciertas propiedades de una clase de distribuciones Poisson compuesta bivariadas y una aplicación a datos de terremotos]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512011000300010&lng=es&nrm=iso&tlng=es The univariate compound Poisson distribution has many applications in various areas such as biology, seismology, risk theory, forestry, health science, etc. In this paper, a bivariate compound Poisson distribution is proposed and the joint probability function of this model is derived. Expressions for the product moments, cumulants, covariance and correlation coefficient are also obtained. Then, an algorithm is prepared in Maple to obtain the probabilities quickly and an empirical comparison of the proposed probability function is given. Bivariate versions of the Neyman type A, Neyman type B, geometric-Poisson, Thomas distributions are introduced and the usefulness of these distributions is illustrated in the analysis of earthquake data.<hr/>La distribución compuesta de Poisson univariada tiene muchas aplicaciones en diversas áreas tales como biología, ciencias de la salud, ingeniería forestal, sismología y teoría del riesgo, entre otras. En este artículo, una distribución compuesta de Poisson bivariada es propuesta y la función de probabilidad conjunta de este modelo es derivada. Expresiones para los momentos producto, acumuladas, covarianza y el coeficiente de correlación respectivos son obtenidas. Finalmente, un algoritmo preparado en lenguaje Maple es descrito con el fin de calcular probabilidades asociadas rápidamente y con el fin de hacer una comparación de la función de probabilidad propuesta. Se introducen además versiones bivariadas de las distribuciones tipo A y tipo B de Neyman, geométrica-Poisson y de Thomas y se ilustra la utilidad de estas distribuciones aplicadas al análisis de datos de terremoto.