Scielo RSS <![CDATA[Revista Colombiana de Estadística]]> http://www.scielo.org.co/rss.php?pid=0120-175120060002&lang=es vol. 29 num. 2 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[<b>Comparación de metodologías para el análisis de datos de degradación para trayectorias lineales</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512006000200001&lng=es&nrm=iso&tlng=es Se usarán conceptos de análisis de degradación en relación con la confiabilidad de un producto. Muchos mecanismos de falla pueden detectarse a través de procesos de degradación. La degradación es una debilidad que eventualmente puede causar la falla. Existen varios métodos de análisis para datos de degradación en confiabilidad. En este artículo se comparan los resultados de la metodología de análisis de degradación explícita y de la metodología de análisis de degradación aproximada. Particularmente se diseña un estudio de simulación para el caso en que las trayectorias de degradación son de tipo lineal, para estudiar qué tan diferentes pueden ser las estimaciones de la función de distribución acumulativa del tiempo de vida F(t) dadas por cada una de las metodologías; se encontró que las estimaciones son competitivas para este caso. Se ilustra con datos sobre vida útil de algunos dispositivos láser tomados de Meeker & Escobar (1998).<hr/>We use the concepts of degradation analysis as they relate to product reliability. Many failure mechanisms can be traced to an underlying degradation process. Degradation eventually leads to a weakness that can cause failure. There are several methodologies for the analysis of degradation data in reliability. This paper compares the explicit degradation methodology with the approximate degradation analysis. Specifically we perform a simulation study for linear degradation paths to explore the different estimations of the cumulative distribution function F(t) given by each methodology and we find that the two methods are competitive. We illustrate the results with data from a laser life test taken from Meeker & Escobar (1998). <![CDATA[<b>Intervalos de confianza para los índices de capacidad C<sub>pm</sub> y C<sub>pmk</sub> en procesos estacionarios gaussianos</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512006000200002&lng=es&nrm=iso&tlng=es Los índices de capacidad suministran una medida numérica del ajuste que tiene un proceso a unos límites de especificación preestablecidos. Los procedimientos existentes para construir intervalos de confianza para los índices de capacidad Cpm y Cpmk en procesos estacionarios gaussianos muestran bajos porcentajes de cobertura. Este artículo presenta una nueva metodología para construir intervalos de confianza para los índices de capacidad Cpm y Cpmk, en procesos estacionarios gaussianos y mediante simulación analiza el porcentaje de cobertura para procesos AR(1).<hr/>Process capability indices provide a measure of how a process meets preset specification limits. Procedures to construct confidence intervals for Cpm and Cpmk for stationary gaussian processes show low coverage probabilities. This paper presents a new methodology for constructing confidence intervals for the indices Cpm and Cpmk for stationary gaussian processes and by simulation study the coverage percentage for AR(1) processes is calculated. <![CDATA[<b>Cartas de control Bayesianas para atributos y el tamaño de subgrupo grande en la carta <i>p</i></b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512006000200003&lng=es&nrm=iso&tlng=es Se analizan los problemas de las cartas de control para atributos. En particular, se ve que el procedimiento tradicional para obtener los límites de control tiene varias dificultades: no incorpora la incertidumbre sobre la estimación del parámetro del modelo, no contempla las variaciones en el parámetro del proceso y requiere un período base para obtener datos. Durante este período base no se tiene una carta de control para monitorear el proceso. Se ve que estos problemas son resueltos con métodos Bayesianos. Se ve cómo establecer los límites de control Bayesianos para las cartas de control p, np, c y u, en forma secuencial desde la primera observación. Esto elimina la necesidad del período base. Por último se analiza el problema de la carta p cuando esta se basa en un tamaño de subgrupo grande y se propone una solución Bayesiana para este problema.<hr/>The problems of the control charts for attributes are analyzed. In particular, it is seen that the traditional procedure to obtain the control limits has several difficulties: it does not incorporate the uncertainty in the estimate of the parameter of the distribution, it does not include the variation of the process, and the procedure requires a base period to obtain the control limits. Along this period it does not have a control chart to analyze the process. It is seen that these problems are solved applying Bayesian methods. It is described a sequential procedure to obtain the Bayesian control limits for p, np, c and u charts, from the first observation. This eliminates the necessity of the base period. Lastly it is analyzed the problem of the p chart when it is based on a large subgroup size and it is proposed a Bayesian solution for this problem. <![CDATA[<b>Estudios estadísticos sobre datos de prevalencia del VIH según grupos de edad</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512006000200004&lng=es&nrm=iso&tlng=es The infectivity function is a function giving a measure of how infectious a given individual is t time units after becoming infected. Today, no feasible and ethically acceptable study design is known, which would lead to estimates of HIV-infection probability within steady heterosexual partnerships, using standard statistical methodology. In this paper a transmission model is used as a link between the infectivity function and data sets which already exist or can be generated with standard methods and moderate expenses. This model suggests that the distribution of HIV-infections by age and sex depends on the infectivity function as well as on age-dependent patterns of sexual partner choice. Application of the model requires populationbased data of age-specific HIV-incidences in men and women of the general heterosexual population. At present, the only known data set suitable for this purpose is a set of HIV-test results from a sample of 8690 Colombian women in pregnancy who attended prenatal care. The prevalence of HIV was 0.33% in the group of 12-24 years, but only 0.16% in the group of 25-34 years. The model can explain this strange result. A data set of age-specific HIV-prevalences in heterosexual Colombian men would be useful, but is not known. Therefore, further research and data collecting is required in order to arrive at well founded conclusions.<hr/>La función de infectividad es una función que dice qué tan infecciosa es una persona transcurrido un tiempo t después de haberse infectado. Hoy en día no se conoce ningún diseño de estudio, que sea factible y éticamente acceptable y que conduzca a estimados de la infectividad del VIH entre uniones heterosexuales estables, usando los métodos estadísticos corrientes. Por eso,aquí se utiliza un modelo de transmisión como puente entre la función de infectividad y datos que ya existen o pueden ser generados con pocos gastos. El modelo sugiere que la distribución según sexo y edad de la infección por VIH en la población heterosexual de bajo riesgo depende de la función de infectividad así como de los patrones de mezcla entre diferentes grupos de edad. La aplicación del modelo requiere datos poblacionales sobre la incidencia de la infección en los grupos de edad de hombres y mujeres heterosexuales. Actualmente el único conjunto de datos adecuado consiste en los resultados de pruebas por VIH en 8690 mujeres colombianas en embarazo que asistieron a consulta de control prenatal. La prevalencia del VIH era 0.33% en el grupo de 12-24 años, y 0.16% en el grupo de 25-34 años. El modelo puede explicar esta diferencia. Pero no existen datos sobre prevalencias del VIH en hombres heterosexuales de diferentes edades que se necesitan en este contexto. Por eso, se requieren otras investigaciones y recolecciones de datos para llegar a conclusiones seguras. <![CDATA[<b>The Principle of Equivariance: Concepts and Applications</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512006000200005&lng=es&nrm=iso&tlng=es Neste trabalho apresentamos uma revisão do princípio da estima,cão equivariante e algumas de suas aplicacões na família de localiza,cão-escala e em modelos lineares. Consideramos também o estimador não viciado de variância uniformemente mínima em modelos lineares. Vários exemplos são apresentados para ilustrar o uso destes métodos.<hr/>In this work we present a review under the principle of equivariant estimation and their applications to the location-scale families and some linear models. We also consider the minimum variance unbiased estimation under the linear models framework. We show some examples to illustrate the use of those methods. <![CDATA[<b>Imputación de datos en diseños switchback usando un modelo mixto con errores correlacionados</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512006000200006&lng=es&nrm=iso&tlng=es Se trata el problema de imputar mediciones individuales en datos provenientes de diseños switchback con errores correlacionados, teniendo en cuenta la propuesta de Barroso et al. (1998), donde se considera el BLUP (Best Li- near Unbiased Predictor) para la imputación de datos. Se hizo uso de los valores propios de las matrices de cuadrados medios de los errores de las predicciones para comparar las estructuras de covarianza &sigma;²I, AR(1) y CS asociadas a los errores. Los resultados sugieren que las dos primeras estructuras son más adecuadas que la tercera.<hr/>The problem of predicting individual measurements in switchback designs with correlated errors is considered. The predictions and imputations are done using the BLUP (Best Linear Unbiased Predictions), which have been suggested by Barroso et al. (1998). Three covariance structures were compared by the eigenvalues of the matrices of mean square errors. The results suggest that structures &sigma;²I and AR(1) are better than CS. <![CDATA[<b>Precisiones en la teoría de los modelos logísticos</b>]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512006000200007&lng=es&nrm=iso&tlng=es Se estudian los modelos logísticos, como una clase de modelos lineales generalizados (MLG). Se demuestra un teorema sobre la existencia y unicidad de las estimaciones de máxima verosimilitud (abreviadas por ML) de los parámetros logísticos y el método para calcularlas. Con base en una teoría asintótica para estas ML-estimaciones y el vector score, se encuentran aproximaciones para las diferentes desviaciones &sigma;2 log L, siendo L la función de verosimilitud. A partir de ellas se obtienen estadísticas para distintas pruebas de hipótesis, con distribución asintótica chi-cuadrada. La teoría asintótica se desarrolla para el caso de variables independientes y no idénticamente distribuidas, haciendo las modificaciones necesarias para la conocida situación de variables idénticamente distribuidas. Se hace siempre la distinción entre datos agrupados y no agrupados.<hr/>The logistic models are studied, as a kind of generalized lineal models. A theorem is showed about existence and uniqueness of ML-estimates of the estimation of the logistic regression coefficients and the method in order to calculate it. According to an asymptotic theory for this ML-estimates and the score vector, it has been founded approaching for different deviations &sigma;2 log L (in this expression, L is the function of maximum likelihood). In consequence, we have gotten statistics for different hypotheses test which is asymptotically chi-square. The asymptotic theory is developed for the independent variables and no distributed identically variables. It is made the difference between ungrouped and grouped data.