Introducción
Utilizar técnicas de inteligencia artificial para el control de calidad por medio de inspección superficial ofrece grandes ventajas que impactan de manera positiva la industria debido a que se disminuye el costo laboral, se suprime la subjetividad de los empleados a causa del cansancio y estado emocional; además, de acuerdo con 1), los operadores son difíciles de encontrar y mantener en la industria, ya que requieren capacidades y habilidades de aprendizaje que, por lo general, tardan mucho en adquirir en la inspección.
El presente documento describe una contextualización de la situación de los procesos de control de calidad en la producción industrial centrándose en el control estadístico de procesos como herramienta fundamental y más comúnmente utilizada. Posteriormente, se describe el papel que las técnicas de Machine Learning y Deep Learning pueden desempeñar aportando al control de calidad de manera más eficiente, adaptativa y precisa, se trabaja desde diferentes perspectivas, pero siempre con la aplicación del Deep Learning o Machine Learning como método de mejora.
Control estadístico de procesos en la calidad de producción
Para medir la satisfacción del cliente, el cumplimiento de los requisitos de cada producto y retroalimentar el proceso de mejora continua, el control de la calidad se apoya en el Statistical Process Control o SPC.
Las herramientas básicas que utiliza el control de calidad por medio del control estadístico de procesos son siete y fueron consolidadas por Kaoru Ishikawa, padre de la calidad en Japón. Bajo el direccionamiento de estas herramientas se basan la mayoría de sistemas de control y gestión de calidad en las diferentes industrias. Se podría sugerir que estas son el precedente conceptual de otras herramientas mucho más complejas y modernas como las matrices de confusión utilizadas por 2 en los procesos de aprendizaje supervisado para la evaluación y clasificación de errores en piezas metálicas.
El uso de estas herramientas se encuentra enfocado en evaluar de manera complementaria las dos formas de calidad, una de ellas consiste en medir los atributos del producto o servicio definiendo si cuenta con cierto nivel de aceptabilidad. La otra forma consiste en medir las variables, es decir, las características del producto que son susceptibles de ser medidas. Un ejemplo real de esto se encuentra en el trabajo de 3 quien mide y evalúa las características geométricas de los defectos en un campo magnético. Para 4, la ventaja de medir alguna característica de calidad consiste en que, si un producto o servicio no satisface sus especificaciones, el inspector sabe cuál es el valor de la discrepancia.
Aplicación de metodología sistemática
En este trabajo se llevó a cabo una revisión sistemática de la literatura científica con el fin de observar la importancia de las aplicaciones del Deep Learning, Machine Learning y Transfer Learning en la detección de defectos superficiales, para esto se consideraron artículos en el repositorio de información científica Intelligo, a través del criterio de búsqueda con la ecuación booleana “Deep Learning Aplications” AND “Quality Control” para diferentes bases de datos. De esta manera, la herramienta arrojó un mapa que relaciona los conceptos dentro de un enorme volumen de información como se muestra en la Fig. 1.
Al revisar la información encontrada en el repositorio de información científica Intelligo, se encontraron resultados sobre aplicaciones de Deep Learning, Machine Learning y Transfer Learning publicados desde el 2007 hasta 2014 como se muestra en la Fig. 2.
La búsqueda sistemática se realizó de la misma forma en PubMed, IEEE, Scopus, Oxford y ScienceDirect con el fin de enriquecer la investigación y mostrar información más actualizada con los principales motores de búsqueda de información científica, por esa razón la mayoría de las referencias se encuentran desde el 2018 en adelante, lo que asegura la vigencia de los resultados presentados en este artículo.
Posteriormente, se hizo una depuración aplicando los criterios de inclusión para la investigación y se incluyeron los artículos que van a ser parte de la revisión sistemática. De manera que se en la Fig. 3 se muestra la categorización de los artículos que terminaron como resultado de la depuración.
Finalmente, en la Fig. 4 se muestran las metodologías más relevantes y frecuentes en los artículos seleccionados dentro de la revisión sistemática de la literatura en el presente artículo.
Deep Learning y Machine Learning en la calidad de producción
El Deep Learning aparece como una evolución del Machine Learning en inteligencia artificial, debido a que es una herramienta que cuenta con la capacidad de desarrollar sus propios criterios y establecer sus propios parámetros para la toma de decisiones, con la ventaja de que ahora las máquinas pueden acondicionarse y reaccionar al cambio 2). El Deep Learning promete remodelar el futuro de la inteligencia artificial 5), debido a que las rápidas mejoras en el poder computacional, el almacenamiento rápido de datos y la paralelización han contribuido a la rápida adopción de la tecnología, además de su poder predictivo y su capacidad para generar características optimizadas automáticamente a partir de unos datos de entrada
Aplicaciones de Deep Learning y Machine Learning en la industria
Procesos de fabricación
Es común que existan desperfectos y desviaciones de la calidad en los procesos de fabricación, por esa razón para 6, es importante la identificación y el seguimiento de las causas fundamentales de dichas fallas y desviaciones, propone un modelo de redes causales usando redes bayesianas para las diferentes etapas de fabricación, analizando a partir de tres maneras diferentes: sin conocimiento experto, algún conocimiento experto y estructura del modelo completo, de manera que se pudo evidenciar que entre mayor sea el tamaño del conjunto de entrenamiento del modelo, se obtienen mejores resultados. 7 proponen un modelo de Deep Belief Networks con capacidad de entrenarse con un dominio de origen, para obtener los parámetros de dominio y finalmente comparar los defectos de las muestras con la imagen de reconstrucción (planilla sin defectos), este modelo es muy beneficioso debido a que puede solucionar problemas de sobreajuste de la red DBN por medio de Transfer Learning y así se puede ajustar y adaptar mejor para detectar defectos de alta precisión. 8 proponen un método de reconstrucción de imágenes que permita variar los parámetros geométricos necesarios para desarrollar un modelo de Machine Learning a partir de un modelo de red inferior, debido a que proporciona una muy buena tasa de aciertos y fiabilidad al sistema.
Mantenimiento
Machine Learning y Deep Learning han surgido como una herramienta prometedora 9 en las aplicaciones de mantenimiento predictivo (PdM), puesto que pueden contribuir a que se eviten fallos en los equipos utilizados en las líneas de producción. Para 10, tener un mantenimiento predictivo sirve para detectar las inestabilidades de los sistemas para que puedan ser arregladas antes de que afecten a la producción.
Sin embargo, para 9, el rendimiento de las aplicaciones de PdM depende de la elección adecuada del método ML. También es importante señalar que para obtener buenos resultados de una estrategia PdM en una planta, es necesario que ya haya implementado las estrategias R2F (mantenimiento correctivo) y PvM (mantenimiento preventivo) en su proceso de recolección de datos para el modelado PdM. Además, el mayor problema para obtener un alto porcentaje de acierto se encuentra en contrastar bien el histórico de datos y los datos actuales.
Líneas de producción
Si un error de montaje no se detecta en el momento antes de realizar el proceso productivo, se pueden generar pérdidas económicas y errores en la calidad del producto. Por esa razón, 5, 11, para supervisar el proceso de montaje, estudiaron el reconocimiento de la acción de montaje y el reconocimiento de las piezas de los lotes para detectar una acción de montaje de pérdida, utilizando una red neuronal convolucional tridimensional para detectar errores de montaje y una red neuronal completa para el reconocimiento de piezas identificando las faltantes o desalineadas. Para 12, la inteligencia artificial en el área de calidad permite aumentar el rendimiento y puede reducir el desperdicio de material y el consumo de energía, por esa razón los algoritmos de Deep Learning lograron resultados en muchos dominios diferentes, pero aún no se han investigado en detalle en las líneas de producción. En el caso especial para la fabricación de válvulas de gas y los posibles fallos en la planta BSH en Santander (España), 4 utilizo técnicas de Machine Learning para reducir los costos de la no calidad por la generación de chatarras utilizando redes neuronales.
Industria farmacéutica
Dentro de la producción de productos farmacéuticos, en el marco de la fabricación continua, 13 investigaron la línea de granulación húmeda continua para formas farmacéuticas sólidas. La línea estaba conformada por las operaciones de granulación húmeda de doble tornillo, secado en leche fluido, criba y tableado. Para la investigación se seleccionaron los principales siete factores que construyen los atributos de calidad (flujos de masa de API, excipiente de los dos alimentadores, tasa de alimentación de líquido, velocidad de rotación de la extrusora, velocidad de rotación, temperatura y flujo de aire del secador). Otros atributos de calidad fueron controlados en tiempo real por Process Analytical Technologies (PAT). Se utilizaron técnicas de Deep Learning para predecir el atributo de calidad con los parámetros del proceso en la entrada de una red neuronal de tres capas con seis neuronas ocultas, utilizando la función de activación ReLU (Rectified Linear Unit) y el optimizador ADAM con 2500 épocas (número de ciclo de aprendizaje). A través del contenido de API, los valores de PSD (Distribución de tamaño de partícula) y de LOD (perdida por secado) se estimaron con un error de calibración inferior al 10 %; las redes neuronales profundas pueden aprender de los valores ruidosos de PAT y generar predicciones.
Industria agrícola y alimenticia
En este caso, las redes neuronales fueron de utilidad en una gran variedad de productos distintos, 14 utilizan una combinación de red neuronal con algoritmo genético que permite generar un patrón óptimo para tratar el calor en los tomates teniendo como medida la coloración superficial. De manera similar, por medio de redes neuronales se utilizaron fotografías de productos orgánicos para determinar el nivel de aceptabilidad en la compra basada en características de calidad superficial como magulladuras, textura y color 15.
La predicción de cosecha y los rendimientos semanales son campos en los que también se generaron estudios desde hace ya varios años 16, en este caso, utilizaron redes neuronales artificiales para predecir cosechas basados en variables como la intensidad de los colores rojos, verdes y azules en el desarrollo de pimientos. Así mismo en territorio colombiano, el color fue utilizado como criterio de validación para predecir la calidad del aceite extraído de la palma, usando redes neuronales artificiales, redes neuronales convolucionales y algoritmos de Random Forest 17.
También en Colombia 18 generó una aplicación por medio de redes neuronales que permite un conteo automático de los frutos y las flores de un árbol de aguacate, lo cual facilita hacer seguimiento y monitoreo automático pensado para trabajar con imágenes de baja resolución, esto con el fin de ofrecer una alternativa útil, innovadora y de bajos costos de manejo, como resultado la arquitectura YOLOv5 generó un 80% de precisión para el fruto y 39% para las flores.
En el ámbito específico del control de plagas y enfermedades que generan necesariamente fallos en la calidad del producto final también se tienen antecedentes prácticos, en Colombia 19 resolvieron el problema de clasificación y detección de la enfermedad de la sigatoka negra en plantas de banano, usando redes neuronales convolucionales con arquitectura VGG19, 20 generó por medio del Transfer Learning un modelo capaz de detectar y reconocer el daño causado por 10 tipos de plagas con efectividad de más del 93% equiparable a resultados de modelos de redes neuronales y expertos humanos. 21 aplicaron Deep Learning, Support Vector Machines (SVM) y redes neuronales convolucionales para detectar y clasificar el café trillado con broca, obteniendo resultados superiores con el SVM con un 96% de efectividad, utilizando 3.000 imágenes de entrenamiento.
22 trabaja sobre la calidad superficial de los botones de rosas de importación, por medio de aplicación de las variantes Qadratic y Linear de SVM logra una clasificación exitosa de tan solo el 80% con el mejor de ellos, abriendo la posibilidad de aplicación de métodos como la red neuronal convolucional en busca de mejorar los resultados. Dentro de ese marco de posibilidades abiertas de aplicación de Deep Learning, 23 expone el intento mejorable de aplicación de control estadístico de calidad (SQC) en los nuggets de pollo de la compañía Mabbel Nugget por medio de las siete herramientas, implementando un proceso automatizable y sesgado por la incertidumbre.
Industria textil
Para esta industria hay necesidad de precisión en la detección de defectos superficiales en grandes volúmenes de producto terminado, como respuesta a esta necesidad, 24 generaron un modelo para detección de defectos de tejido que es eficiente y sin supervisión, usa una arquitectura de codificación automática de ruido convolucional de múltiples escalas que se basan en una pirámide gaussiana para sintetizar defectos de distintos tamaños. Como alternativa, en el mismo campo de la detección de defectos superficiales en la calidad del tejido, 25 desarrollan un modelo con una red de ondas de Gabor en conjunción con varios filtros morfológicos simples bajo el diseño de una estructura lineal con una alta eficacia en detección y aislamiento de diferentes tipos de defectos en el tejido. Por su parte, 26 creó un servicio web entrenado en Google Cloud Plataform basado en visión por computadora conDeep Learning que permite la inferencia del tipo de defecto en el textil y su ubicación, obteniendo una precisión de casi el 90 %.
El dimensionamiento de defectos es problema de mayor complejidad cuando se estudia y evalúa la calidad de tela con un alto nivel de diseño, variante en formas y tonalidades, así como en textura cuando se compone de más de un tejido, para enfrentar esto, 3 encontraron como aporte que en su mayoría son arquitecturas de tipo “no- basada en motivos” mientras que algunos casos menos frecuentes eran tratados por medio del modelo más innovador llamado “basado en motivos” para la detección de defectos en tejido.
Industria automotriz
Un claro ejemplo es la clasificación binaria para la detección de defectos en las soldaduras de baja calidad del vehículo y para cumplir con los exigentes tiempos de producción de esta industria y aumentar la capacidad de predicción del clasificador se aplicaron algoritmos de Relief y HCR (correlación hibrida y basada en ranking) que permiten eliminar características irrelevantes y redundantes del conjunto de datos, obteniendo resultados del 100% en detección de unidades defectuosas, este alto porcentaje debido al entorno de alta conformidad requerida 21.
Los modelos de clasificación binaria también fueron evaluados y validados por 11 utilizando datos de un total de 18.148 automóviles en una línea real de ensamblaje automotriz dentro de la planta de Volkswagen AutoEuropa, se identificaron relaciones complejas por medio del análisis complejo de datos que considera la variabilidad introducida por los operadores humanos al circuito en las primeras etapas que pueden usarse para predecir las desviaciones de los requisitos de calidad al final de la línea de producción. Se implementó una variada gama de herramientas, que fueron Método Gaussian Naive Bayes, K-Neighbors Neighbours, XGBoost, Random Forest y algoritmo SVM, siendo los no lineales los de mejor resultado en las medidas de desempeño, permitiendo ubicar relaciones no lineales entre las variables que ayudan al clasificador a etiquetar los datos como “Ok” o “NoOK”. (27 utilizaron un algoritmo de visión basado en técnicas de reflectometría para realizar control de calidad en superficies de carrocerías de autos, como alternativa eficiente al Deep Learning como protagonista.
Otro caso que muestra la versatilidad con la que el Deep Learning se aplica a prácticamente cualquier parte de la producción, la desarrollaron 28, que generaron un modelo para determinar la calidad de las plumas de pato y ganso que se utilizan en la fabricación de volantes de autos, evaluando variables como factor de arqueamiento, curvatura y grosor y utilizando técnicas de matriz de membresía difusa y clasificación Fisher Linear Discriminant (FLD).
Servicios post venta
La retroalimentación desde la percepción de postventa de los productos es una manera complementaria muy eficaz de controlar la calidad y el nivel de satisfacción que genera el producto terminado, en 29 se aprecia el uso de Machine Learning para generar una puntuación de anomalías en motores de autos con modelos de clasificación binaria capaz de detectar fallos antes que fuesen entregados, y luego con manejo mediante integración de datos vincularon los datos de postventa a los de fabricación para generar políticas de gestión de calidad que dieran respuesta a la calidad realmente percibida. Del mismo modo y utilizando como fuente los datos de postventa disponibles en las reseñas en línea de los clientes, 30 propuso clasificadores basados en redes neuronales recurrentes (RNN) para identificar los comentarios negativos en la web con respecto a un producto y en complemento aplicó análisis lineal discriminante (LDA) para identificar los defectos de calidad.
Industria ferroviaria
La industria ferroviaria es utilizada por la logística de distribución de muchas otras industrias a nivel global usando los trenes como transporte de sus mercaderías, en esta industria se aplicó Deep Learning para enfrentarse a los costosos y frecuentes fallos en las ruedas de los trenes 31, para su trabajo se instalaron en una red ferroviaria sensores capaces de medir las variables necesarias de las ruedas, luego con la implementación de máquina de vectores de soporte (SVM) y redes neuronales convolucionales (CNN) se identificaron y clasificaron exitosamente los fallos que presentan cada una de las ruedas de estudio. En esta misma industria existen normas internacionales de calidad que regulan superficie, planitud y dimensión del carril ferroviario, un producto complejo de inspeccionar por su largo tamaño, en este caso también fue implementado el Deep Learning como parte de la solución, 32 utilizó visión artificial y reconstrucción en 3D como entrada para algoritmos de redes neuronales sucesivas que se utilizan como clasificadores y como filtro de detección de errores de fabricación.
Impresión 3D
En impresión 3D, la inspección de control de calidad es necesaria para lograr precisión, 33 aplicaron herramientas como Random Forest, Support Vector Regression (SVR) y Ridge Regression (RR) para predecir la rugosidad de la superficie de piezas creadas por medio de la fabricación de filamentos fundidos (FFF) en la fusión selectiva por láser (SLM). Una réplica de este estudio fue realizada por 34, quienes lograron implementar también un modelo predictivo para la rugosidad de superficie en FFF que combina las mismas técnicas que el anterior, enfatizando en evitar el sobreajuste y adicionando algoritmos de red de enlaces funcionales de vectores aleatorios (RVFL) y árboles de clasificación y regresión (CART).
En orientación hacia el cumplimiento de la rapidez y la precisión necesarias para garantizar los estándares de calidad a bajo costo en manufactura, 35 buscaron aportar a la industria de la impresión 4.0 para mejorar el rendimiento de la detección de defectos en cilindros de huecograbado generando un modelo de sensor suave que utiliza una red neuronal profunda (DNN) que compara la superficie escaneada con el archivo grabado, encontrando defectos ópticos para avalar la entrega correcta del cilindro o su devolución para corrección.
Industria metalúrgica
Para la detección de heterogeneidades en productos metálicos, 2 desarrolló un sistema automatizado de inspección no destructiva de materiales, usando la técnica de ultrasonido para la detección de imperfecciones en piezas metálicas de acero al carbono.
Por otro lado, para mejorar el reconocimiento de defectos, 36 desarrollaron un nuevo marco de detección a partir de una red de prioridad de clasificación (CPN) y una nueva red de clasificación multigrupo, red neuronal convolucional para inspeccionar defectos en la superficie de acero para la predicción de calidad en placas laminadas en caliente, esto se realizó con el fin de comparar los modelos de aprendizaje que actualmente son los más populares y utilizados para las inspecciones 37.
Con la finalidad de alcanzar ventajas competitivas en la producción a causa de la presencia de defectos superficiales como depresiones, rasguños, abolladuras, remanentes de la escala, agujeros y moho en líneas de corte longitudinal del sector de centros de servicio de acero como Gonvarri, 38 desarrollaron un sistema de inspección de defectos superficiales presentes en diferentes bobinas, basado en redes neuronales autoorganizadas. Para tal fin, se diseñaron dos clasificadores basados en los algoritmos de mapas autoorganizados (SOM) y la cuantificación del vector de aprendizaje (LVQ) con el objetivo de reformar los mapas topológicos con imágenes de baja resolución en cada entrenamiento de la red hasta que el error sea aproximadamente cero para que la clasificación sea más efectiva.
[3] analizaron diferentes métodos de Deep Learning para la detección de defectos, clasificándolos para diferentes gamas de productos como componentes electrónicos, tuberías y piezas soldadas, a través de diferentes pruebas ultrasónicas, filtrado, Deep Learning y visión artificial, con el fin de comparar los resultados experimentales en cuanto a alta precisión, alto posicionamiento, detección rápida, objeto pequeño, fondo complejo, detección de objetos ocluidos y asociación de los objetos.
En los cañones de armas usados es muy común la existencia de defectos por desgaste normal, picaduras corrosivas, óxido o erosión, de manera que 39 capturaron de manera no destructiva y digital las características de las regiones defectuosas de estos artefactos, con el fin de segmentarlas y clasificarlas automáticamente por medio de selección secuencial y pirámide gaussiana multinivel.
Las piezas fundidas son fundamentales para las industrias aeronáutica, automotriz, armamentística o naval, de manera que cualquier tipo de defecto en alguna pieza puede traer un resultado fatal. 1 realizaron la adaptación de un sistema de visión artificial de acuerdo con la segmentación de las regiones de fundición, posteriormente utilizaron Machine Learning (redes bayesianas, máquina de vectores de soporte, vecino k más cercano y árboles de decisión) para categorizar las regiones defectuosas y finalmente realizaron una validación cruzada empírica utilizando datos reales, donde se encontró que el método de vecino k más cercano con k=2 fue el que tuvo mejor precisión: 95,77 %. Con base en el experimento que realizó para piezas de fundición, 40 estableció que el limitante de esta técnica se basa en la cantidad de datos para alimentar el modelo.
Del mismo modo, para satisfacer la creciente demanda de productos de alta calidad que involucran procesos de soldadura y función, 41 proponen un sistema de identificación de defectos en imágenes de rayos x de fundición de metal, basado en la arquitectura de redes neuronales convolucionales (CNN) en Mask Region, fundamentándose en el rendimiento sobresaliente de las CNN en cuanto a la clasificación de imágenes como también con las tareas de localización. En esta propuesta se buscó aprovechar el Transfer Learning como complemento del Deep Learning, con el fin de reducir el requerimiento de grandes conjuntos de datos y aumentar la predicción del modelo entrenado.
Otras industrias
En el trabajo de 42 se evaluó la calidad de una marca de taladros aplicando Random Forest para predecir las características de calidad geométrica y dimensional de los agujeros escariados. En una industria totalmente distinta como la fabricación de tableros, 43 logró implementar una combinación de regresiones logísticas, algoritmo de máquinas de vectores de apoyo SVM y redes neuronales para detectar patrones y generar clasificaciones de conforme o no conforme con respecto a los parámetros de calidad de los productos. La herramienta de SVM también fue exitosamente utilizada con su variante la máquina de vectores de soporte de mínimos cuadrados (LSSVM) pero aplicada en el contexto de la inspección periódica de estructuras de muros de hormigón, enfatizando en la detección de fallas por medio de la identificación de patrones, creando un modelo de solución capaz de identificar y clasificar diferentes tipos de grietas y daños por astillamiento usando reconocimiento de imágenes 44).
El Deep Learning para calidad no solo se puede utilizar con grandes volúmenes de datos, 45 muestran que en la industria aeronáutica por ejemplo se utilizan los materiales compuestos para fabricación de aeronaves civiles y militares; se utilizó Transfer Learning como complemento para generar un modelo de red neuronal convolucional profunda basado en Deep Learning.
En la medicina y más específicamente en la rama de la oncología, 46 proponen un estudio de los usos que se le han dado al Machine Learning y al Deep Learning; básicamente se evalúa el impacto sobre la planeación previa y la calidad y seguridad en el tratamiento personalizado basado en predicciones.
Por otra parte en 47 se llega a un punto de implementación ideal en donde el control de calidad en fabricación de porcelana no solo es revisado sino automatizado con robots capaces de interactuar con operadores y que operan bajo modelos redes neuronales de actor (ANN) y metodologías de aprendizaje por refuerzo para aprender nuevas rutas durante situaciones inesperadas en inspecciones de calidad
48 crearon un modelo de detección y clasificación de defectos basado en Deep Learning de redes neuronales convolucionales para superficies de vidrios de panel táctil, generando así tecnología aplicable a una gran variedad de productos de consumo masivo para automatizar y mejorar el rendimiento de sus inspecciones y controles de calidad. Las redes neuronales convolucionales también fueron utilizadas por 49 en conjunto con el escaneo láser para mapear la superficie de los cables de alimentación de energía eléctrica y así detectar defectos en su superficie a un nivel de producción industrial.
En una producción especializada y manual como la fabricación de habanos 50 encontraron cabida para la inteligencia artificial construyendo un software basado en la técnica Knowledge Discovery and Data Mining (KDD) para tomar el conocimiento proveniente de expertos en variables como peso, diámetro, dureza, dimensión y empalme de los habanos y generar criterios automáticos de evaluación en las inspecciones de calidad de este producto.
Para 51 un inconveniente de alto impacto negativo en el desarrollo de software es la corrección de errores posterior a la culminación del programa, puesto que su arreglo implica grandes variaciones de funcionamiento, aumentando los impactos de los defectos ya cometidos; para hacerle frente se utilizó el Deep Learning y técnicas como Support Vector Machines (SVM) y Ensamble Machines para la extracción de características de los módulos de software, en adición implementa regresiones de mínimos cuadrados parciales y eliminación recursiva de características para la reducción de dimensiones del problema.
En el reciclaje, un trabajo realizado en Colombia 52 generó un prototipo de sistema automatizado que conjuga una visión artificial, una red convolucional con 95% de efectividad y un Arduino para generar una clasificación entre plástico, vidrio y lata, lo que permite acelerar el proceso de reutilización y eliminar riesgos asociados a la manipulación de estos materiales. Industrias de servicios vitales y masivos tal como la del agua potable pueden aplicar Deep Learning en la detección de microorganismos presentes en el vital elemento con el fin de controlar su calidad, tal como lograron hacerlo 53, quienes apoyados por redes neuronales convoluciones generaron un 95,65% de efectividad en detección de cuatro diferentes microrganismos.
El mantenimiento y las fallas de los equipos desempeñan un papel importante en la calidad final de los productos, por lo que en Colombia 54 generó algoritmos de aprendizaje supervisado de clasificación y regresión en conjunto con redes neuronales creando algoritmos híbridos para maximizar el rendimiento final del modelo que se encarga de predecir fallos en máquinas para programar producciones y mantenimientos con antelación.
Procesos de ensamblaje industrial pueden ser monitoreados para el control de calidad de personal poco calificado por medio de la fusión de la visión por computadora (CV) para su detección y Deep Learning para su aprendizaje en pequeñas empresas de Costa Rica, como demostró 55
Resultados
El Deep Learning ha sobresalido como técnica automatizada de monitoreo de calidad por medio de procesamiento, clasificación y predicción de los diferentes defectos superficiales que puedan tener los productos. En el desarrollo del artículo se evidenciaron diferentes investigaciones que lograron predecir y encontrar el parámetro de calidad como salida, a partir de parámetros del proceso o variables de los productos en la entrada en los algoritmos; se obtuvo este resultado, debido a que las técnicas de inteligencia artificial como Machine Learning, Deep Learning y Transfer Learning reducen el ruido o la incertidumbre de los datos en comparación a otros métodos convencionales de control de calidad.
El Deep Learning es una herramienta muy completa que lleva a la inteligencia artificial a un nivel superior, puesto que las redes neuronales tienen la habilidad de adaptarse a su entorno porque pueden aprender de él, lo cual genera que los modelos computacionales aprendan de la experiencia y se acondicionen a posibles variaciones, produciendo resultados de procesamiento que reducen el ruido de la información gracias a que el aprendizaje de la red es no supervisado. Por otro lado, el Machine Learning requiere de un aprendizaje supervisado que produce modelos que se encargan de realizar predicciones, lo cual requiere presencia humana para realizar los respectivos cambios para adaptar el modelo.
Ambas técnicas generan resultados favorables en el control de calidad, reducen el error humano y realizan una optimización de la identificación de fallos para generar mejor productividad. Sin embargo, en estas técnicas hay un limitante (que es más recurrente en el Deep Learning), se trata de la disponibilidad de datos; para que las redes neuronales aprendan y se adapten a su entorno debe haber una cantidad de datos considerable para entrenamiento, validación y pruebas del modelo, para ello es necesario tener la cultura de organizar y documentar la información, además de contar con un sistema de gestión de la misma, de esta manera se garantiza tener disponibilidad de datos que generan información valiosa.
Conclusión
Las técnicas de inteligencia artificial evaluadas en el artículo muestran resultados comprometedores en términos de eficiencia, productividad, reducción de costos por defectos o imperfecciones de los productos que llegan al cliente final, esto debido a que estas técnicas están trabajando bajo funciones de aprendizaje que les permiten aprender de diferentes entornos y adaptarse. Sin embargo, como se menciona, está limitado el alcance y la implementación en muchas industrias porque dependen del musculo financiero de las empresas para implementar tecnologías que sirvan de soporte para la detección y hagan uso de Big Data.
Aplicaciones de inteligencia artificial como Machine Learning y Deep Learning permiten hacer una discriminación entre los diferentes fallos que tenga el producto o proceso, con el fin de identificar las posibles causas, como equipos defectuosos, instalaciones incorrectas, mala operación, desgaste del equipo, accidentes, condiciones inadecuadas, etc. De esta manera se pretende utilizar la visión artificial y continuar investigando sus aplicaciones con el objetivo de alcanzar la meta de detectar la anomalía o defecto, lanzar una alarma al operador para revisar la producción y realizar la toma de decisiones correspondiente para que la planta se recupere del daño o la falla identificada.
A medida que las tecnologías cobran una presencia mayoritaria en entornos de producción masiva, la generación y recolección de datos se convierte en una posibilidad más viable, y siendo este el insumo clave y base para las técnicas mencionadas, concluimos que Machine Learning, Deep Learning y Transfer Learning son parte importante del futuro de la producción y manufactura, tal y como lo menciona 56 al reconocer su poder actual y potencial en próximas investigaciones.
Al trabajar el objetivo de identificación de la técnica que genera mejores resultados en la detección de fallas superficiales, lo trabajado en el artículo demuestra que las medidas de desempeño de una misma técnica al ser implementada, complementada y enfrentada a distintas variables de distintos productos puede variar bajo las circunstancias de su aplicación; es decir, las variables y los objetivos de cada implementación son los que generan que una u otra técnica tenga un mejor rendimiento en las mismas medidas de desempeño que las demás; por lo cual se concluye que no existe una sola opción de trabajo que sea la mejor en todos los casos, por el contrario, tomando la experiencia de las referencias vistas, lo mejor es identificar las características de los productos y los datos disponibles y entrar a evaluar el desempeño de al menos tres técnicas apropiadas y considerar también su implementación conjunta o complementaria, para generar la mayor efectividad y el cumplimiento de los objetivos.
Los análisis y resultados discutidos en esta revisión de la literatura pueden servir como base y antecedentes para nuevas líneas de investigación en las cuales se amplíe el espectro de detección de errores superficiales y por medio de tecnologías como los rayos X, los ultrasonidos, resonancias magnéticas e incluso espectrometría en terahercios se pueda avanzar en la identificación de daños internos o estructurales durante los procesos de fabricación, tal y como lo realizó 57), analizando la fluorescencia por rayos x para optimizar el control de calidad en una unidad minera, esto con el fin de generar un control de calidad más especializado y que sea aplicable a industrias de mayor precisión y exigencias en cuanto a requisitos de producción.
Adicionalmente y según lo desarrollado y evidenciado en el trabajo y los resultados del presente artículo, podemos asegurar que la inteligencia artificial y, en específico, las técnicas de Deep Learning y Machine Learning son aplicables con garantía de éxito en cualquier industria que sea capaz de generar y procesar los datos requeridos por sus variables de interés; ejemplo de esto es la industria de los fármacos y medicamentos para consumo humano, en la cual la calidad es un factor supremamente importante puesto que el más mínimo daño no detectado puede acarrear graves consecuencias en productos que son de alto costo y cuya fabricación asciende a millones de unidades anualmente que tienen que cumplir perfectamente con la especificaciones prometidas y necesitadas por los pacientes.