Visión de máquina

La visión artificial ( MV ) es la tecnología y los métodos utilizados para proporcionar inspección y análisis automáticos basados en imágenes para aplicaciones tales como inspección automática, control de procesos y guía de robots, generalmente en la industria. La visión artificial se refiere a muchas tecnologías, productos de software y hardware, sistemas integrados, acciones, métodos y experiencia. La visión artificial como disciplina de la ingeniería de sistemas se puede considerar distinta de la visión artificial, una forma de informática . Intenta integrar tecnologías existentes de nuevas formas y aplicarlas para resolver problemas del mundo real. El término es el predominante para estas funciones en entornos de automatización industrial, pero también se utiliza para estas funciones en otros entornos de guiado de vehículos.El proceso general de visión artificial incluye la planificación de los detalles de los requisitos y el proyecto, y luego la creación de una solución. Durante el tiempo de ejecución, el proceso comienza con la creación de imágenes, seguido del análisis automatizado de la imagen y la extracción de la información requerida.

El primer sistema de visión artificial Automatix (ahora parte de Omron ) Autovision II de 1983 se demuestra en una feria comercial. La cámara en el trípode apunta hacia abajo a una mesa de luz para producir una imagen retroiluminada que se muestra en la pantalla, que luego se somete a la extracción de manchas .

Definición editar

Las definiciones del término "visión artificial" varían, pero todas incluyen la tecnología y los métodos utilizados para extraer información de una imagen de forma automática, a diferencia del procesamiento de imágenes, donde la salida es otra imagen. La información extraída puede ser una simple señal de parte buena/parte mala o, más bien, un conjunto complejo de datos, como la identidad, la posición y la orientación de cada objeto en una imagen. La información se puede utilizar para aplicaciones como la inspección automática y la guía de procesos y robots en la industria, para el control de la seguridad y la guía de vehículos.[1][2][3]​ Este campo abarca una gran cantidad de tecnologías, productos de software y hardware, sistemas integrados, acciones, métodos y experiencia.[3][4]​ La visión artificial es prácticamente el único término utilizado para estas funciones en aplicaciones de automatización industrial; el término es menos universal para estas funciones en otros entornos como la seguridad y el guiado de vehículos. La visión artificial como disciplina de la ingeniería de sistemas se puede considerar distinta de la visión artificial, una forma de informática básica; La visión artificial intenta integrar las tecnologías existentes de nuevas formas y aplicarlas para resolver problemas del mundo real de una manera que cumpla con los requisitos de la automatización industrial y áreas de aplicación similares.[3]: 5 [5]​ El término también se usa en un sentido más amplio por ferias comerciales y grupos comerciales como la Asociación de imágenes automatizadas y la Asociación europea de visión artificial. Esta definición más amplia también abarca productos y aplicaciones asociados con mayor frecuencia con el procesamiento de imágenes.[4]​ Los usos principales de la visión artificial son la inspección automática y la guía de procesos/ robots industriales .[6][7]: 6–10 [8]​ Ver glosario de visión artificial .

Inspección y clasificación automáticas basadas en imágenes editar

Los usos principales de la visión artificial son la inspección y clasificación automáticas basadas en imágenes y la guía del robot.;[6][7]: 6–10 en esta sección la primera se abrevia como "inspección automática". El proceso general incluye la planificación de los detalles de los requisitos y el proyecto, y luego la creación de una solución.[9][10]​ Esta sección describe el proceso técnico que ocurre durante la operación de la solución.

Métodos y secuencia de operación. editar

El primer paso en la secuencia de operación de inspección automática es la adquisición de una imagen, generalmente utilizando cámaras, lentes e iluminación que ha sido diseñada para proporcionar la diferenciación requerida por el procesamiento posterior.[11][12]​ Los paquetes de software de MV y los programas desarrollados en ellos emplean varias técnicas de procesamiento de imágenes digitales para extraer la información requerida y, a menudo, toman decisiones (como aprobar/reprobar) en función de la información extraída.[13]​ Los componentes de un sistema de inspección automática generalmente incluyen iluminación, una cámara u otro generador de imágenes, un procesador, software y dispositivos de salida.[7]: 11–13 

Imágenes editar

El dispositivo de imágenes (por ejemplo, una cámara) puede estar separado de la unidad principal de procesamiento de imágenes o combinarse con ella, en cuyo caso la combinación generalmente se denomina cámara inteligente o sensor inteligente.[14][15]​ La inclusión de la función de procesamiento completo en el mismo recinto que la cámara a menudo se denomina procesamiento integrado.[16]​ Cuando se separan, la conexión se puede realizar a un hardware intermedio especializado, un dispositivo de procesamiento personalizado o un capturador de fotogramas dentro de una computadora mediante una interfaz analógica o digital estandarizada ( Camera Link, CoaXPress ).[17][18][19][20]​ Las implementaciones de MV también usan cámaras digitales capaces de conectarse directamente (sin un capturador de fotogramas) a una computadora a través de interfaces FireWire, USB o Gigabit Ethernet .[20][21]​ Si bien las imágenes convencionales (luz visible 2D) se usan más comúnmente en MV, las alternativas incluyen imágenes multiespectrales, imágenes hiperespectrales, imágenes de varias bandas infrarrojas,[22]​ imágenes de barrido lineal, imágenes 3D de superficies e imágenes de rayos X.[6]​ Las diferenciaciones clave dentro de las imágenes de luz visible MV 2D son monocromática frente a color, velocidad de fotogramas, resolución y si el proceso de imagen es simultáneo o no en toda la imagen, lo que lo hace adecuado para procesos en movimiento.[23]

Estas cámaras necesitan tener especificaciones muy particulares para esta aplicación, ya que necesitan estar en uso por largos periodos de tiempo y muchas veces en un espacio reducido. Adicionalmente, estas cámaras normalmente disponen de una alta definición y FPS para poder capturar dimensiones y errores en la producción. Como mencionado anteriormente, interfaces como CoaXpress son utilizadas para poder transferir esta información de manera eficiente. Estas interfaces pueden llegar a velocidades de 12.5Gbps (gigabits por segundo) por canal de transmisión [24]​. Las condiciones del ambiente como la temperatura, golpes, etc. también necesitan ser consideradas en el contexto industrial. [25]


Aunque la gran mayoría de las aplicaciones de visión artificial se resuelven mediante imágenes bidimensionales, las aplicaciones de visión artificial que utilizan imágenes 3D son un nicho en crecimiento dentro de la industria.[26][27]​ El método más utilizado para la obtención de imágenes en 3D es la triangulación basada en el escaneo, que utiliza el movimiento del producto o la imagen durante el proceso de creación de imágenes. Un láser se proyecta sobre las superficies de un objeto. En la visión artificial, esto se logra con un movimiento de exploración, ya sea moviendo la pieza de trabajo o moviendo la cámara y el sistema de imágenes láser. La línea es vista por una cámara desde un ángulo diferente; la desviación de la línea representa variaciones de forma. Las líneas de varios escaneos se ensamblan en un mapa de profundidad o una nube de puntos.[28]​ La visión estereoscópica se usa en casos especiales que involucran características únicas presentes en ambas vistas de un par de cámaras.[28]​ Otros métodos 3D utilizados para la visión artificial son el tiempo de vuelo y la cuadrícula.[28][26]​ Un método son los sistemas basados en matriz de cuadrículas que utilizan un sistema de luz estructurada pseudoaleatorio como el empleado por el sistema Microsoft Kinect alrededor de 2012.[29][30]

Procesamiento de imágenes editar

Una vez adquirida una imagen, se procesa.[19]​ Las funciones de procesamiento central generalmente las realiza una CPU, una GPU, una FPGA o una combinación de estas.[16]​ La inferencia y el entrenamiento de aprendizaje profundo imponen mayores requisitos de rendimiento de procesamiento.[31]​ Por lo general, se utilizan múltiples etapas de procesamiento en una secuencia que termina como un resultado deseado. Una secuencia típica podría comenzar con herramientas como filtros que modifican la imagen, seguido de la extracción de objetos, luego la extracción (por ejemplo, mediciones, lectura de códigos) de datos de esos objetos, seguido por la comunicación de esos datos o la comparación con valores objetivo para crear y comunicar resultados de "aprobado/reprobado". Los métodos de procesamiento de imágenes de visión artificial incluyen;

  • Unión / Registro : Combinación de imágenes 2D o 3D adyacentes.[cita requerida]
  • Filtrado (por ejemplo, filtrado morfológico )[32]
  • Umbral: El umbral comienza con la configuración o determinación de un valor de gris que será útil para los siguientes pasos. Luego, el valor se usa para separar partes de la imagen y, a veces, para transformar cada parte de la imagen en blanco y negro, según esté por debajo o por encima de ese valor de escala de grises.[33]
  • Recuento de píxeles: cuenta el número de píxeles claros u oscuros[cita requerida]
  • Segmentación : partición de una imagen digital en múltiples segmentos para simplificar y/o cambiar la representación de una imagen en algo que sea más significativo y más fácil de analizar.[34]
  • Detección de bordes : búsqueda de bordes de objetos[35]
  • Análisis de color: identifique piezas, productos y artículos mediante el color, evalúe la calidad a partir del color y aísle las características mediante el color.[6]
  • Detección y extracción de blobs : inspección de una imagen en busca de blobs discretos de píxeles conectados (por ejemplo, un agujero negro en un objeto gris) como puntos de referencia de la imagen.[36]
  • Red neuronal / aprendizaje profundo /procesamiento de aprendizaje automático : toma de decisiones multivariable ponderada y autodidacta[37]​ Circa 2019 hay una gran expansión de esto, utilizando el aprendizaje profundo y el aprendizaje automático para expandir significativamente las capacidades de visión artificial. El resultado más común de dicho procesamiento es la clasificación. Ejemplos de clasificación son la identificación de objetos, la clasificación "pasa, falla" de objetos identificados y OCR.[37]
  • Reconocimiento de patrones, incluida la coincidencia de plantillas . Encontrar, emparejar y/o contar patrones específicos. Esto puede incluir la ubicación de un objeto que puede girarse, estar parcialmente oculto por otro objeto o variar en tamaño.[38]
  • Lectura de código de barras, matriz de datos y " código de barras 2D " [39]
  • Reconocimiento óptico de caracteres : lectura automatizada de texto como números de serie[40]
  • Medición/Metrología : medición de dimensiones de objetos (p. ej., en píxeles, pulgadas o milímetros )[41]
  • Comparación con los valores objetivo para determinar un resultado de "pasa o falla" o "pasa/no pasa". Por ejemplo, con la verificación de código o código de barras, el valor leído se compara con el valor objetivo almacenado. Para la medición, se compara una medida con el valor y las tolerancias adecuados. Para la verificación de códigos alfanuméricos, el valor de OCR se compara con el valor objetivo o adecuado. Para la inspección de imperfecciones, el tamaño medido de las imperfecciones puede compararse con los máximos permitidos por los estándares de calidad.[39]

Outputs editar

Una salida común (Output) de los sistemas de inspección automática son las decisiones de aprobación/rechazo.[13]​ Estas decisiones pueden, a su vez, desencadenar mecanismos que rechacen elementos fallidos o hagan sonar una alarma. Otras salidas comunes incluyen la posición del objeto y la información de orientación para los sistemas de guía del robot.[6]​ Además, los tipos de salida incluyen datos de medición numéricos, datos leídos de códigos y caracteres, conteos y clasificación de objetos, visualizaciones del proceso o resultados, imágenes almacenadas, alarmas de sistemas automatizados de monitoreo espacial MV y señales de control de procesos .[9][12]​ Esto también incluye interfaces de usuario, interfaces para la integración de sistemas de múltiples componentes e intercambio de datos automatizado.[42]

Aprendizaje profundo editar

El término "aprendizaje profundo" tiene significados variables, la mayoría de los cuales se pueden aplicar a las técnicas utilizadas en la visión artificial durante más de 20 años. Sin embargo, el uso del término en visión artificial comenzó a fines de la década de 2010 con el advenimiento de la capacidad de aplicar con éxito dichas técnicas a imágenes completas en el espacio industrial de visión artificial.[43]​ La visión artificial convencional generalmente requiere la fase de "física" de una solución de inspección automática de visión artificial para crear una diferenciación simple y confiable de defectos. Un ejemplo de diferenciación "simple" es que los defectos son oscuros y las partes buenas del producto son claras. Una razón común por la que algunas aplicaciones no eran factibles era cuando era imposible lograr lo "simple"; el aprendizaje profundo elimina este requisito, en esencia "ver" el objeto más como lo hace un ser humano, lo que ahora hace posible lograr esas aplicaciones automáticas.[43]​ El sistema aprende de una gran cantidad de imágenes durante una fase de entrenamiento y luego ejecuta la inspección durante el tiempo de ejecución, lo que se denomina "inferencia".[43]

Guiado de robot basado en imágenes editar

La visión artificial comúnmente proporciona información de ubicación y orientación a un robot para permitir que el robot agarre correctamente el producto. Esta capacidad también se usa para guiar el movimiento que es más simple que los robots, como un controlador de movimiento de 1 o 2 ejes.[6]​ El proceso general incluye la planificación de los detalles de los requisitos y el proyecto, y luego la creación de una solución. Esta sección describe el proceso técnico que ocurre durante la operación de la solución. Muchos de los pasos del proceso son los mismos que con la inspección automática, excepto que se enfocan en proporcionar información de posición y orientación como resultado.[6]

Mercado editar

Recientemente, en 2006, un consultor de la industria informó que MV representaba un mercado de $ 1.5 mil millones en América del Norte.[44]​ Sin embargo, el editor en jefe de una revista comercial de MV afirmó que "la visión artificial no es una industria en sí misma", sino "la integración de tecnologías y productos que brindan servicios o aplicaciones que benefician a industrias reales como la automotriz o la fabricación de bienes de consumo"., agricultura y defensa".[4]

Véase también editar

Referencias editar

  1. Steger, Carsten; Markus Ulrich; Christian Wiedemann (2018). Machine Vision Algorithms and Applications (2nd edición). Weinheim: Wiley-VCH. p. 1. ISBN 978-3-527-41365-2. Consultado el 30 de enero de 2018. 
  2. Beyerer, Jürgen; Puente León, Fernando; Frese, Christian (2016). Machine Vision - Automated Visual Inspection: Theory, Practice and Applications. Berlin: Springer. ISBN 978-3-662-47793-9. doi:10.1007/978-3-662-47794-6. Consultado el 11 de octubre de 2016. 
  3. a b c Graves, Mark; Bruce G. Batchelor (2003). Machine Vision for the Inspection of Natural Products. Springer. p. 5. ISBN 978-1-85233-525-0. Consultado el 2 de noviembre de 2010. 
  4. a b c Holton, W. Conard (October 2010). «By Any Other Name». Vision Systems Design 15 (10). ISSN 1089-3709. Consultado el 5 de marzo de 2013. 
  5. Owen-Hill, Alex (21 de julio de 2016). «Robot Vision vs Computer Vision: What's the Difference?». Robotics Tomorrow. 
  6. a b c d e f g Turek, Fred D. (June 2011). «Machine Vision Fundamentals, How to Make Robots See». NASA Tech Briefs 35 (6): 60-62. Archivado desde el original el 27 de enero de 2012. Consultado el 29 de noviembre de 2011. 
  7. a b c Cognex (2016). «Introduction to Machine Vision». Assembly Magazine. Consultado el 9 de febrero de 2017. 
  8. Lückenhaus, Maximilian (1 de mayo de 2016). «Machine Vision in IIoT». Quality Magazine (en inglés). Archivado desde el original el 20 de enero de 2022. Consultado el 11 de mayo de 2023. 
  9. a b West, Perry A Roadmap For Building A Machine Vision System Pages 1-35
  10. Dechow, David (January 2009). «Integration: Making it Work». Vision & Sensors: 16-20. Archivado desde el original el 14 de marzo de 2020. Consultado el 12 de mayo de 2012. 
  11. Hornberg, Alexander (2006). Handbook of Machine Vision. Wiley-VCH. p. 427. ISBN 978-3-527-40584-8. Consultado el 5 de noviembre de 2010. 
  12. a b Demant C.; Streicher-Abel B.; Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. ISBN 3-540-66410-6. [página requerida]
  13. a b Hornberg, Alexander (2006). Handbook of Machine Vision. Wiley-VCH. p. 429. ISBN 978-3-527-40584-8. Consultado el 5 de noviembre de 2010. 
  14. Belbachir, Ahmed Nabil, ed. (2009). Smart Cameras. Springer. ISBN 978-1-4419-0952-7. [página requerida]
  15. Dechow, David (February 2013). «Explore the Fundamentals of Machine Vision: Part 1». Vision Systems Design 18 (2): 14-15. Consultado el 5 de marzo de 2013. 
  16. a b Critical Considerations for Embedded Vision Design by Dave Rice and Amber Thousand Photonics Spectra magazine published by Laurin Publishing Co. July 2019 issue Pages 60-64
  17. Wilson, Andrew (31 de mayo de 2011). «CoaXPress standard gets camera, frame grabber support». Vision Systems Design. Consultado el 28 de noviembre de 2012. 
  18. Wilson, Dave (12 de noviembre de 2012). «Cameras certified as compliant with CoaXPress standard». Vision Systems Design. Consultado el 5 de marzo de 2013. 
  19. a b Davies, E.R. (1996). Machine Vision - Theory Algorithms Practicalities (2nd edición). Harcourt & Company. ISBN 978-0-12-206092-2. [página requerida]
  20. a b Dinev, Petko (March 2008). «Digital or Analog? Selecting the Right Camera for an Application Depends on What the Machine Vision System is Trying to Achieve». Vision & Sensors: 10-14. Archivado desde el original el 14 de marzo de 2020. Consultado el 12 de mayo de 2012. 
  21. Wilson, Andrew (December 2011). «Product Focus - Looking to the Future of Vision». Vision Systems Design 16 (12). Consultado el 5 de marzo de 2013. 
  22. Wilson, Andrew (April 2011). «The Infrared Choice». Vision Systems Design 16 (4): 20-23. Consultado el 5 de marzo de 2013. 
  23. West, Perry High Speed, Real-Time Machine Vision CyberOptics, pages 1-38
  24. «CoaXPress 2.1 Over Fiber Optic Cables is Faster and More Stable» [CoaXpress 2.1 Por Cables de Fibra Optica es más Rápido y más Estable]. Consultado el 17 de abril de 2024. 
  25. «Machine Vision» [Vision de Maquina]. Kaya Instruments (en inglés). Consultado el 17 de abril de 2024. 
  26. a b Murray, Charles J (February 2012). «3D Machine Vison Comes into Focus». Design News. Archivado desde el original el 5 de junio de 2012. Consultado el 12 de mayo de 2012. 
  27. Davies, E.R. (2012). Computer and Machine Vision: Theory, Algorithms, Practicalities (4th edición). Academic Press. pp. 410-411. ISBN 9780123869081. Consultado el 13 de mayo de 2012. 
  28. a b c 3-D Imaging: A practical Overview for Machine Vision By Fred Turek & Kim Jackson Quality Magazine, March 2014 issue, Volume 53/Number 3 Pages 6-8
  29. http://research.microsoft.com/en-us/people/fengwu/depth-icip-12.pdf HYBRID STRUCTURED LIGHT FOR SCALABLE DEPTH SENSING Yueyi Zhang, Zhiwei Xiong, Feng Wu University of Science and Technology of China, Hefei, China Microsoft Research Asia, Beijing, China
  30. R.Morano, C.Ozturk, R.Conn, S.Dubin, S.Zietz, J.Nissano, "Structured light using pseudorandom codes", IEEE Transactions on Pattern Analysis and Machine Intelligence 20 (3)(1998)322–327
  31. Finding the optimal hardware for deep learining inference in machine vision by Mike Fussell Vision Systems Design magazine September 2019 issue pages 8-9
  32. Demant C.; Streicher-Abel B.; Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 39. ISBN 3-540-66410-6. 
  33. Demant C.; Streicher-Abel B.; Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 96. ISBN 3-540-66410-6. 
  34. Lauren Barghout. Visual Taxometric approach Image Segmentation using Fuzzy-Spatial Taxon Cut Yields Contextually Relevant Regions. Information Processing and Management of Uncertainty in Knowledge-Based Systems. CCIS Springer-Verlag. 2014
  35. Demant C.; Streicher-Abel B.; Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 108. ISBN 3-540-66410-6. 
  36. Demant C.; Streicher-Abel B.; Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 95. ISBN 3-540-66410-6. 
  37. a b Turek, Fred D. (March 2007). «Introduction to Neural Net Machine Vision». Vision Systems Design 12 (3). Consultado el 5 de marzo de 2013. 
  38. Demant C.; Streicher-Abel B.; Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 111. ISBN 3-540-66410-6. 
  39. a b Demant C.; Streicher-Abel B.; Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 125. ISBN 3-540-66410-6. 
  40. Demant C.; Streicher-Abel B.; Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 132. ISBN 3-540-66410-6. 
  41. Demant C.; Streicher-Abel B.; Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 191. ISBN 3-540-66410-6. 
  42. Hornberg, Alexander (2006). Handbook of Machine Vision. Wiley-VCH. p. 709. ISBN 978-3-527-40584-8. Consultado el 5 de noviembre de 2010. 
  43. a b c The Place for Deep Learning in Machine Vision Quality Magazine May 2022 issue, Volume 61, Number 5 Published by BNP Media II
  44. Hapgood, Fred (December 15, 2006 – January 1, 2007). «Factories of the Future». CIO 20 (6): 46. ISSN 0894-9301. Consultado el 28 de octubre de 2010.