Desarrollo y soluciones de ADAS y conducción autónoma
Con el rápido avance de las tecnologías de semiconductores e inteligencia artificial (IA), los Sistemas Avanzados de Asistencia al Conductor (ADAS) se han convertido en equipos estándar en muchos vehículos, y la conducción autónoma está emergiendo gradualmente como un punto central para el futuro del desarrollo automotriz. Estas sofisticadas tecnologías utilizan cámaras, radares, sensores y software para asistir a los conductores detectando automáticamente peligros e incluso controlando el vehículo cuando es necesario, reduciendo así la ocurrencia de accidentes. Este artículo presentará el desarrollo de los ADAS y la conducción autónoma, junto con productos y soluciones relacionados.
ADAS reduce accidents caused by human errors
ADAS represent a suite of digital technologies that perform various computer vision functions to assist drivers with fundamental tasks such as parking and navigation, heralding the future of smart safe driving. ADAS can include a range of subsystems, from adaptive cruise control to automated parking systems. These systems aim to prevent accidents caused by human errors, which accounts for over 90% of collisions today.
The most advanced ADAS safety technologies can automate and enhance many driving-related functions to improve safety and ensure proper driving operations. These subsystems can be broadly categorized into two types: passive ADAS systems that enhance driver awareness, such as lane departure warning systems and blind-spot detection, and active ADAS systems that take action, such as automatic emergency braking (AEB), adaptive cruise control (ACC), lane keeping assist (LKA), and lane centering (LC).
ADAS assists drivers in perceiving traffic conditions, analyzing and understanding driving behavior, and using predictive technologies combined with cloud computing, edge computing, and sensor data collection and analysis. These systems can notify drivers in advance of any potential vehicle issues, warning users to perform maintenance and ensure safety.
Sensores y tecnologías de software utilizadas en ADAS
ADAS emplea diversos sensores para mejorar la seguridad del vehículo y proporcionar una amplia gama de funciones de conducción autónoma, incluyendo cuatro tipos comunes de sensores. En primer lugar, los sensores de cámara son ampliamente utilizados debido a su menor costo, lo que hace que las soluciones basadas en cámaras sean la tecnología de sensores más predominante en ADAS. En segundo lugar, los sensores de radar de ondas milimétricas, que generan ondas de radio para calcular la distancia entre los objetos y las propias ondas, se utilizan típicamente como parte de los sistemas de evitación de colisiones. En tercer lugar, los sensores de detección y alcance por luz (LiDAR) utilizan láseres para detectar distancias y también pueden identificar personas y anomalías geográficas. En cuarto lugar, los sensores ultrasónicos se emplean principalmente para asistencia en el estacionamiento y sistemas de aparcamiento automatizado. Además de los sensores, el software desempeña un papel crucial, incluyendo la Interfaz Humano-Máquina (HMI, por sus siglas en inglés) para mejorar la conexión entre el conductor y el sistema de automatización del vehículo. Asimismo, la tecnología de inteligencia artificial (IA) se utiliza para reconocer diversos vehículos y peatones en la carretera y para intervenir en el control del vehículo en situaciones de emergencia, desempeñando un papel vital. ADAS y la conducción autónoma son dos tecnologías distintas. ADAS es un conjunto de tecnologías diseñadas para mejorar la seguridad general al conducir, mientras que la conducción autónoma se refiere a la capacidad del vehículo de conducirse a sí mismo sin intervención humana. Sin embargo, es importante enfatizar que ADAS no reemplaza al conductor. El principal uso de la tecnología ADAS es mejorar la seguridad vial, y aunque los vehículos están equipados con más funciones de conveniencia y entretenimiento, el conductor debe permanecer concentrado en conducir el vehículo.
Sensores inteligentes clave de ADAS y procesadores de aplicaciones
ADAS incluye una amplia gama de sistemas y componentes. A continuación, se presentan algunos productos importantes como referencia. En primer lugar, el XENSIV™ BGT60ATR24C de Infineon es un sensor radar automotriz de 60 GHz, capaz de operar con radar de onda continua modulada en frecuencia (FMCW) de ancho de banda ultra amplio, en un paquete compacto. El sensor admite un ancho de banda de 4 GHz y 2 canales TX / 4 RX. Puede configurarse y adquirir datos a través de una interfaz digital, con una máquina de estados integrada para operación independiente. Además, permite la adquisición de datos de forma autónoma, optimizando los modos de energía para el menor consumo posible, y está calificado según los estándares AEC-Q100/101. Este nuevo sensor inteligente para reconocimiento de gestos incluye varios bloques, como el front-end de radiofrecuencia (RF), baseband analógico (ABB), convertidor analógico-digital (ADC), bucle de enganche de fase (PLL), memoria (e.g., FIFO) e interfaz periférica serial (SPI). El BGT60ATR24C ofrece un alto nivel de integración en un único chipset. La funcionalidad principal del BGT60ATR24C consiste en transmitir señales FMCW a través del canal transmisor (TX) y recibir señales de eco de objetos objetivo en cuatro canales receptores (RX). Cada trayectoria de recepción incluye filtrado de baseband, un amplificador de ganancia de voltaje (VGA) y un ADC. La salida digitalizada se almacena en la FIFO. Los datos se transfieren a un host externo, unidad de microcontrolador (MCU) o procesador de aplicaciones (AP) para realizar el procesamiento de señales de radar. El nuevo sensor inteligente de Infineon ya se ha aplicado en sensores de radar para el interior de vehículos, utilizando MulticoreWare con Cadence Vision P6 DSP. Estos sensores de radar en cabina pueden monitorear si hay pasajeros sentados y su estado de salud. Sobresale en la detección de signos vitales y el seguimiento de la frecuencia cardíaca, incluyendo la detección de la presencia de niños cuando el automóvil está cerrado. Además, el sistema proporciona alertas de intrusión, mejorando la seguridad general del vehículo. Asimismo, NXP ha introducido el procesador de aplicaciones i.MX 95, que aporta capacidades eficientes y seguras de procesamiento de inteligencia artificial (IA) a los automóviles. El nuevo i.MX 95 de NXP está diseñado para manejar funciones de criticidad mixta en aplicaciones de borde inteligente (incluido el sector automotriz), mediante dominios computacionales heterogéneos y flexibles, que cumplen con los estándares de seguridad ASIL-B y SIL2. Este procesador proporciona capacidades seguras y eficientes de procesamiento de IA para cabinas electrónicas (eCockpit) y dominios de conectividad. La serie de procesadores de aplicaciones i.MX 95 de NXP combina computación de alto rendimiento con múltiples núcleos, gráficos 3D inmersivos y la unidad de procesamiento neuronal (NPU) eIQ® Neutron integrada de NXP, lo que permite aprendizaje automático y aplicaciones avanzadas en el borde. Sus áreas de aplicación incluyen el sector automotriz, industrial y de IoT. Para aplicaciones de evitación de colisiones, los fabricantes de equipos originales (OEM) y los proveedores de nivel 1 (Tier 1) ahora pueden acceder más fácilmente a tecnología de sensores radar de imágenes asequibles y confiables. NXP ha presentado un chipset específico, que incluye el procesador de radar de imágenes automotriz S32R41 construido en tecnología FinFET de 16 nm y el transceptor RFCMOS TEF82xx, utilizando una configuración de doble cascada. El chipset de radar de NXP, con sensores de radar de imágenes 4D, ofrece una alta rentabilidad y rendimiento, con 48 canales, resolución de un grado en azimut, resolución de dos grados en elevación, un alcance máximo de detección de 370 metros para vehículos, y un alcance máximo de detección de 130 metros para neumáticos sin llantas.
La tecnología de conducción autónoma se convierte en un desarrollo clave para los vehículos de nueva generación
La tecnología de conducción autónoma se ha convertido indiscutiblemente en un componente crucial en el desarrollo de vehículos de próxima generación. Empresas como Tesla ya han introducido sistemas avanzados de asistencia para la conducción autónoma. Entre estos, los sistemas ADAS basados en sensores LiDAR son una de las tecnologías más innovadoras y eficientes para vehículos autónomos. Al combinarse con sistemas de visión y sistemas de radar, los sistemas LiDAR ofrecen una detección y reconocimiento de objetos altamente precisos en los sistemas ADAS. La integración de sistemas de radar, LiDAR y visión proporciona una experiencia de conducción autónoma más segura. Los sensores LiDAR emiten haces de láser invisibles para escanear y detectar objetos cercanos o lejanos al sensor, creando un mapa tridimensional de los objetos y el entorno en una pantalla. En aplicaciones automotrices, la mayoría de los sensores LiDAR están montados en la parte superior del vehículo. Estos sensores giran de forma continua y generan miles de pulsos de láser por segundo. Los haces de láser de alta velocidad emitidos por el sistema LiDAR se dispersan continuamente alrededor del perímetro de 360 grados del vehículo y se reflejan en los objetos de la carretera. Utilizando algoritmos sofisticados de aprendizaje automático, los datos recopilados de esta actividad se convierten en gráficos tridimensionales en tiempo real, que usualmente se presentan como imágenes o mapas en 3D de los objetos circundantes. eInfochips, una subsidiaria de Arrow Electronics, actúa como proveedor de servicios y soluciones de ingeniería automotriz, ayudando a las compañías automotoras a diseñar y desarrollar sistemas ADAS que emplean sensores basados en visión, radar y LiDAR. En la exposición 2024 Embedded World (#ew24), eInfochips presentó un robot móvil autónomo (AMR) capaz de navegar entre puntos mientras evita obstáculos dinámicos. Este robot cuenta con tecnologías avanzadas, incluyendo sensores Time of Flight (ToF), sensores de imagen, una unidad de medición inercial (IMU) y está impulsado por un procesador principal NVIDIA. El control del motor y la gestión de energía, incluidas las baterías, están a cargo de componentes ADI, lo que demuestra su capacidad de diseño complejo. Los módulos de cámara también son componentes indispensables en aplicaciones de conducción autónoma. La serie DesignCore® de cámaras de D3 Engineering es ideal para aplicaciones de visión embebida que requieren la máxima precisión y seguridad. Estas cámaras permiten una creación rápida de prototipos y diseños personalizados para los sistemas de producción de los clientes. El portafolio de cámaras de alto rendimiento de D3 incluye las nuevas series DesignCore® Discovery, Velocity y Chroma, cada una diseñada para maximizar la calidad de imagen. Estas cámaras mejoran la señal óptica mediante una mayor resolución y aperturas más amplias, optimizadas para aplicaciones de inteligencia artificial listas para usar. El AR0234CS de onsemi también resulta altamente adecuado para aplicaciones de conducción autónoma. Se trata de un sensor de imagen digital CMOS de 1/2.6 pulgadas y 2.3 megapíxeles con un obturador global y una matriz de píxeles activa de 1920 (H) x 1200 (V). Este sensor utiliza un diseño innovador de píxel con obturador global para capturar escenas en movimiento de manera precisa y rápida a una velocidad de 120 fotogramas por segundo con resolución completa. Produce imágenes claras y con bajo nivel de ruido, tanto en condiciones de poca luz como en escenas brillantes. El AR0234CS ofrece eficiencia líder en la industria en obturadores globales, generando imágenes digitales extremadamente nítidas y claras, lo que lo hace ideal tanto para capturas de vídeo continuas como para imágenes individuales, perfecto para aplicaciones de conducción autónoma. Aunque la tecnología de conducción autónoma aún necesita más tiempo para demostrar completamente sus capacidades, la mejora continua en el poder de cómputo en el borde indica que la maduración de esta tecnología no está muy lejos. Mientras tanto, los AMRs seguirán ayudando al mercado a desarrollar algoritmos de inteligencia artificial más robustos antes de su aplicación en vehículos de pasajeros en las carreteras. A medida que la demanda de robots móviles aumenta para satisfacer las necesidades de industrias que buscan eficiencia operativa, NVIDIA está lanzando una nueva plataforma para respaldar la próxima generación de aplicaciones de AMR. Isaac AMR de NVIDIA aporta autonomía avanzada a los robots móviles, ofreciendo capacidades avanzadas de mapeo, autonomía y simulación. Es una plataforma diseñada para simular, validar, implementar, optimizar y gestionar AMRs. Incluye servicios de software de borde a nube, computación y un conjunto de sensores de referencia y hardware robótico para acelerar el desarrollo y la implementación de AMRs, reduciendo así costos y acortando el tiempo de llegada al mercado.
Conclusión
El avance continuo de las tecnologías ADAS y de conducción autónoma nos está llevando a una nueva era del transporte. A medida que estas tecnologías maduran, ADAS ofrece una experiencia de conducción más segura y cómoda, al mismo tiempo que sienta las bases para una conducción totalmente autónoma. Aunque la autonomía total enfrenta numerosos desafíos, incluidos la complejidad técnica, cuestiones legales y éticas, es innegable que la innovación y el progreso en este campo están avanzando rápidamente. Debido a limitaciones de espacio, las soluciones discutidas en este artículo representan solo una pequeña parte de las aplicaciones relevantes. Para obtener más información sobre los métodos de diseño de sistemas ADAS y temas relacionados con los componentes, por favor contacte directamente con Arrow Electronics.
Etiquetas de artículo