Sviluppo e soluzioni di ADAS e guida autonoma
Con il rapido avanzamento delle tecnologie dei semiconduttori e dell'intelligenza artificiale (AI), i Sistemi Avanzati di Assistenza alla Guida (ADAS) sono diventati un equipaggiamento standard in molti veicoli, e la guida autonoma sta gradualmente emergendo come un punto focale per il futuro dello sviluppo automobilistico. Queste tecnologie sofisticate utilizzano telecamere, radar, sensori e software per assistere i conducenti rilevando automaticamente i pericoli e, in caso di necessità, controllando il veicolo, riducendo così l'incidenza degli incidenti. Questo articolo presenterà lo sviluppo degli ADAS e della guida autonoma, insieme ai prodotti e alle soluzioni correlati.
ADAS reduce accidents caused by human errors
ADAS represent a suite of digital technologies that perform various computer vision functions to assist drivers with fundamental tasks such as parking and navigation, heralding the future of smart safe driving. ADAS can include a range of subsystems, from adaptive cruise control to automated parking systems. These systems aim to prevent accidents caused by human errors, which accounts for over 90% of collisions today.
The most advanced ADAS safety technologies can automate and enhance many driving-related functions to improve safety and ensure proper driving operations. These subsystems can be broadly categorized into two types: passive ADAS systems that enhance driver awareness, such as lane departure warning systems and blind-spot detection, and active ADAS systems that take action, such as automatic emergency braking (AEB), adaptive cruise control (ACC), lane keeping assist (LKA), and lane centering (LC).
ADAS assists drivers in perceiving traffic conditions, analyzing and understanding driving behavior, and using predictive technologies combined with cloud computing, edge computing, and sensor data collection and analysis. These systems can notify drivers in advance of any potential vehicle issues, warning users to perform maintenance and ensure safety.
Sensori e tecnologie software utilizzati nei sistemi ADAS
ADAS utilizza vari sensori per migliorare la sicurezza dei veicoli e offrire una vasta gamma di funzioni di guida autonoma, comprendendo quattro tipi comuni di sensori. In primo luogo, i sensori delle telecamere sono ampiamente utilizzati grazie al loro costo inferiore, rendendo le soluzioni basate su telecamere la tecnologia di sensori più diffusa in ADAS. In secondo luogo, i sensori radar a onde millimetriche, che generano onde radio per calcolare la distanza tra gli oggetti e le onde stesse, sono solitamente impiegati come parte dei sistemi di prevenzione delle collisioni. In terzo luogo, i sensori LiDAR (Light Detection and Ranging) utilizzano laser per rilevare le distanze e possono anche individuare persone e anomalie geografiche. In quarto luogo, i sensori ultrasonici sono utilizzati principalmente per l'assistenza al parcheggio e i sistemi di parcheggio automatizzato. Oltre ai sensori, il software svolge un ruolo cruciale, inclusa l'Interfaccia Uomo-Macchina (HMI) per migliorare la connessione tra il conducente e il sistema di automazione del veicolo. Inoltre, la tecnologia AI viene impiegata per riconoscere vari veicoli e pedoni sulla strada e per intervenire nel controllo del veicolo in situazioni di emergenza, svolgendo un ruolo fondamentale. ADAS e guida autonoma sono due tecnologie distinte. ADAS è una raccolta di tecnologie progettate per migliorare la sicurezza complessiva durante la guida, mentre la guida autonoma si riferisce alla capacità del veicolo di guidare da solo senza intervento umano. Tuttavia, è importante sottolineare che ADAS non sostituisce il conducente. L'uso principale della tecnologia ADAS è migliorare la sicurezza stradale e, anche se i veicoli sono dotati di funzionalità più orientate alla praticità e all'intrattenimento, il conducente deve rimanere concentrato sulla guida del veicolo.
Sensori intelligenti ADAS principali e processori applicativi
ADAS comprende una vasta gamma di sistemi e componenti. Di seguito sono riportati alcuni prodotti importanti come riferimento. Innanzitutto, il XENSIV™ BGT60ATR24C di Infineon è un sensore radar automobilistico a 60 GHz, capace di operare con una continuità di onda modulata in frequenza (FMCW) con larghezza di banda ultra-ampia in un formato compatto. Il sensore supporta una larghezza di banda di 4 GHz e 2 canali TX / 4 canali RX, può essere configurato e i dati possono essere acquisiti tramite un'interfaccia digitale, con macchina a stati integrata per un funzionamento indipendente. Può raggiungere l'acquisizione dati indipendente con modalità di consumo energetico ottimizzate per il minor consumo possibile, ed è qualificato AEC-Q100/101. Questo nuovo sensore intelligente per il riconoscimento gestuale comprende diversi blocchi, come il front end a radiofrequenza (RF), la baseband analogica (ABB), il convertitore analogico-digitale (ADC), il phase-locked loop (PLL), la memoria (es. FIFO) e l'interfaccia seriale periferica (SPI). Il BGT60ATR24C offre un elevato livello di integrazione in un unico chipset. La funzionalità principale del BGT60ATR24C consiste nella trasmissione di segnali FMCW tramite il canale trasmittente (TX) e nella ricezione di segnali di eco dagli oggetti target su quattro canali riceventi (RX). Ogni percorso ricevente include filtraggio baseband, amplificatore di guadagno di tensione (VGA) e un ADC. L'output digitalizzato viene memorizzato nel FIFO. I dati vengono trasferiti a un host esterno, unità microcontroller (MCU) o processore applicativo (AP) per eseguire l'elaborazione del segnale radar. Il nuovo sensore intelligente di Infineon è già stato utilizzato per il rilevamento radar in abitacolo con la piattaforma MulticoreWare e DSP Cadence Vision P6. Il rilevamento radar in abitacolo è in grado di monitorare se i passeggeri sono seduti e il loro stato di salute. Eccelle nel monitoraggio di segni vitali e nel tracciamento del battito cardiaco, incluso il rilevamento della presenza di bambini quando l'auto è chiusa. Inoltre, il sistema fornisce avvisi di intrusione, migliorando la sicurezza generale del veicolo. Inoltre, NXP ha introdotto il processore applicativo i.MX 95, che porta capacità di elaborazione AI efficienti e sicure nei veicoli. Il nuovo i.MX 95 di NXP è progettato per gestire funzioni a criticità mista in applicazioni edge intelligenti (incluso il settore automobilistico), attraverso domini di elaborazione eterogenei flessibili che rispettano gli standard di sicurezza ASIL-B e SIL2. Questo processore offre capacità sicure ed efficienti di elaborazione AI per cockpit elettronici (eCockpit) e domini di connettività. I processori applicativi della serie i.MX 95 di NXP combinano elaborazione multicore ad alte prestazioni, grafica 3D immersiva e l'unità di elaborazione neurale (NPU) NXP eIQ® Neutron integrata, abilitando apprendimento automatico e avanzate applicazioni edge. I campi applicativi comprendono il settore automobilistico, industriale e IoT. Per applicazioni di evitamento di collisione, gli OEM e i fornitori di livello 1 (Tier 1) possono ora accedere più facilmente a una tecnologia affidabile e conveniente di sensori radar imaging. NXP ha introdotto un chipset dedicato, che include il processore radar imaging automobilistico a 16nm FinFETS32R41 e il transceiver RFCMOS TEF82xx, utilizzando una configurazione a doppia cascata. Il chipset radar di NXP, con sensori radar imaging 4D, offre un'elevata efficacia del costo e prestazioni, con 48 canali, supportando una risoluzione azimutale di un grado, una risoluzione elevazionale di due gradi, una portata massima di rilevamento di 370 metri per i veicoli e una portata massima di 130 metri per pneumatici senza cerchi.
La tecnologia di guida autonoma diventa un elemento chiave nello sviluppo dei veicoli di nuova generazione
La tecnologia di guida autonoma è indubbiamente diventata una componente cruciale nello sviluppo dei veicoli di nuova generazione. Aziende come Tesla hanno già introdotto sistemi avanzati di assistenza alla guida autonoma. Tra questi, gli ADAS basati su sensori LiDAR sono una delle tecnologie più innovative ed efficienti per i veicoli autonomi. Quando combinati con sistemi basati su visione e radar, i sistemi LiDAR offrono un rilevamento e un riconoscimento degli oggetti altamente accurati negli ADAS. L'integrazione di radar, LiDAR e sistemi basati su visione crea efficacemente un'esperienza di guida autonoma più sicura. I sensori LiDAR emettono raggi laser invisibili per scansionare e rilevare oggetti vicini o lontani dal sensore, creando una mappa 3D degli oggetti e dell'ambiente circostante su un display. Nelle applicazioni automobilistiche, la maggior parte dei sensori LiDAR è montata sulla parte superiore del veicolo. Questi sensori ruotano continuamente e generano migliaia di impulsi laser al secondo. I raggi laser ad alta velocità emessi dal LiDAR vengono continuamente irradiati lungo il perimetro a 360 gradi del veicolo e riflessi dagli oggetti sulla strada. Utilizzando algoritmi avanzati di machine learning, i dati raccolti da questa attività vengono convertiti in grafici 3D in tempo reale, solitamente visualizzati come immagini o mappe 3D degli oggetti circostanti. eInfochips, una sussidiaria di Arrow Electronics, opera come fornitore di servizi e soluzioni di ingegneria automobilistica, assistendo le aziende automobilistiche nella progettazione e nello sviluppo di sistemi ADAS utilizzando sensori basati su visione, radar e LiDAR. Alla fiera Embedded World 2024 (#ew24), eInfochips ha presentato un robot autonomo mobile (AMR) capace di navigare tra punti evitando ostacoli dinamici. Questo robot presenta tecnologie avanzate, tra cui sensori Time of Flight (ToF), sensori di imaging, un'unità di misura inerziale (IMU) ed è alimentato da un processore principale NVIDIA. Il controllo motore e la gestione energetica, inclusa la batteria, sono gestiti da componenti ADI, dimostrando capacità di progettazione complesse. I moduli fotocamera sono anch’essi componenti indispensabili nelle applicazioni di guida autonoma. La serie di fotocamere DesignCore® di D3 Engineering è ideale per applicazioni di visione embedded che richiedono la massima sicurezza e precisione. Queste fotocamere consentono un rapido prototipazione e una progettazione personalizzata per i sistemi di produzione dei clienti. Il portfolio di fotocamere ad alte prestazioni di D3 include le nuove serie DesignCore® Discovery, Velocity e Chroma, ognuna progettata per massimizzare la qualità delle immagini. Queste fotocamere migliorano il segnale ottico grazie a una maggiore risoluzione e aperture più ampie e sono ottimizzate per applicazioni AI pronte all'uso. L'AR0234CS di onsemi è anche altamente adatto alle applicazioni di guida autonoma. Si tratta di un sensore di immagine digitale CMOS da 1/2.6 pollici con risoluzione di 2.3Mp, otturatore globale e un array di pixel attivi di 1920 (H) x 1200 (V). Questo sensore utilizza un design pixel innovativo a otturatore globale per catturare accuratamente e rapidamente scene in movimento a 120 fotogrammi per secondo alla risoluzione completa. Produce immagini chiare e a basso rumore sia in condizioni di scarsa illuminazione sia in ambienti luminosi. L'AR0234CS offre un'efficienza leader nel settore per l'otturatore globale, generando immagini digitali estremamente nitide e chiare, rendendolo ideale per la registrazione video continua e la cattura singola di fotogrammi, perfetto per le applicazioni di guida autonoma. Sebbene la tecnologia di guida autonoma necessiti ancora di tempo per dimostrare pienamente le sue capacità, il continuo miglioramento della potenza di calcolo edge indica che la maturazione della tecnologia di guida autonoma è vicina. Nel frattempo, gli AMR continueranno ad aiutare il mercato a preparare algoritmi AI più robusti prima che vengano applicati ai veicoli passeggeri su strada. Con l'aumento della spedizione di robot mobili per soddisfare la crescente domanda di industrie alla ricerca di maggiore efficienza operativa, NVIDIA sta lanciando una nuova piattaforma per supportare la prossima generazione di applicazioni AMR. NVIDIA Isaac AMR porta autonomia avanzata ai robot mobili, offrendo capacità di mappatura, autonomia e simulazione avanzate. Si tratta di una piattaforma per simulare, validare, distribuire, ottimizzare e gestire gli AMR. Include servizi software edge-to-cloud, computing e un set di sensori di riferimento e hardware robotico per accelerare lo sviluppo e la distribuzione degli AMR, riducendo così i costi e abbreviando i tempi di immissione sul mercato.
Conclusione
Il progresso continuo della tecnologia ADAS e della guida autonoma ci sta guidando verso una nuova era del trasporto. Con la maturazione di queste tecnologie, l'ADAS offre un'esperienza di guida più sicura e comoda, ponendo le basi per la guida completamente autonoma. Sebbene l'autonomia completa affronti numerose sfide, tra cui la complessità tecnica, questioni legali ed etiche, è innegabile che l'innovazione e i progressi in questo campo stiano avanzando rapidamente. A causa delle limitazioni di spazio, le soluzioni discusse in questo articolo rappresentano solo una piccola parte delle applicazioni rilevanti. Per ulteriori informazioni sui metodi di progettazione dei sistemi ADAS e sui temi relativi ai componenti, si prega di contattare direttamente Arrow Electronics.
Tag articolo