Intervista a Markus Levy, Direttore di AI and Machine Learning Technologies, NXP Semiconductors
"Nel medio e lungo periodo vogliamo integrare un motore di accelerazione IA di qualche livello in molti dei nostri componenti. Intendiamo addirittura esplorare la possibilità di integrare speciali blocchi hardware di costo ridotto sulle unità MCU di fascia bassa." – Markus Levy
Domanda: Intelligenza artificiale (IA) e apprendimento automatico (ML, Machine Learning) sono solo parole particolarmente in voga o le aspettative dietro a queste tematiche sono reali?
Markus: Sicuramente si fa un gran parlare di intelligenza artificiale e/o apprendimento automatico, ma dietro a tutto ciò c'è più realtà di quanta ce ne fosse dietro al clamore suscitato dalla IoT cinque anni fa. Con questo non voglio svilire il valore dell'IoT, perché ha comunque portato allo sviluppo di molte nuove e interessanti aree applicative, ma l'IoT era più o meno un'evoluzione di qualcosa di integrato. L'intelligenza artificiale e l'apprendimento automatico, invece, sono l'espressione di un "segmento di mercato" che offre un modo completamente nuovo di risolvere i problemi. Ricordiamoci che il machine learning, sotto forma di reti neurali e algoritmi classici, esiste da decenni. Tuttavia, prima dei recenti progressi nelle strutture di apprendimento automatico, nessuno sapeva come eseguire praticamente il training delle reti neurali profonde ed era poco pratico utilizzare l'hardware commodity, quindi sono rimaste relativamente inattive. Adesso il numero di ricerche disponibili è aumentato esponenzialmente e lo stesso è accaduto per le opzioni opensource e proprietarie per il training, l'ottimizzazione e l'implementazione dei modelli di machine learning. Oggi vediamo molte più aziende investire risorse e denaro nello sviluppo di IA/ML, ma questa è solo la punta dell'iceberg. Come succede con qualsiasi tecnologia all'avanguardia in cui le persone "sentono odore di soldi", ci saranno vincitori e vinti.
Domanda: Come vede la proliferazione dell'intelligenza artificiale nella tecnologia mainstream?
Markus: Innanzi tutto, bisogna tenere presente che, se vogliamo che intelligenza artificiale o apprendimento automatico si diffondano in tutte o in molte della aree applicative ed entrino a far parte della tecnologia mainstream, devono essere semplificati fino a fare in modo che si possano allenare i modelli e sviluppare e implementare i motori inferenziali con uno script Python o un menu a discesa, invece di accollare agli sviluppatori la creazione di complessi algoritmi matematici. Spesso ci si riferisce alla programmazione per intelligenza artificiale e machine learning come "Software 2.0". Non si tratta di utilizzare metodi di programmazione tradizionali, ma di usare le reti e le strutture neurali esistenti e le librerie ML classiche. Per supportare questo approccio, è più importante determinare pesi e parametri (indicati in genere come modelli di training).
Riguardo ai vantaggi specifici dell'intelligenza artificiale, fondamentalmente si tratta di un'area in cui i dati sono molto preziosi. In altre parole, l'intelligenza artificiale e l'apprendimento automatico sono più o meno inutili se lo sviluppatore dell'applicazione non è in grado di raccogliere e successivamente etichettare i dati utilizzati per l'allenamento dei modelli. Supponendo che lo sviluppatore dell'applicazione sia in grado di effettuare il training del modello, i vantaggi dell'IA possono essere applicati su una vasta gamma di applicazioni mirate a visione, voce e rilevamento delle anomalie.
Domanda: Dove si posiziona NXP nella classifica delle aziende leader nel settore IA/ML?
Markus: NXP è riconosciuta come una delle aziende leader nel settore dell'intelligenza artificiale perché affrontiamo le applicazioni IA direttamente dal punto di vista del software e dell'hardware complementare. In altre parole, il primo ingrediente per un'implementazione di successo dell'IA è un portafoglio di piattaforme hardware scalabili che offrono agli sviluppatori la possibilità di scegliere tra varie alternative di prestazioni, potenza e prezzo. La possibilità di eseguire un algoritmo ML su un'unità MCU di fascia bassa, oltre che su un processore per applicazioni di fascia alta, è spinta dall'accettabile latenza dell'inferenza e dall'ingombro della memoria. Il software è il secondo ingrediente necessario per l'implementazione dell'IA e, per questo elemento, NXP ha scelto un percorso che offre una vasta gamma di opzioni open source che noi definiamo "ambiente di sviluppo software del machine learning eIQ™". È chiaro che le soluzioni proprietarie per l'implementazione dell'apprendimento automatico offrono ancora approcci validi, ma devono anche tenere il passo dei rapidi progressi a cui assistiamo grazie all'open source. Quindi, la nostra missione è rendere possibili le opzioni open source, come TensorFlow Lite, GLOW, Arm® NN e altre e applicare ottimizzazioni specifiche per determinati dispositivi in base a ciò che serve per ottenere risultati più competitivi.
Domanda: Quali sono le applicazioni incluse nell'ambiente di abilitazione AI/ML di NXP?
Markus: Come ho detto prima, stiamo focalizzando l'attenzione su visione, voce e rilevamento delle anomalie. Si tratta di un settore molto ampio e, ad alto livello, rappresenta la maggior parte delle applicazioni all'avanguardia. Il segmento visione può essere suddiviso in applicazioni come il riconoscimento facciale e il rilevamento di oggetti e può a volte sovrapporsi al settore del rilevamento delle anomalie. Il segmento voce comprende il rilevamento di parole chiave per applicazioni come Alexa™, oltre a limitate elaborazioni del linguaggio naturale (limitate a causa dei limiti della capacità di memoria sui dispositivi edge). Il rilevamento delle anomalie, invece, riguarda applicazioni per la manutenzione predittiva e il monitoraggio tramite una grande varietà di sensori che rilevano circostanze normali e anomale.
Articolo correlato: AI-ML and Thor96 Single Board Computers: Specially Built for AI, IoT, Visual Display and More
Domanda: Quali sono le caratteristiche che rendono i chip NXP particolarmente adatti alle applicazioni IA/ML?
Markus: Un portafoglio scalabile si presta bene a queste applicazioni IA. Tutto si riduce alla quantità di prestazioni richieste (in altre parole, il tempo di inferenza) e al volume della memoria disponibile. La gente dice di volere prestazioni migliori e raffinati acceleratori ML, ma il costo è sempre il fattore preponderante. Tenendo presente questo parametro, i prodotti NXP con processori DSP integrati saranno una scelta eccellente per le applicazioni voce e visione. Il processore DSP integrato viene utilizzato per il rilevamento di parole chiave e consente ai dispositivi di rimanere in modalità risparmio energetico fino all'individuazione della parola chiave giusta. Per quanto riguarda i dispositivi meno economici, NXP offre i processori delle famiglie i.MX 8 e Layerscape, dotati di unità GPU integrate, memorie centrali di CPU multicore e acceleratori DSP, che garantisco all'applicazione la capacità di eseguire elaborazioni eterogenee e algoritmi di apprendimento automatico multipli in parallelo. I dispositivi di prossima generazione includeranno acceleratori di apprendimento automatico dedicati che determineranno livelli di prestazioni senza precedenti.
Domanda: In cosa consiste l'abilitazione all'apprendimento automatico eIQ di NXP?
Markus: Fondamentalmente, l'eIQ è una raccolta di tecnologie open source create per implementare le applicazioni di machine learning. Queste tecnologie includono motori run-time come TensorFlow e TensorFlow Lite, parser di rete e motori inferenziali dedicati quali Arm NN e il supporto di librerie come OpenCV. È possibile ottenere tutte queste tecnologie anche da fonti come Github, ma eIQ di NXP ne rende più semplice l'utilizzo, fornisce documentazione dettagliata e integra tali tecnologie nei propri ambienti di sviluppo (MCUXpresso per i microcontroller e Yocto/Linux® per i processori applicativi i.MX).
Domanda: Quali sono i programmi futuri per l'hardware NXP per il supporto delle applicazioni IA/ML?
Markus: Gli obiettivi a medio e lungo termine prevedono di includere una qualche forma di motori di accelerazione hardware IA in molti dei nostri dispositivi e anche di inserire blocchi hardware specializzati sulle unità MCU di fascia più bassa.
A breve - Computer a scheda singola per IA e ML basati su processori applicativi i.MX 8 di NXP
Scheda AI-ML basata su SoC i.MX 8X di NXP e scheda Thor96 basata su SoC i.MX 8M di NXP.
Contatta Arrow per prenotare le tue schede.
