GhostStripe è un attacco informatico che manipola i segnali stradali, rendendoli invisibili alle auto a guida autonoma. Come funziona e le implicazioni per la sicurezza.
Negli scorsi anni la tecnologia nel mondo automotive ha fatto passi da gigante, soprattutto nel campo dell’elettronica e dell’informatica. anche le minacce alla sicurezza diventano sempre più sofisticate. Già in tempi non sospetti avevamo parlato di possibili attacchi informatici, così come del Manuale dell’Hacker di Automobili, ma ora l’attenzione è puntata sulle auto a guida autonoma.
Un gruppo di scienziati ha ideato un metodo di attacco, ovviamente a scopo di studio, denominato GhostStripe, che può alterare il funzionamento dei sistemi di visione artificiale delle auto autonome, rendendo i segnali stradali invisibili o irriconoscibili.
Il funzionamento di GhostStripe, la cui documentazione in PDF è su GitHub si basa sull’uso di LED che illuminano i segnali stradali con schemi di luce che volutamente creano “confusione” nei sensori delle fotocamere CMOS. Questa manipolazione induce un errore nel riconoscimento dei segnali da parte del software basato su reti neurali delle auto, con conseguenti rischi significativi per la sicurezza stradale.
I ricercatori, che presenteranno i dettagli dello studio alla prossima Conferenza internazionale sui sistemi mobili dell’ACM, hanno evidenziato come la manipolazione possa essere efficace contro marchi noti come Tesla e Baidu Apollo. GhostStripe opera tramite lo sfarfallio controllato dei LED, sincronizzando la frequenza della luce emessa con quella di scansione della fotocamera della vettura bersaglio.
Il team di ricerca ha sviluppato due varianti di questo attacco: GhostStripe1 e GhostStripe2. La prima variante può essere implementata senza necessità di accesso fisico al veicolo vittima, mentre la seconda richiede un accesso diretto al veicolo, per esempio durante una manutenzione, permettendo un controllo più accurato e mirato.
Nonostante l’efficacia dimostrata, il successo di GhostStripe diminuisce in condizioni di intensa luce ambientale. Questo rappresenta una limitazione significativa, poiché la luce naturale o artificiale intensa può attenuare l’effetto dei LED utilizzati nell’attacco.
In ogni caso di uno studio che mette alla luce falle piuttosto importanti nella sicurezza delle tecnologie di guida autonoma e sulla necessità di sviluppare sistemi di difesa più robusti contro tali tipologie di attacchi sofisticati. Un argomento che non piace assolutamente alle case automobilistiche, che glissano spesso e volentieri su domande specifiche relative alla sicurezza informatica dei propri veicoli.
Fonte: RedHotCyber
Non perderti le ultime notizie e condividi opinioni ed esperienze commentando i nostri articoli:
• Iscriviti ai nostri canali Telegram e Whatsapp per gli aggiornamenti gratuiti.
• Siamo su Mastodon, il social network libero da pubblicità e attento alla privacy.
• Se preferisci, ci trovi su Flipboard e su Google News: attiva la stella per inserirci tra le fonti preferite!