L'apprendimento automatico espone il vostro sistema industriale agli attacchi degli hacker?
Contributo di Editori nordamericani di DigiKey
2019-12-02
Qualsiasi metodo di calcolo invita a sfidarne la sicurezza e l'apprendimento automatico (ML) non fa eccezione. Per fortuna, le vulnerabilità in questo segmento dell'intelligenza artificiale (IA) sono abbastanza prevedibili. Ma, e questo è il tasto dolente, non sono molto facili da individuare.
Se consideriamo l'enorme quantità di dati in gioco, le sfide risiedono nella granularità fine di tali dati e nel fatto che l'apprendimento automatico impara e migliora progressivamente. L'apprendimento automatico elabora i dati da modelli impercettibili per l'uomo, il che è sia una risorsa che una vulnerabilità.
Ogni settore dell'intelligenza artificiale produce efficienza elevata, alta qualità e spesso un'innovazione senza precedenti. Nel processo di produzione, ad esempio, l'IA consente di individuare e correggere facilmente i problemi e i metodi di sicurezza basati sull'IA proteggono i processi interessati.
L'apprendimento automatico "impara" grazie ad algoritmi di formazione e determina l'esito probabile di una situazione, mentre con l'apprendimento profondo (DL), un altro dei settori dell'IA, gli algoritmi permettono al software di addestrarsi per svolgere le attività. In questo caso, le reti neurali multistrato sono esposte a milioni di punti di dati, rispecchiando la capacità del cervello umano di riconoscere i modelli e di classificare e chiarire le informazioni.
Vulnerabilità nell'apprendimento automatico
Quindi, torniamo alla domanda da cui siamo partiti. L'apprendimento automatico espone il vostro sistema industriale agli attacchi degli hacker? La risposta è che nulla è a prova di errore, soprattutto la tecnologia in rapida evoluzione. Detto questo, esistono sistemi di apprendimento automatico/apprendimento profondo ben progettati e altri che sono mal progettati che di conseguenza sono più suscettibili agli attacchi degli hacker.
Gartner prevede che entro il 2025 l'apprendimento automatico farà parte di qualsiasi soluzione di sicurezza. Nel frattempo, le violazioni della sicurezza da gestire stanno raddoppiando. Esempi di sforzi efficaci includono il blocco da parte di Google di circa il 99% delle e-mail di spam tramite l'apprendimento automatico. Si dice che Watson di IBM abbia prevenuto 200 milioni di attacchi informatici che nel 2017 hanno preso di mira Wimbledon. Gli algoritmi di apprendimento automatico svolgono un ruolo fondamentale nella sicurezza delle piattaforme basate su cloud e nell'analisi di attività sospette, compresi gli accessi e altre anomalie.
La modalità di attacco più comune è una tecnica antagonista che cerca di infiltrare modelli attraverso input dannosi affinché il modello commetta un errore. Quando arriva un nuovo input che include dati "astuti" ma malevoli, il modello si comporterà in modo insoddisfacente, anche se le sue prestazioni statistiche potrebbero non venire compromesse. I modelli di apprendimento automatico possono essere attaccati anche nei seguenti modi:
- Uno di questi è la compromissione dell'integrità. Se il modello ML non filtra uno o più casi negativi e questi si insinuano di nascosto nel sistema, quest'ultimo può essere violato.
- Per prevedere le reazioni del modello vengono condotti degli attacchi esplorativi attraverso valori dei record di input.
- Gli attacchi causativi alterano i dati di addestramento e il modello. I record di input che passano attraverso il sistema possono avere un record "cattivo" che riesce a entrare o un record "buono" a cui viene bloccato l'ingresso.
- Attacchi all'integrità se gli input cattivi riescono a passare: l'aggressore potrebbe entrare regolarmente e il sistema potrebbe etichettare gli input cattivi come buoni.
- Gli attacchi di disponibilità si verificano quando il modello viene addestrato con i dati di un aggressore e gli input buoni vengono filtrati ed esclusi dal sistema. In questo scenario, possono essere rimossi i record legittimi.
Pur essendo vero che l'attività criminale sta intensificando gli attacchi contro l'apprendimento automatico, non è così facile come potrebbe sembrare. Fortunatamente, esistono dei luoghi molto semplici per iniziare a proteggere il sistema prima di aggiungere tecnologie avanzate per rafforzare la sicurezza. Ad esempio, se il software del sistema è obsoleto e non vengono scaricate le patch quando diventano disponibili, lanciare un attacco è più facile. Sono importanti sia credenziali forti che l'autenticazione a più fattori. Inoltre, le reti dovrebbero implementare una sicurezza che vada al di là del semplice binomio nome utente/password.
Da dove iniziare?
Per agevolare lo sviluppo di applicazioni di IA, sono disponibili i seguenti kit:
Il kit di sviluppo NVIDIA Jetson Nano di Seeed Technology offre le prestazioni richieste per carichi di lavoro di IA quali l'apprendimento profondo, la visione artificiale, il calcolo tramite GPU e l'elaborazione multimediale (Figura 1). Consente agli utenti di eseguire strutture e modelli di IA per applicazioni quali la classificazione delle immagini, il rilevamento di oggetti, la segmentazione e l'elaborazione vocale. In definitiva, è un modo semplice per collegare una serie diversificata di sensori e consentire così una molteplicità di applicazioni di IA.
Figura 1: Jetson Nano è supportato da JetPack di Seeed Technology, che include un BSP (Board Support Package), sistema operativo Linux, NVIDIA CUDA, cuDNN e librerie software TensorRT per app di IA. (Immagine per gentile concessione di Seeed)
Adafruit e DigiKey di recente hanno presentato la scheda di valutazione embedded BrainCraft EDGE BADGE (Figura 2), grazie a cui l'apprendimento automatico compie un deciso passo in avanti con piccoli microcontroller che eseguono una versione miniaturizzata di TensorFlow Lite. La scheda, delle dimensioni di una carta di credito, mostrata nella Figura 2, è basata su ATSAMD51J19 di Microchip e ha 512 kB di memoria flash e 192 kB di RAM. Il kit include un ingresso per microfono incorporato per il riconoscimento vocale e una libreria Arduino con demo per riconoscere varie coppie di parole e gesti.
Figura 2: Questo badge Supercon può essere anche nominativo, programmato con CircuitPython. Si presenta come un'unità USB e non è richiesta nessuna IDE per visualizzare nome, codici QR o altre informazioni. (Immagine per gentile concessione di Adafruit)
Infine, sensori avanzati come LSM6DOX di STMicroelectronics combinano un core di apprendimento automatico, una macchina a stati finiti e funzioni digitali avanzate, fornendo un impulso alla famiglia di microprocessori STM32 dell'azienda, così che possa avere le prestazioni e la precisione necessarie per le funzioni di IA.
Tendenze future
Oggi, esistono modelli di computing basati su cloud che includono piattaforme di apprendimento automatico disponibili tramite il computing cognitivo, l'apprendimento automatico automatizzato, la gestione dei modelli di ML, il model serving di ML e il calcolo basato su GPU. Tuttavia, considerata l'abbondanza di dati richiesti per ML e le applicazioni di apprendimento profondo, non c'è da stupirsi se nelle prime pagine dei giornali campeggiano notizie di incidenti sempre più grandi di cloud hacking.
Le aziende sono attente quando i dati sensibili che devono spostare sul cloud riguardano l'IA/ML. Le politiche di sicurezza necessarie per proteggere realmente i dati sensibili e i mezzi per controllare l'hacking, non sono necessariamente affidabili come dovrebbero essere.
La semplice quantità di dati prodotti da IoT è sconcertante. I dati necessari per lanciare l'IA, l'automazione, l'apprendimento automatico, ecc., specie se fra loro ci sono dati legacy, devono assolutamente essere quelli giusti per l'applicazione.
Ecco un breve elenco dei passi che uno sviluppatore dovrebbe intraprendere quando implementa l'IA/ML:
- Conoscere e capire dove si trovano le lacune nei dati esistenti
- Capire quali saranno i flussi di lavoro influenzati da un potenziale progetto di IA
- Assicurarsi il pieno appoggio aziendale a una partita finale decisa e comunicata e sapere come ognuno partecipa a quel processo
- Sfruttare la tecnologia e le opportunità piuttosto che puntare a tagliare i costi
- Iniziare con la pulizia dei dati per rilevare, correggere e rimuovere record danneggiati o imprecisi
Riepilogo
L'intelligenza artificiale e l'apprendimento automatico richiedono che gli algoritmi da cui dipendono i dati e le decisioni siano di alta qualità. È probabile che prima o poi l'intelligenza artificiale, l'apprendimento automatico e l'apprendimento profondo avranno un impatto importante sul futuro della maggior parte delle aziende. Gli algoritmi di apprendimento automatico sono già il metodo principale per rilevare malware basato su file e per bloccarlo. Stanno inoltre stabilendo quali sono le applicazioni non sicure da utilizzare e le stanno isolando dai sistemi di produzione. L'intelligenza artificiale viene utilizzata anche nei servizi finanziari, nell'assistenza sanitaria e nelle assicurazioni per proteggere i dati estremamente sensibili.
Il concetto di IA e l'apprendimento automatico sono sicuramente affascinanti, ma potranno essere strumenti straordinari solo se usati compiutamente. Assicurarsi che all'interno dell'azienda vi siano persone competenti in materia oppure rivolgersi a un partner di cloud o di implementazione per superare illesi i campi minati dell'hacking.
Esonero della responsabilità: le opinioni, le convinzioni e i punti di vista espressi dai vari autori e/o dai partecipanti al forum su questo sito Web non riflettono necessariamente le opinioni, le convinzioni e i punti di vista di DigiKey o le sue politiche.




