Il National Institute of Standards and Technology (NIST) ha recentemente pubblicato un report denominato “Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations”, concentrato sull’analisi di attacchi informatici mirati a manipolare i sistemi di intelligenza artificiale (IA). Questo documento, parte degli sforzi più ampi del NIST per garantire l’affidabilità delle IA, identifica quattro categorie principali di attacchi: evasione, avvelenamento/inquinamento, attacchi alla privacy e abusi. Gli attacchi sfruttano la vulnerabilità dei dati, spesso provenienti da interazioni online, rischiando di causare comportamenti indesiderati nelle IA, come risposte abusive o razziste da parte dei chatbot. Il rapporto non solo propone strategie di mitigazione per affrontare queste minacce, ma mette anche in luce l’assenza di difese complete contro gli attacchi alle IA. Tale consapevolezza è cruciale per gli sviluppatori e le organizzazioni che intendono adottare diffusamente le IA, sia per scopi interni che per supportare gli utenti, sottolineando l’importanza di affrontare attentamente le limitazioni esistenti in questo contesto.
Come si comportano i vari attacchi?
1. Attacchi di evasione:
- Modificano i dati di input post-implementazione per distorcere la risposta del sistema AI.
- Esempio: Alterazione di segnali stradali per ingannare auto autonome sulla velocità limite.
2. Attacchi di avvelenamento:
- Introducono dati distorti durante l’addestramento per influenzare il comportamento futuro dell’IA.
- Esempio: Inclusione di linguaggio osceno nei dati di addestramento per indurre risposte inappropriare da parte del chatbot.
3. Attacchi alla privacy
- Estraggono informazioni sensibili durante l’uso del sistema AI o dai dati di addestramento.
- Esempio: Raccolta di dati legittimi per rivelare debolezze o fonti del modello.
4. Attacchi di abuso
- Inseriscono informazioni errate in tempo reale per alterare l’uso previsto dell’IA.
- Esempio: Fornitura di informazioni fuorvianti da fonti compromesse per influenzare il comportamento dell’IA.
Come si possono evitare?
Gli esperti del NIST consigliano un approccio globale per mitigare le minacce legate alla manipolazione dei sistemi di intelligenza artificiale (IA). Questo approccio include test approfonditi, aggiornamenti continui, monitoraggio costante dei dati e delle reazioni del sistema, sviluppo di algoritmi specializzati per il rilevamento di attacchi, creazione di sistemi di protezione multilivello, collaborazione con la comunità di esperti per la condivisione di conoscenze sulle minacce, e sensibilizzazione e formazione del personale. Tali misure mirano a ridurre i rischi e a potenziare la resistenza delle IA contro manipolazioni. Il rapporto del NIST non solo evidenzia i potenziali rischi, ma incoraggia anche sviluppatori e ricercatori a trovare soluzioni più efficaci per proteggersi, contribuendo così a creare uno spazio digitale più sicuro per l’utilizzo dell’intelligenza artificiale a servizio della società, preservando l’integrità e la riservatezza dei dati trattati.
Fonti:
Tom’s Hardware – Red Hot Cyber