Google, con il proprio Red Team vale a dire il team di hacker dedicato a verificare la sicurezza di tutte le applicazioni di casa Google, ha rilasciato il Secure AI Framework(SAIF) al fine di affrontare in maniera strutturata i rischi abbinati all’utilizzo dell’Intelligenza Artificiale.
Si, perchè anche l’Intelligenza Artificiale può subire attacchi da parte di hacker e permettere a quest’ultimi di esfiltrare informazioni e dati sensibili se non anche di manomettere i sistemi ed i risultati forniti. Tutto questo perchè, per poter fornire informazioni corrette e affidabili, qualsiasi piattaforma di AI accede a Database enormi, sorgenti di terze parti, fonti pubbliche e molto altro.
Al fine di garantire la sicurezza dei nostri dati, scopriamo, di seguito, quali sono gli attacchi comunemente usati dagli hacker per minare l’affidabilità dell’AI.
I 6 attacchi all’Artificial Intelligence(AI)
Il Red Tead di Google considera come più rilevanti questi 6 tipi di attacchi:
- Prompt attacks: la creazione di apposite istruzioni studiate per colpire i Large Language Model(LLM) utilizzati dall’AI al fine di realizzare task malevoli. Tali istruzioni possono essere inserite nell’AI attraverso i classici input dell’utente o attraverso risorse untrusted.
- Training Data Extraction: utilizzato soprattutto per estrarre informazioni personali, questo attacco opera sui dati utilizzati per realizzare il training dell’AI ed attraverso un approccio chiamato “membership inference” cerca di recuperare tali dati che normalmente dovrebbero essere nascosti.
- Backdooring the model: l’attacco mira a modificare il comportamento del modello di AI inserendo all’interno codice malevole magari abbinando un attacco alla supply chain.
- Adversial Examples: l’immissione di input che forniscono risultati deterministici ma inaspettati, tali input vengono inseriti per modificare il comportamento dell’AI.
- Data poisoning: la manipolazione dei training data del modello al fine di influenzarne l’output. In considerazione che molti dati utilizzati dall’AI per addestrarsi provengono da internet, l’attaccante può modificare i dati di una di queste sorgenti pubbliche per modificare il comportamento di tutto il modello.
- Exfiltration: esfiltrare dati ed informazioni protette per esempio da copyright.
Per un approfondimento sulle Tattiche, Tecniche e Procedure(TTP) ti consigliamo di leggere il report completo al link https://services.google.com/fh/files/blogs/google_ai_red_team_digital_final.pdf.
Glue Labs e l’Artificial Intelligence(AI)
Siamo Google Cloud Partner e ti supportiamo nella progettazione e nello sviluppo di applicazioni che sfruttano l’intelligenza artificiale pienamente integrate nei tuoi sistemi e processi. Grazie all’esperienza maturata in tantissimi settori, con numerosi Clienti e con un solido gruppo aziendale ti forniamo assistenza e supporto per qualsiasi progetto di AI con garanzia 12 mesi da qualsiasi bug. Contattaci subito e senza impegno per maggiori informazioni.