Il mondo nuovo dell’intelligenza artificiale: che fine ha fatto la sicurezza? E la Privacy?

Questa nuova tecnologia pone sfide mai viste prima per proteggere la sicurezza e la privacy delle persone.

L’intelligenza artificiale generativa oggi ricorda Internet alla fine degli anni ’80: ricerca fondamentale, potenziale latente e utilizzo accademico, ma non è ancora pronta per il pubblico. Questa volta, l’ambizione sfrenata dei venditori, alimentata da capitali di rischio e galvanizzata dalle camere di risonanza di Twitter, sta accelerando l’adozione su larga scala dell’IA.

I cosiddetti modelli di fondazioni “pubbliche” sono contaminati e inappropriati per l’uso commerciale e di consumo; le astrazioni sulla privacy, laddove esistono, vanno a farsi benedire; la sicurezza è ancora in fase di elaborazione.

A che punto è, dunque, la sicurezza? E la privacy?

Modelli di fondazioni “compromessi”

I cosiddetti modelli “aperti” sono tutt’altro che aperti. Diversi fornitori pubblicizzano il loro grado di apertura aprendo l’accesso alla documentazione o ai test. Tuttavia, nessuno fornisce nulla che si avvicini all’insieme di dati di addestramento o alla loro derivazione per poter replicare e riprodurre quei modelli.

Questa opacità rispetto ai set di dati di addestramento significa che chi vuole utilizzare uno o più di questi modelli come consumatore o come organizzazione, non ha alcuna capacità di verificare o convalidare l’entità dell’inquinamento dei dati rispetto alla proprietà intellettuale, ai diritti d’autore, ecc. nonché ai contenuti potenzialmente illegali.

Fondamentalmente, senza la possibilità di accedere a questi dati, non c’è modo di verificare o convalidare un eventuale contenuto pericoloso. Utenti pericolosi inseriscono sul web cavalli di Troia che i modelli ingeriscono durante la loro formazione, portando a effetti collaterali imprevedibili e potenzialmente dannosi al momento dell’inferenza.

Una volta che un modello è compromesso, non ha modo di disimparare, l’unica opzione è distruggerlo.

Sicurezza porosa

I modelli di intelligenza artificiale generativa sono gli honeypot di sicurezza definitivi poiché “tutti” i dati sono stati inseriti in un unico contenitore. Nell’era dell’intelligenza artificiale nascono nuove classi e categorie di vettori di attacco; il settore deve ancora fare i conti con le implicazioni sia rispetto alla protezione di questi modelli dalle minacce informatiche, sia rispetto al modo in cui questi modelli vengono utilizzati come strumenti dagli attori delle minacce informatiche.

Possono essere utilizzate diverse tecniche dannose per avvelenare i dati. Gli autori delle minacce possono accedere a dati riservati tramite l’inversione del modello e la query programmatica; possono corrompere o influenzare in altro modo il comportamento latente del modello; l’acquisizione incontrollata di dati in generale porta alla minaccia di attività informatiche sponsorizzate dallo stato tramite cavalli di Troia e altro ancora.

Privacy a rischio

I modelli di intelligenza artificiale sono utili in virtù dei database su cui vengono addestrati. L’acquisizione indiscriminata di dati su larga scala crea rischi per la privacy dell’individuo e del pubblico in generale. Nell’era dell’intelligenza artificiale, la privacy è diventata una preoccupazione sociale; le normative che riguardano principalmente i diritti dei dati individuali sono inadeguate.

Al di là dei dati statici, è fondamentale che le richieste di conversazione dinamica siano trattate come proprietà intellettuale da proteggere e salvaguardare. Un consumatore, impegnato nella co-creazione di un artefatto con un modello, desidera che i suoi suggerimenti che indirizzano questa attività creativa non vengano utilizzati per addestrare il modello o altrimenti condivisi con altri consumatori del modello.

Da un dipendente che lavora con un modello per ottenere risultati aziendali il datore di lavoro si aspetta che le sue richieste rimangano riservate; inoltre, le richieste e le risposte necessitano di un controllo sicuro in caso di problemi di responsabilità emersi da entrambe le parti. Ciò è dovuto principalmente alla natura stocastica di questi modelli e alla variabilità delle loro risposte nel tempo.

Cosa succede adesso?

Abbiamo a che fare con un diverso tipo di tecnologia, diversa da qualsiasi altra vista prima nella storia dell’informatica, una tecnologia che mostra comportamenti emergenti e latenti su larga scala; gli approcci di ieri alla sicurezza, alla privacy e alla riservatezza non funzionano più.

I leader del settore stanno mettendo in secondo piano la cautela, lasciando ai regolatori e ai politici nessuna alternativa se non quella di intervenire.

INFORMAZIONE PUBBLICITARIA A PAGAMENTO
Editoriale il Cittadino Srl e la testata Il Cittadino non si assumono alcuna responsabilità per il testo contenuto in questo publi-redazionale (che è realizzato dal cliente) e non intendono incentivare alcun tipo di investimento.