Lo strumento di avvelenamento dell'intelligenza artificiale mira a scoraggiare i ladri di immagini

KI-Vergiftungstool soll Bilderdiebe abschrecken

I ricercatori hanno sviluppato uno strumento gratuito che consente agli artisti di aggiungere disinformazione alle loro immagini. Ciò ha lo scopo di sabotare la formazione dei sistemi di intelligenza artificiale .

Il software Nightshade altera le immagini in modi sottili che sono appena percettibili per gli esseri umani ma possono disturbare in modo significativo i modelli di intelligenza artificiale addestrati a farlo. In questo modo gli artisti dovrebbero poter proteggere le loro opere dall’utilizzo a scopo formativo senza il loro consenso.

Lo strumento ha lo scopo di scoraggiare le aziende e gli individui che utilizzano immagini artistiche per addestrare modelli di intelligenza artificiale senza prima ottenere il permesso del creatore. Questa pratica sta diventando sempre più comune poiché l’intelligenza artificiale fa molto affidamento su grandi database di immagini.

Un attacco mirato a Scraper

Nightshade altera le immagini in un modo che confonde i sistemi di intelligenza artificiale che cercano di addestrarsi con esse, rendendo le immagini quasi identiche agli spettatori umani, hanno detto i ricercatori.

Ad esempio, la foto avvelenata di una mucca può sembrare invariata ma ingannare un'intelligenza artificiale facendola vedere invece come una borsa di pelle. Le distorsioni sono calcolate con precisione per massimizzare i problemi dell'IA senza alterare apertamente l'immagine. Ciò significa che anche un controllore umano non dovrebbe accorgersi che i dati di addestramento sono stati falsificati. Naturalmente le foto devono essere pubblicate online. È anche utile ripetere i tag sottostanti nei metadati o nelle didascalie delle immagini. D'altro canto i ricercatori sconsigliano di etichettare e pubblicare le immagini avvelenate come tali perché tale materiale può essere rapidamente filtrato.

Questo avvelenamento mirato rende i modelli inaffidabili e fornisce un forte disincentivo agli sviluppatori di scraper dall'utilizzare le immagini degli artisti senza chiedere il loro permesso. Ulteriori dettagli sulla tecnologia sono stati pubblicati in un documento di ricerca.

Lo strumento è personalizzabile e consente agli artisti di scegliere tag che offuscano i confini dei concetti rappresentati per i sistemi di intelligenza artificiale che ingeriscono le loro opere. I ricercatori affermano che Nightshade può essere adattato nel tempo man mano che emergono nuove tecniche che potrebbero sfatare la tecnica Nightshade.

Artisti e accademici sviluppano misure di difesa

Nightshade proviene dallo stesso gruppo dell'Università di Chicago che ha sviluppato un altro strumento di difesa chiamato Glaze , che si concentra sull'interruzione della capacità dell'intelligenza artificiale di imitare gli stili artistici. Secondo i ricercatori, con Nightshade gli artisti possono intraprendere azioni offensive contro l'uso non autorizzato dei loro contenuti da parte dell'IA.

(Fonte: Golem.de)