I ricercatori di informatica guidano la difesa contro il lato oscuro della tecnologia (2023)

Come studente di dottorato che ha completato la sua laurea nel 2016, Bimal Viswanath si è preoccupato di mitigare le minacce online, gli abusi dei servizi e i comportamenti dannosi nelle grandi piattaforme di social media.

All'epoca, i malintenzionati che perpetravano questi reati pagavano lavoratori umani per scrivere e distribuire articoli online fraudolenti, recensioni e campagne salaci utilizzando un linguaggio e script standard. Sebbene dirompenti, ha affermato Viswanath, questi sforzi umani sono stati facilmente affrontati da algoritmi progettati per rilevare e difendersi dalle frodi di massa.

"Gli aggressori non erano algoritmicamente intelligenti in quel momento", ha detto. I falsi materiali generati dagli esseri umani erano relativamente facili da rilevare. Erano sintatticamente simili, di solito venivano erogati nello stesso momento e dalle stesse località, e condividevano altri metadati caratteristici che permettevano a un algoritmo difensivo di identificarne l'illegittimità e bloccarne l'avanzamento.

(Video) (In)Sicurezza Digitale | Nicola Bressan | TEDxMontebelluna

La prevedibilità e la coerenza dei materiali prodotti in serie da gruppi di umani hanno rafforzato l'efficacia degli algoritmi progettati per difendersi da essi. Questo non è rimasto così a lungo.

Dal falso al deepfake

Quando Viswanath è entrato a far parte della facoltà del Dipartimento di Informatica della Virginia Tech nel 2018 e il termine "notizie false" si era sistemato nel volgare, gli sviluppi nel campo dell'intelligenza artificiale (AI) hanno reso possibile discernere ciò che era reale da ciò che era stato generato sinteticamente sempre più difficile.

I continui progressi nell'apprendimento automatico (ML) e nell'elaborazione del linguaggio naturale (NLP) attraverso la modellazione generativa profonda hanno reso gli algoritmi precedenti insufficienti per identificare e difendersi da questi modelli algoritmici in evoluzione e adattabili. A differenza dei presupposti su cui Viswanath ha lavorato durante i suoi studi universitari, il suo gruppo di ricerca non si limita a progettare difese contro gli aggressori umani con algoritmi deboli.

“Le innovazioni ML e NLP sono state portate avanti da grandi aziende tecnologiche come OpenAI, Google, Microsoft e Facebook. Hanno l'infrastruttura, le risorse e la potenza di calcolo per creare e addestrare enormi modelli linguistici", ha affermato Viswanath. "Questi modelli sono utilizzati come elementi costitutivi di base per molte attività di PNL a valle".

Dopo che le grandi aziende tecnologiche hanno creato i modelli, li rendono apertamente disponibili e gratuiti per chiunque. L'accesso aperto a questi modelli di linguaggio di grandi dimensioni ha rivoluzionato la ricerca sull'elaborazione del linguaggio naturale e ci consente anche di studiare le implicazioni sulla sicurezza.

(Video) Fabio Martinelli. Viaggio nella cyber security - ConverseRai - Stagione 1 Ep.18

Tuttavia, c'è un lato oscuro in questi progressi: non è più necessario che i malintenzionati assumano lavoratori umani per riprodurre e inviare informazioni fuorvianti o dannose e, secondo Viswanath, i malintenzionati possono ora utilizzare questi modelli per le loro campagne dannose. .

"Chiunque può accedere a piattaforme come Hugging Face [un popolare hub per l'apprendimento automatico e i modelli di elaborazione del linguaggio naturale] e scaricare gratuitamente un modello pre-addestrato e utilizzarlo immediatamente per generare testo, qualsiasi testo, fattuale o falso", ha affermato. "Il presupposto è che le persone faranno le cose giuste".

La tecnologia in sé non è né buona né cattiva, ma diventa carica di valore solo per mano e attraverso le motivazioni dei suoi utenti.

"Se qualcuno volesse creare un chatbot dannoso", ha detto Viswanath, "tutto ciò che deve fare è scaricare il modello, inserire determinati prompt che gli faranno generare un testo specifico o perfezionare il modello utilizzando un corpus esistente di incitamento all'odio ( che è anche pubblicamente disponibile) e quindi adattare il modello di chatbot esistente per diventare tossico.

Spammer, inserzionisti, aggressori e attori malintenzionati sono ora in grado di controllare il modo in cui i modelli linguistici producono testo con una variabilità molto maggiore senza la necessità di sviluppare algoritmi complessi. I bot sono adattati per usare un linguaggio formale. Possono essere insegnati a parlare come un poeta o parlare come persone di diversa estrazione demografica: parlano "umano". Questa tecnologia rende il testo molto facile da armare e molto difficile da discernere come sintetico.

(Video) Le Origini dell'Informatica

In un breve periodo di tempo, ciò che era iniziato come "falso" e rilevabile è diventato "deepfake" - indistinguibile da ciò che è reale - e illusorio. Un pubblico altamente suscettibile che consuma grandi quantità di informazioni su Internet - foto, video, audio, testo - è vulnerabile alla manipolazione. Anche i consumatori più criticamente istruiti probabilmente non saranno in grado di distinguere tra la realtà e ciò che è stato falsamente costruito.

Costruire difese

Viswanath e il suo gruppo di ricerca si sono impegnati in metodi di rilevamento dei deepfake nel tentativo di disarmare i media armati e le campagne di disinformazione tossica, di cui discutono in un recente articolo nella pubblicazione onlineTechXplore. Lavorando su schemi proattivi di rilevamento e protezione, il gruppo affronta continue sfide di efficacia. Con il ritmo con cui la tecnologia deepfake sta avanzando, il panorama è quello in cui potenti algoritmi si scontrano l'uno contro l'altro in un continuo gioco di gatto e topo. Non appena viene generata una difesa affidabile, l'algoritmo di attacco si adatta per superare in astuzia la difesa.

Co-contributore capo dell'attuale ricerca sull'identificazione e la difesa dei deepfake, Jiameng Pu Ph.D. '22 ha iniziato a lavorare con Viswanath come studente laureato nel 2018. Interessato all'intersezione tra sicurezza basata sui dati e apprendimento automatico, Pu era curioso del rilevamento dei media deepfake. Nel 2019, lo stesso anno ilLegge sulla responsabilità di DeepFakesè stata presentata al 116° Congresso degli Stati Uniti, ha iniziato a lavorare a fianco di Viswanath e del suo team per sviluppare algoritmi e processi per identificare immagini e video deepfake.

"Una volta che siamo stati in grado di creare uno schema di rilevamento utilizzando un set di dati deepfake autogenerato in laboratorio, è stato naturale vedere se la nostra soluzione avrebbe funzionato sui deepfake in natura", ha affermato Pu, riferendosi a "the wild" come Internet dal vivo e in espansione. "Tutti gli schemi di ricerca e rilevamento esistenti all'epoca sono stati sviluppati senza una comprensione di come si sarebbero comportati in natura, quindi abbiamo fatto un tuffo più profondo".

Il loro giornale “Video deepfake in natura: analisi e rilevamento”, presentato alla Web Conference nel 2021, ha documentato questa profonda immersione.

(Video) The New Era in UFO Research with Jacques Vallée

Come risultato di questa esplorazione, il team di ricerca di Viswanath ha accumulato uno dei più grandi set di dati esistenti di media manipolati dall'intelligenza artificiale. Ora utilizzato da più di 60 gruppi di ricerca in tutto il mondo, questo set di dati consente ai ricercatori di osservare in prima persona come funzionano i loro schemi di rilevamento al di fuori del laboratorio contro gli algoritmi di attacco con adattabilità reattiva.

Questo contributo duraturo e significativo al campo e ai futuri sforzi di rilevamento e sicurezza colma il divario tra il laboratorio e la pratica della vita reale.

Come discutono nel loro recente articolo “Rilevamento di testo deepfake: limiti e opportunità” che sarà presentato all'IEEE Symposium on Security and Privacy Conference a maggio, Pu, il suo co-autore principale Zain Sarwar e il resto del team di Viswanath hanno fatto scoperte critiche utilizzando set di dati in natura. La capacità di osservare i "comportamenti naturali" dei deepfake in natura fornisce ai ricercatori dati critici per identificare gli attuali limiti degli schemi di difesa esistenti e li guida in direzioni future.

Mentre uscire di fronte alla potente tecnologia che consente la creazione e la rigenerazione di algoritmi deepfake emergenti continua a essere una sfida complessa, questo recente lavoro ha dato a Viswanath e al suo team di ricerca un percorso promettente.

"Anche se il testo tossico è in grado di replicarsi e auto-correggersi per eludere il rilevamento, ora possiamo cercare il significato e le emozioni rappresentate nel messaggio stesso", ha affermato Viswanath. "Quando si tenta di eludere il rilevamento, sarebbe difficile per l'attaccante modificare il contenuto semantico, poiché mirano a trasmettere determinate idee (disinformazione) attraverso l'articolo. Il nostro lavoro preliminare suggerisce che le caratteristiche semantiche possono portare a schemi di rilevamento del testo deepfake più robusti ."

(Video) Dalla cybersecurity alla cyberguerra

Nonostante le moderne dipendenze da Internet per quasi tutti gli aspetti della vita, i consumatori dovrebbero ricordare l'adagio "la migliore difesa è una buona offesa" ed essere consapevoli della propria sicurezza e protezione. Tutte le informazioni messe online sono vulnerabili per uso improprio, manipolazione e distorsione. Pubblica e clicca con cautela.

Videos

1. LUX, L'UNIVERSITA' DELLA CONOSCENZA EDUCAZIONE ALLA PERCEZIONE DEL MONDO INVISIBILE
(Focus 3.0 il Mistero della Vita)
2. Conferenza GARR 2021 - “Sostenibile/Digitale. AI E PIATTAFORME PER LO SVILUPPO SOSTENIBILE
(ReteGARR)
3. Ep. 27 | Stefano Zanero | Cybersecurity ed IA
(Smarter Podcast)
4. Welcome to #LetsTalkSecurity s2e3 |The New Digital Normal with Tyler Cohen Wood
(Trend Micro)
5. Top 7 Cybersecurity / YouTube Channels, Blogs, and Podcasts Page
(Yaniv Hoffman)
6. Algoritmi e sfide al diritto. Tavola rotonda organizzata dal CRID (UniMORE) - 20/01/2021
(CRID)

References

Top Articles
Latest Posts
Article information

Author: Maia Crooks Jr

Last Updated: 08/02/2023

Views: 5391

Rating: 4.2 / 5 (43 voted)

Reviews: 82% of readers found this page helpful

Author information

Name: Maia Crooks Jr

Birthday: 1997-09-21

Address: 93119 Joseph Street, Peggyfurt, NC 11582

Phone: +2983088926881

Job: Principal Design Liaison

Hobby: Web surfing, Skiing, role-playing games, Sketching, Polo, Sewing, Genealogy

Introduction: My name is Maia Crooks Jr, I am a homely, joyous, shiny, successful, hilarious, thoughtful, joyous person who loves writing and wants to share my knowledge and understanding with you.