I profili fake sono un fenomeno dilagante che sta creando problemi sia ai gestori delle piattaforme che a istituzioni e governi.
Negli ultimi anni i social media sono diventati un terreno fertile per la proliferazione di account falsi, spesso generati da bot con l’obiettivo di diffondere disinformazione, influenzare l’opinione pubblica o commettere frodi online. La lotta contro i profili falsi non è solo una questione di mantenere l’integrità delle piattaforme di social media, ma è anche cruciale per proteggere gli utenti e l’intera società da potenziali danni.
La tecnologia di rilevamento dei bot, nota come “bot detection“, gioca un ruolo chiave in questa battaglia. Questi strumenti sono progettati per analizzare e identificare i comportamenti tipici dei bot, differenziandoli dagli utenti umani reali. Tuttavia, recenti studi dimostrano che la situazione è molto più complicata di quanto sembri.
Gli strumenti di rilevamento dei bot di terze parti utilizzano modelli di apprendimento automatico sofisticati addestrati su set di dati per rilevare i segnali che identificano un bot, per trovare schemi ritenuti unicamente umani o unicamente non umani. Questi modelli vengono poi distribuiti sui social media per studiare i bot al lavoro. Sono stati pubblicati centinaia, se non migliaia, di articoli sull’identificazione dei bot su Twitter e sulla comprensione della loro influenza.
I set di addestramento per il rilevamento dei bot sono generalmente raccolti da un particolare campione di tweet, come quelli che includono hashtag come #COVID19. Ogni tweet viene poi etichettato manualmente da persone come un bot o un umano. I ricercatori poi utilizzano questi set di dati etichettati a mano per addestrare modelli sofisticati su come riconoscere un bot o una persona in un particolare contesto, ad esempio bot utilizzati per fare spam ai consumatori o per influenzare i partiti politici. Da questo addestramento, i modelli vengono distribuiti su Twitter per rilevare la presenza e le attività dei bot “in natura”.
“Volevamo studiare la diffusione di informazioni dannose e avevamo bisogno di separare le persone reali dai bot“, ha dichiarato Schutzman, un ricercatore post-dottorato presso l’Istituto MIT per i Dati, i Sistemi e la Società. Purtroppo, i risultati delle ricerche del team in questione non hanno dato i risultati sperati.
Al contrario, sembra che anche i modelli complessi, che sono addestrati con questi dati e poi utilizzati su Twitter, non identificano necessariamente in modo accurato i bot di Twitter. “È un problema sistemico“, ha proseguito Schutzman. “Probabilmente deriva dal fatto che i dati vengono raccolti in modi semplificati, spesso per ricerche più specificamente mirate, e poi vengono riutilizzati acriticamente per compiti più generali come il rilevamento dei bot“.
Alcuni titoli soffrono di problemi tecnici del tutto assenti nella precedente versione della console. Sony…
Il Wi-Fi 8 si preannuncia come il prossimo grande passo, con un orizzonte temporale che…
La minacci, creata da dei cybercriminali cinesi, può aggirare i sistemi di sicurezza e sottrarre…
Inoltre, due premi secondari da diecimila dollari ciascuno saranno assegnati rispettivamente al secondo e terzo…
Questo risultato è stato annunciato nell'ultima edizione della Hurun China Rich List e rappresenta un…
Questo approccio tecnico mira a ottimizzare l'uso dello storage e della CPU ma pone interrogativi…