Attualmente esistono numerosi generatori di immagini, i più famosi sono DALL-E 2, Midjourney e Stable Diffusion. Oggi, grazie ad alcuni sistemi validi o accorgimenti è possibile identificare i contenuti digitali che alterano la realtà. Eccone alcuni
L’utilizzo dell’intelligenza artificiale in determinati contesti rende sempre più difficile riconoscere l’autenticità di un contenuto e la sua origine. Per questo motivo si sta tentando di sviluppare strumenti adeguati che possano essere da tutti utilizzati per riconoscere gli elementi creati grazie all’IA. Se parliamo di immagini la cui origine è incerta, la prima cosa che ognuno di noi può fare è prestare molta attenzione ai dettagli (soprattutto occhi e mani), che potrebbero suggerire di non essere reali, anche se gli ultimi aggiornamenti stanno rendendo sempre più difficile distinguere il falso dal reale. Esistono anche altri modi per riconoscere i contenuti generati da un algoritmo. Uno tra tutti è Instagram, che entro il prossimo anno potrebbe offrire un valido aiuto, applicando una serie di etichette alle immagini generate dall’IA pubblicati sulla piattaforma, su Facebook e Threads.
È possibile riuscire a distinguere un contenuto creato con l’utilizzo dell’intelligenza artificiale da uno autentico osservando alcuni particolari dell’immagine stessa. Esistono alcune caratteristiche chiave che possono aiutare a individuare le immagini generate dall’Ia, eccone alcune:
Meta ha annunciato che sta lavorando a un nuovo strumento in grado di individuare le immagini create grazie all’utilizzo dell’intelligenza artificiale e l’obiettivo è lanciare la novità entro il prossimo anno. L’Ia al servizio delle fake news diventerà sempre più pericolosa, man mano che le tecnologie evolveranno ed è quindi necessario che “gli utenti riescano a riconoscere i contenuti creati con l’intelligenza artificiale“, ha dichiarato Nick Clegg, presidente degli affari globali di Meta Nick Clegg che ha la piena responsabilità per le decisioni politiche che riguarderanno la società. Grazie al nuovo strumento, i contenuti generati dall’Ia e pubblicati nelle piattaforme di Instagram, Facebook e Threads, saranno sempre etichettati come tali. In questo modo sarà più facile definire l’origine del contenuto e denunciare “persone e organizzazioni che vogliono attivamente ingannare le persone“, ha spiegato Clegg. “Mentre la differenza tra contenuto umano e sintetico diventa sempre più sfumata, le persone vogliono sapere dove si trova il confine”, ha aggiunto.
A marzo erano state pubblicate le foto fake che mostravano Trump in manette e dentro una cella, mentre a fine gennaio è stata clonata la voce di Joe Biden. Nonostante questi contenuti fake (come quelli creati con Midjourney, Dall-E o Stable Diffusion) contengano a volte alcuni dettagli che ne fanno comprendere la non autenticità, rimane difficile per alcuni utenti captarli. “I nostri utenti ci hanno detto che apprezzano la trasparenza su questa nuova tecnologia. Quindi è importante aiutare le persone a sapere quando i contenuti fotorealistici che stanno vedendo sono stati creati utilizzando l’intelligenza artificiale”, “l‘obiettivo è renderle disponibili entro il prossimo anno, quando si svolgeranno elezioni importanti in tutto il mondo“, ha spiegato il presidente degli affari globali di Meta.
Il segretario di Stato David Scanlan ha affermato che gli ultimi sviluppi dell’intelligenza artificiale “rafforzano la preoccupazione nazionale sull’effetto dell’IA sulle campagne”. Clegg ha spiegato che le etichette saranno create e applicate soprattutto per evitare “un rischio particolarmente elevato di ingannare materialmente il pubblico su una questione importante”. “Questo lavoro è particolarmente importante, è probabile che diventi uno spazio sempre più conflittuale negli anni a venire”, ha aggiunto Clegg. “Le persone e le organizzazioni che vogliono attivamente ingannare le persone con contenuti generati dall’intelligenza artificiale cercheranno modi per aggirare le misure di sicurezza messe in atto per rilevarli. Nel nostro settore e nella società più in generale, dovremo continuare a cercare modi per rimanere un passo avanti”. L’intelligenza artificiale alimenta la disinformazione e per questo è utile frenare la diffusione di contenuti fake (immagini, video e audio), grazie a nuove tecnologie capaci di identificare quelli generati con l’utilizzo di algoritmi. Start-up, università e piattaforme stanno sviluppano nuovi sistemi di sicurezza.
Attualmente esistono numerosi generatori di immagini, i più famosi sono DALL-E 2, Midjourney e Stable Diffusion. Oggi, grazie ad alcuni sistemi validi o accorgimenti è possibile identificare i contenuti digitali che alterano la realtà. Eccone alcuni:
Alcuni titoli soffrono di problemi tecnici del tutto assenti nella precedente versione della console. Sony…
Il Wi-Fi 8 si preannuncia come il prossimo grande passo, con un orizzonte temporale che…
La minacci, creata da dei cybercriminali cinesi, può aggirare i sistemi di sicurezza e sottrarre…
Inoltre, due premi secondari da diecimila dollari ciascuno saranno assegnati rispettivamente al secondo e terzo…
Questo risultato è stato annunciato nell'ultima edizione della Hurun China Rich List e rappresenta un…
Questo approccio tecnico mira a ottimizzare l'uso dello storage e della CPU ma pone interrogativi…