Immagini IA sotto controllo, Google introduce nuove etichette per distinguerle

Google sta finalmente facendo qualcosa per le immagini AI, ma non è ancora abbastanza

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione.Ecco come funziona

Google ha annunciatoche inizierà il lancio di una nuova funzione per aiutare gli utenti a “capire meglio come un particolare contenuto è stato creato e modificato”.

Questo avviene dopo che l’azienda si è unita allaCoalition for Content Provenance and Authenticity (C2PA)- un gruppo di grandi marchi che cerca di combattere la diffusione di informazioni fuorvianti online, contribuendo anche a sviluppare l’ultimaContent Credentials. Per chi non lo sapesse, ancheAmazon,AdobeeMicrosoftfanno parte del comitato.

In attesa del rilascio nei prossimi mesi,Googleafferma che utilizzerà le attuali linee guida per le credenziali del contenuto, ovvero i metadati di un’immagine, all’interno dei parametri di ricerca per aggiungere un’etichetta alle immagini generate o modificate dall’intelligenza artificiale, fornendo maggiore trasparenza agli utenti. Questi metadati includono informazioni come l’origine dell’immagine, oltre a quando, dove e come è stata creata.

Tuttavia, lo standard C2PA, che offre agli utenti la possibilità di risalire all’origine di diversi tipi di media, è stato rifiutato da molti sviluppatori di IA, come Black Forrest Labs, l’azienda dietro il modello Flux che X’s (ex Twitter) Grok utilizza per la generazione di immagini.

Questo AI-flagging sarà implementato attraverso l’attuale finestraAbout This Imagedi Google, il che significa che sarà disponibile per gli utenti anche attraversoGoogle Lense la funzione “Circle to Search” di Android. Quando sarà attiva, gli utenti potranno fare clic sui tre punti sopra un’immagine e selezionare “Informazioni su questa immagine” per verificare se è stata generata dall’intelligenza artificiale, quindi non sarà così evidente come speravamo.

È sufficiente?

È sufficiente?

Sebbene Google avesse bisogno di fare qualcosa riguardo alle immagini IA nei suoi risultati di ricerca, resta da chiedersi se un’etichetta nascosta sia sufficiente. Se la il tutto funziona come dichiarato, gli utenti dovranno eseguire ulteriori passaggi per verificare se un’immagine sia stata creata utilizzando l’intelligenza artificiale prima che Google la confermi. Chi non è già a conoscenza dell’esistenza della funzione About This Image potrebbe non rendersi conto di avere a disposizione un nuovo strumento.

Mentre i video deepfake stanno spopolando nel mondo della criminalità, le immagini generate dall’intelligenza artificiale sono quasi altrettanto problematiche. Donald Trump ha recentemente pubblicato immagini di Taylor Swift e dei suoi fan, renderizzate digitalmente, che sostenevano falsamente la sua campagna per la presidenza, e la stessa Swift è stata vittima di abusi sessuali basati su immagini quando i suoi nudi generati dall’IA sono diventati virali.

Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.

Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.

Sign up to be the first to know about unmissable Black Friday deals on top tech, plus get all your favorite TechRadar content.

Sebbene sia facile lamentarsi del fatto che Google non stia facendo abbastanza, anche Meta non è entusiasta di tirare fuori la polvere da sotto il tappeto. Il gigante dei social mediaha recentemente aggiornatola sua politica per rendere meno visibili le etichette, spostando le informazioni rilevanti nel menu di un post.

Sebbene questo aggiornamento sia un primo passo positivo, saranno necessarie ulteriori misure aggressive per mantenere gli utenti informati e protetti. Altre aziende, come i produttori di fotocamere e gli sviluppatori di strumenti di intelligenza artificiale, dovranno accettare e utilizzare i watermark del C2PA per garantire la massima efficacia del sistema, poiché Google dipenderà da questi dati. Pochi modelli di fotocamera, come la Leica M-11P e la Nikon Z9, possiedono le funzioni Content Credentials integrate, mentre Adobe ha implementato una versione beta sia inPhotoshopche in Lightroom. Ma ancora una volta, spetta all’utente utilizzare le funzioni e fornire informazioni accurate.

In unostudio dell’Università di Waterloo, solo il 61% delle persone è riuscito a distinguere le immagini generate dall’intelligenza artificiale da quelle reali. Se questi numeri sono accurati, il sistema di etichettatura di Google non offrirà alcuna trasparenza aggiuntiva a più di un terzo delle persone. Si tratta comunque di un passo positivo da parte di Google nella lotta per ridurre la disinformazione online, ma sarebbe bene che i giganti tecnologici rendessero queste etichette molto più accessibili.

Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.

OpenAI semplifica l’accesso a ChatGPT con un nuovo dominio

Google svela accidentalmente Jarvis AI, l’assistente che farà le ricerche per te

Google testa la ricerca vocale interattiva con risultati in tempo reale