Shopping cart

0

Cart

  • 0 item

Nessun prodotto nel carrello.

All categories

Il debutto di OpenAI del suo impressionante strumento Sora text-to-video ha sollevato importanti questioni.

Il mese scorso, il rilascio dello strumento di intelligenza artificiale Sora text-to-video di OpenAI è stato accolto con un misto di trepidazione ed eccitazione da parte dei ricercatori che temono un uso improprio della tecnologia. L’azienda californiana ha mostrato la capacità di Sora di creare video fotorealistici a partire da alcune brevi richieste di testo, con esempi che includono clip di una donna che cammina in una strada illuminata al neon di Tokyo e di un cane che salta tra due davanzali.

Tracy Harwood, specialista di cultura digitale presso la De Montfort University di Leicester, Regno Unito, si dice “scioccata” dalla velocità con cui si è sviluppata l’intelligenza artificiale (AI) da testo a video. Un anno fa si rideva per un video prodotto dall’intelligenza artificiale dell’attore statunitense Will Smith che mangiava spaghetti. Ora alcuni ricercatori temono che la tecnologia possa sconvolgere la politica globale nel 2024.

OpenAI, che ha sviluppato anche ChatGPT e la tecnologia text-to-image DALL-E, ha presentato Sora il 15 febbraio, annunciando di aver messo la tecnologia “a disposizione dei red teamer per valutare le aree critiche in termini di danni o rischi”. Il termine “red teaming” si riferisce al processo di simulazione di attacchi o di sfruttamento di una tecnologia per vedere come questa potrebbe far fronte ad attività nefaste, come la creazione di disinformazione e contenuti odiosi, nel mondo reale.

Sora non è il primo esempio di tecnologia text-to-video; altri includono Gen-2, prodotto da Runway a New York e rilasciato l’anno scorso, e Lumiere di Google, annunciato a gennaio. Harwood afferma di essere rimasta “delusa” da alcune di queste offerte. “Stanno diventando sempre più vanitosi in ciò che presentano”, afferma, aggiungendo che i programmi richiedono richieste molto specifiche per far sì che producano contenuti convincenti.

La disinformazione è una sfida importante per queste tecnologie text-to-video, aggiunge Harwood. “Arriveremo molto rapidamente a un punto in cui saremo sommersi da una valanga di informazioni dall’aspetto davvero convincente. Questo è davvero preoccupante”.

Timori per le elezioni

Ciò pone problemi particolari in vista delle prossime elezioni, tra cui le presidenziali statunitensi di novembre e le imminenti elezioni generali nel Regno Unito. “Circolerà un numero colossale di video e audio falsi”, afferma Dominic Lees, ricercatore di IA generativa e filmmaking presso l’Università di Reading, Regno Unito. Un falso audio del leader del partito laburista britannico, Keir Starmer, è stato diffuso nell’ottobre 2023, mentre un falso audio del presidente degli Stati Uniti Joe Biden che incoraggia i democratici a non votare è circolato a gennaio.

Una soluzione potrebbe essere quella di richiedere che l’intelligenza artificiale da testo a video utilizzi dei watermark, sia sotto forma di un marchio visibile sul video, che la etichetti come intelligenza artificiale, sia come una firma artificiale rivelatrice nei metadati del video, ma Lees non è sicuro che questo avrà successo. “Al momento i watermark possono essere rimossi”, afferma, e l’inclusione di un watermark nei metadati di un video dipende dal fatto che le persone cerchino attivamente se un video che hanno guardato è reale o meno. “Non credo che si possa chiedere al pubblico di tutto il mondo di farlo per ogni video che guarda”, afferma Lees.

La tecnologia presenta anche potenziali vantaggi. Harwood suggerisce che potrebbe essere utilizzata per presentare un testo difficile, come un documento accademico, in un formato più facile da capire. “Una delle cose più importanti per cui potrebbe essere usata è comunicare i risultati a un pubblico di non addetti ai lavori”, dice Harwood. “Può visualizzare concetti piuttosto complessi”.

Un altro potenziale utilizzo potrebbe essere quello dell’assistenza sanitaria, con un’intelligenza artificiale in grado di parlare con i pazienti al posto di un medico umano. “Alcune persone potrebbero trovarlo sconcertante”, afferma Claire Malone, consulente di comunicazione scientifica nel Regno Unito. “Altri potrebbero trovarlo estremamente comodo se vogliono porre domande a un medico più volte al giorno”.

Gestione dei dati

Strumenti di IA text-to-video come Sora potrebbero aiutare i ricercatori a districarsi tra enormi insiemi di dati, come quelli prodotti dal laboratorio europeo di fisica delle particelle CERN, vicino a Ginevra, in Svizzera, e da altri grandi progetti scientifici, afferma Malone. L’intelligenza artificiale generativa potrebbe “setacciare il codice e svolgere i compiti più banali della ricerca”, aggiunge Malone, ma anche svolgere “un lavoro molto più sofisticato [come] fornirle dati e chiederle di fare previsioni”.

Preoccupazioni sono state sollevate anche da chi lavora nelle industrie creative. L’anno scorso l’attore statunitense Tom Hanks ha suggerito che l’intelligenza artificiale potrebbe consentirgli di continuare ad apparire nei film “da ora fino all’avvento del regno” dopo la sua morte. “Se foste un giovane attore ambizioso che pensa al proprio futuro e vi dicessero ‘Mi dispiace, Tom Hanks interpreterà sempre i ruoli principali’, pianifichereste un futuro in questo senso?”, dice Lees.

L’intelligenza artificiale da testo a video solleverà ampie questioni che la società dovrà affrontare. “Dovremo imparare a valutare i contenuti che vediamo come non abbiamo fatto in passato”, afferma Harwood. “Questi strumenti mettono l’opportunità di essere un creatore di contenuti multimediali nelle mani di tutti”, afferma Harwood. “Dovremo fare i conti con le conseguenze di questa situazione. È un cambiamento fondamentale nel modo in cui il materiale verrà consumato”.

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *