Google ha esteso il divieto degli annunci con contenuti sessualmente espliciti per includere anche quei servizi che facilitano la creazione di nudi generati dall’intelligenza artificiale. Una posizione più rigorosa che entrerà in vigore dal 30 maggio, con la quale il colosso tecnologico americano cerca di mantenere un ambiente digitale sicuro e rispettoso.
Inoltre, la decisione arriva in risposta alla crescente preoccupazione per la pornografia deepfake non consensuale, un problema che ha visto un aumento allarmante negli ultimi anni. Ricordiamo che questo tipo di contenuti utilizza l’intelligenza artificiale per creare o modificare immagini sessualmente esplicite di persone senza il loro permessocome è successo con star del calibro di Taylor Swift.
Nel 2023, Google ha rimosso più di 1,8 miliardi di annunci per aver violato le sue norme sui contenuti sessuali, secondo il rapporto annuale sulla sicurezza pubblicitaria dell’azienda. Un fatto che evidenzia l’entità della sfida che questa azienda deve affrontare nella lotta contro i contenuti inappropriati e l’importanza di aggiornare le proprie politiche.
L’azienda utilizzerà una combinazione di revisioni umane e sistemi automatizzati per applicare questa politica, evidenziando il proprio impegno per la sicurezza online e proteggendo gli utenti da contenuti dannosi.
È importante chiarire che si tratta di un aggiornamento della policy interna a Google Ads e escluderà specificamente la promozione di contenuti sintetici che è stato modificato o creato per includere nudità o essere di natura sessuale.
Secondo il portavoce di Google Michael Aciman, l’obiettivo è “vietare esplicitamente annunci per servizi che offrono la creazione di pornografia deepfake o contenuti di nudo sintetico.”
Allo stesso modo, la violazione di queste nuove regole è stata considerata un reato grave. “Prendiamo molto sul serio le violazioni di questa politica e le consideriamo gravi.“, hanno avvertito dall’azienda dove esiste una posizione di tolleranza zero nei confronti dei trasgressori.
L’implementazione di questa norma evidenzia anche come alcune applicazioni facilitino la creazione di deepfake pornografico In precedenza erano riusciti a eludere le restrizioni di Google. Ad esempio, le applicazioni per lo scambio di volti che, sebbene non fossero pubblicizzate come sessualmente esplicite nel Google Play Store, venivano promosse su siti web pornografici.
Questa lacuna nella politica pubblicitaria ha consentito a questo tipo di applicazioni di proliferare, che aveva addirittura generato un vuoto giuridico e morale che Google ora sta cercando di chiudere.
Il problema del deepfake porno non consensuale non limitato allo sfruttamento digitale degli adulti; Ha colpito anche i minorenni. Due studenti delle scuole superiori in Florida sono stati arrestati lo scorso dicembre con l’accusa di aver creato foto di nudi dei compagni di classe generate dall’intelligenza artificiale.
Inoltre, un uomo di Pittsburgh di 57 anni Recentemente è stato condannato a più di 14 anni di prigione per possesso di materiale pedopornografico generato con l’intelligenza artificiale.
Data la gravità della questione, il Congresso degli Stati Uniti sta valutando un’azione legislativa. Il mese scorso, sia la Camera che il Senato hanno presentato il DEFIANCE Act, ciò istituirebbe un processo attraverso il quale le vittime dei “falsi digitali” potrebbero fare causa a coloro che ne realizzano o distribuiscono deepfake non consensuali.
Questo sforzo legislativo, insieme all’iniziativa di Google, dimostra un crescente riconoscimento e azione contro i pericoli posti dalla tecnologia deepfake se usato in modo inappropriato.
Inoltre, riflette una crescente preoccupazione per l’impatto etico e sociale delle tecnologie di intelligenza artificiale, soprattutto per quanto riguarda la creazione e distribuzione di contenuti falsi o fuorvianti che possano ledere la dignità delle persone.