© 2000-2023 - Enkey Magazine - Tutti i diritti riservati
ENKEY SNC - P.IVA IT03202450924 / Cod. REA CA253701 - Tel. 078162719
Ve li ricordate gli occhiali a raggi X? Venivano venduti promettendo di far vedere attraverso i vestiti. DeepNude è l’evoluzione dei famosissimi occhiali a raggi X degli anni ’70, anche quest’app infatti promette di creare una foto in cui si sarebbe visto sotto ai vestiti. In entrambi i casi si tratta di una vera e propria bufala. Anche se DeepNude va oltre ad un effimera immagine rossastra.
Infatti la controversa app crea delle immagini di donne nude partendo da una fotografia scattata o da una scaricata dal web.
Ma come funziona DeepNude?
Il software, grazie ad un algoritmo di intelligenza artificiale ricrea le fattezze di una donna nuda, anche se alle immagini viene poi apposto un bollino con la dicitura “fake”.
Riesce nell’impresa grazie ad una libreria di oltre 10 mila immagini di nudi femminili. È quindi possibile ricreare immagini estremamente verosimili, perché l’app riesce a trovare nudi con una corporatura molto simile a quello della foto da ritoccare.
È possibile così creare fake nude di qualsiasi persona, dalla celebrità alla vicina di casa. Non si possono, però, contraffare i corpi maschili. O meglio, si sarebbe ottenuta un’immagine un po’ bizzarra con seni posticci.
Ascesa e caduta di un app
Rilasciata il 23 giugno, ha avuto subito un enorme successo. In poche ore più di mezzo milione di persone l’avevano già scaricata. Ma, dato forse il forte realismo delle immagini fake, sin da subito aveva destato enormi critiche. Immediate le reazioni indignate, tanto che il programmatore stesso ha deciso di eliminare l’app dopo solo 4 giorni dal rilascio.
Ad accorgersi di questa particolare app e di tutto il polverone che stava alzando è stata Samantha Cole, redattrice di Motherboard, la sezione tecnologica del sito Vice.com. L’articolo che ne è derivato ha senza dubbio contribuito a fare pubblicità a questa particolare app e ha velocizzato il processo di circolazione delle immagini.
Per questo il creatore ha deciso di togliere l’app dagli store, commentando così la sua decisione:
Non avremmo mai immaginato che DeepNude sarebbe diventata virale al punto tale da non riuscirne a controllare il traffico […] Il rischio di abusi è troppo alto, non vogliamo fare soldi in questa maniera.
Le spiegazioni del suo creatore
Si sa poco del suo creatore, il sito Vice era riuscito a mettersi in contatto con lui via mail, ma alla giornalista Cole aveva chiesto di farsi chiamare solo Alberto.
Alberto ha raccontato che aveva realizzato l’app con un software open source dell’Università di Berkley, in California. La scelta di poter modificare solo donne e non uomini era dovuto semplicemente alla carenza di immagini di uomini nudi in rete.
Anche se, giustamente, sempre il creatore sottolinea come l’operazione che faceva DeepNude non era poi tanto diversa da un ritocco fatto con Photoshop. Certo, l’applicazione ci impiegava pochi secondi, mentre un ritocco fatto a mano avrebbe richiesto di sicuro qualche ora.
Anche la qualità era ridotta rispetto ad un ritocco manuale, ma un occhio non troppo attento avrebbe individuato l’artefatto. Ma in ogni caso il fatto che queste immagini potessero girare in rete senza controllo era di sicuro l’aspetto che è stato più sottovalutato.
Molte donne hanno provato imbarazzo, o si sono vergognate davanti a queste immagini fake. Da qui il post di scuse del creatore, che ha fatto senza dubbio un gesto molto nobile nel ritirare l’app, sottolineando come il mondo non sia ancora in grado di gestire un’app come DeepNude.
La questione legale
Il creatore comunque ha sicuramente sottovalutato la questione legale. Un’operazione del genere su un immagine non propria viola la privacy della persona colpita dal fake e può danneggiarne la reputazione. Hany Farid, un professore dell’università di Berkley, ha affermato che bisognerebbe creare app e programmi in grado di riconoscere e smascherare i fake (come l’idea di Google Fact Check). La loro diffusione dovrebbe essere ostacolata dai social network e questo tipo di reati dovrebbero avere una legislazione dedicata.
This post is also available in: English