Tom Cruise a devenit viral pe TikTok, dar felul în care s-a întâmplat asta, spun experții citați de Daily Mail, este unul dintre „cele mai alarmante exemple' ale tehnologiei deepfake.
Totul a început săptămâna trecută, când pe contul @deeptomcruise au apărut mai multe clipuri care îl înfățișează pe actor făcând un truc cu o monedă, îmbrăcat într-o cămașă cu print hawaiian, jucând golf sau rememorând întâlnirea sa cu fostul conducător URSS, Mihail Gorbaciov.
Creatorul lor, s-a dezvăluit, este Chris Ume, un specialist în efecte video din Belgia care face parte, potrivit Fortune, din Deep Voodoo Studio, un grup de pasionați ai deepfake-urilor și al potențialului lor creativ, coagulat de creatorii South Park.
Clipurile lui Ume cu Tom Cruise au strâns peste 11 milioane de vizualizări într-o săptămână numai pe TikTok. Deși par fun și inofensive și unii oameni laudă felul în care falsul Cruise reproduce gesturile și discursul vedetei americane, experții în tehnologie spun că aceste clipuri extrem de convingătoare reprezintă un motiv de îngrijorare. Să vezi nu mai înseamnă automat să crezi.
Deepfake-urile sunt invenția din 2014 a cercetătorului Ian Goodfellow, director de învățare automată la Apple, anterior angajat Google Brain și un lider în domeniul deep learning-ului. Provenit din îmbinarea termenilor „învățare profundă' și „fals', deepfake este o formă de inteligență artificială care studiază o persoană în imagini și videoclipuri, permițând imitarea acesteia din multiple unghiuri. Uneori, cum se întâmplă în cazul deepfake-urilor cu Tom Cruise, diferențele dintre realitate și ficțiune devin aproape nedectabile.
Henry Ajder, care face cercetare pe deepfakes, a spus pentru Times of London că tehnologia asta nu pleacă nicăieri și că există un număr imens de aplicări negative și dăunătoare ale ei.
Citată de Daily Mail, Rachel Tobac, fondatoarea și CEO-ul companiei SocialProof Security, a scris pe Twitter că „deepfakes vor avea un impact asupra încrederii publicului, vor oferi acoperire și negare plauzibilă pentru infractorii / abuzatorii prinși pe video sau audio și vor fi (și sunt) folosite pentru a manipula, umili și răni oamenii'. Ea a adăugat că acestea au semnificație politică și pot afecta siguranța fiecăruia dintre noi.
Citește și:
Delia, victima unui porno deepfake, vorbește onest despre asta
Foto: Tik Tok