Vaata lahtiolekuaegasid
https://www.reddit.com/r/celebritydojo/comments/t20lcc/political_karate_hotties/?rdt=46180

Süvavõltsingu maagia: kas Kaja Kallasel on džuudos must vöö?

3. juuni 2023

Eva Ladva, Eesti Rahvusraamatukogu meediapädevuse spetsialist

Õige vastus on loomulikult ei. Meie peaminister vurab meelsasti jalgrattal kontorisse või teeb vahel mõned uljamad aeroobikasammud, aga džuudomatile pole ta teadaolevalt veel kedagi viinud. Kuidas siis saavad sellesama artikli kõrval olla fotod džudokariietes Kaja Kallasest? Kas peaminister ehtis end valimiskampaania tarvis võõraste sulgedega?

Tegelikult on rohkelt küsimusi tekitavad fotod lihtlabane võltsing, mis on loodud tehisintellekti appi võttes. Deepfake ehk süvavõltsing on juba aastaid kommunikatsiooni- ja turundusmaailmas kasutusel olnud ebaaus võte, mis on vabakasutusse läinud tehisintellekti abiga hakanud viimastel kuudel suisa plahvatuslikult levima. Tuntuim pildimanipulatsioone pakkuv platvorm aadressil www.midjourney.com lausa sulges tasuta kasutuse võimaluse, kuna endisest Ameerika Ühendriikide riigipeast Donald Trumpist levima hakanud pildivõltsingud olid nii realistlikud, et tekitasid suurt segadust ja paksu pahandust nende seas, kes neid uskuma jäid. Siiski, vaid 10 dollari eest kuus saab süvavõltsinguid rahus edasi luua. Deepfake-tehnoloogia loodi heas usus ja sooviga aidata filmitootjaid, et nad saaksid usutavamalt luua keerulisi stseene – näiteks ajaloolistes filmides või tormisel ookeanil. Tehisintellekt õppis selgeks, milline peaks tegevus ja pilt olema ning seda kasutati taustana, et jätta realistlik mulje näiteks keskaegsest hoonest või linnatänavast. Eesti filmides on säärast tehnoloogiat kasutatud apteeker Melchiori lugudes keskaegse Tallinna taaselustamiseks, aga ka väike Leelo filmis Seltsimees laps seikles 1950. aastate pseudo -Tallinnas deepfake-tehnoloogia abil. Rääkimata Eesti kalleimaks filmiks tituleeritud Tõe ja õiguse stseenidest, mille puhul kriitikud küll hiljem ette heitsid, et süvavõltsingumeistrid unustasid pilved taevas liikuma panna ja seetõttu mõjus lahendus natuke groteskselt. Ent tegijail juhtub. Oluline on see, et niisugune tehnoloogia võimaldab filmikunstnikel kokku hoida miljoneid eurosid ja toota usutavana mõjuvaid ajaloolisi linateoseid isegi siinsamas Eestis.

Ent inimloomus on kahepalgeline: leiame kiiresti iga hea leiutise varjupoole ja hakkame seda siis agaralt oma liigikaaslaste vastu kasutama. Entusiastlikud filmihuvilised avastasid peagi, et deepfake-tehnoloogia võimaldab monteerida oma lemmiknäitlejate pead edukalt ka pornofilmidesse. Sealt edasi oli vaid üks samm, et teha samasugust valepornot oma (endisest) tüdruksõbrast… Nüüdseks tuntakse maailmas vaimse vägivalla vormi nimega kättemaksuporno ehk revenge porn – pornograafilise sisuga video või pilt luuakse inimesest ilma tema loata. Selle eesmärk on alandada ja häbistada filmi või fotole kleebitud ohvrit. Enamasti satuvad niisugustesse teostesse naised, kes on mõne mehe maha jätnud või tema lootusi muul moel alt vedanud, aga ka näiteks südikad naisajakirjanikud ja -poliitikud on riskigrupis. Kuni naiste seksuaalsus on ühiskonnas häbimärgistatud, on lihtne kasutada pornograafiat relvana. Ka meie eelmisest presidendist Kersti Kaljulaidist on loodud deepfake tehnoloogia abil alastifotosid (küll väidetavalt kunstilistel eesmärkidel) ning nii mõnigi peavoolumeediakanal ei pidanud paljuks sääraseid fotosid avaldada.

Peagi jõudsid filmi- ja fotohuvilised itimehed aga porno juurest poliitikute ja teiste mõjukate isikute pilapiltide loomiseni, abiks ikka seesama tehisaru ehk AI (artifical intelligence). Moraalselt küsitava väärtusega on näiteks paavst Franciscusest loodud võltspildid, kus kirikupea uhkeldab valges haute couture-jopes või naudib rannaliival päikest või hoopis pidutseb kaunite noorte naiste seltskonnas. Samuti on loodud süvavõltsinguid nii Venemaa kui ka Ukraina presidendist, meie peaministrist Kaja Kallasest ja teistest poliitikutest. Tegelikult saab igaüks meist kodus niisuguse naljapildi või -video valmis teha, kui on natuke ettevõtlikkust. Tarkvara, mis võimaldab lisaks fotodele toota videovõltsinguid, on veebis kõigile kättesaadav väga soodsa hinna eest. Lae üles video endast või sõbrast ning tehisintellekt õpib minutitega selgeks inimese miimika, kehahoiaku ja tüüpilised žestid. Seejärel saad panna ennast videos tegema, mida iganes soovid. Mis on sellise maailma tabanud võltsimismaania varjukülg? On eksperte, kes arvavad, et hakkame üha vähem usaldama tehnoloogia vahendatud suhtlust – olgu need siis veebiuudised, videod või suhtlusvõrgustikud – ning pöördume tagasi inimeste ja vahetute kogemuste poole. Näiteks kohtumenetluses võib tulevikus taas olla kaalukam inimese ütlus ehk tunnistus, mitte tehnoloogiliselt esitatud asitõend või e-kiri. On loomulikult ka skeptikuid, kes arvavad, et maailm on hukas ja deepfake-tehnoloogia lükkab meid lõplikult infoapokalüpsisesse. Kuid inimesed on vastupidav liik: võime uue mänguasja kasutuselevõtmise perioodil korda saata palju rumalusi, aga suudame mõne aja pärast kaineneda ning harjuda uusi tehnoloogilisi abivahendeid eesmärgipäraselt kasutama. Loodetavasti läheb nii ka süvavõltsingutehnoloogiaga. Kindlasti on vaja aga meeles pidada, et kõik virtuaalne võib olla võltsing. Selleks, et usaldada uudist või videot või isegi sõbra sotsiaalmeediapostitust, tasub info üle kontrollida mitmest allikast.

Vaata veebis
• RaRa meediapädevuseseminar Kui tehisintellekt koolimajja jõudis on kättesaadav Eesti Rahvusraamatukogu YouTube’i kanalil

• Õpi süvavõltsingut ära tundma saidilt https://deepfakelab.theglassroom.org/
• AI ja fotode võltsimise teemal saad rohkem lugeda RaRa blogist