RaRa väike maja, Narva mnt 11
E–R 10–20, L 12–19, P suletud
RaRa Solarise saatkond
E–P 10–19
Tehisintellekti salaplaanid: kuidas valeinfo mängib valimistega
Kateryna Botnar
RaRa meediapädevuse spetsialist
Uuendatud 23. augustil 2024.
Sõnal „valimised“ on potentsiaali saada kõige kasutatavamaks sõnaks 2024. aastal, arvestades inimeste hulka, kes käesoleval aastal maailma erinevates piirkondades valima läheb. Kas me oleme valmis valima ja kas oleme piisavalt teadlikud, et oma häält mitte kaduma lasta? Kõik taolised küsimused on jätkuvalt aktuaalsed, kuid nüüd on lisandunud uued seoses tehisintellektiga. Lihtsustades võiks öelda, et tehisaru oskab tõlkida inimfantaasiat teksti-, pildi-, audio- ja videokeelde. Sellele ei ole lihtne vastu hakata, eriti kui pole aimu, mida tehistaip just valimiste kontekstis teha suudab. Sestap oleme kokku kogunud mõned fragmendid ulatuslikust mosaiigist teemal „tehisintellekt ja valimised“, et oskaksite olla ettevaatlikud ja ka teadlikud uutest riskidest.
Soojenduseks soovitame lühikest arutelu neuroteadlase Jaan Aruga KUKU raadio pärastlõunasaates, et viia ennast teemaga kurssi ning tuletada meelde, mis on tehisintellekt ning millised on tema peamised omadused.
Järgnevalt mõned teemakohased uuringud ja artiklid välismeediast:
-
AI will amplify terror threat and is already fuelling tensions, say police
Selles kokkuvõttes püütakse kaardistada ohtusid, mis kaasnevad tehisintellekti hüppelise arenguga. Näiteks räägitakse ekstremismiideede levikust ja viisidest, kuidas tehisaru võib sellesse panustada ‒ näiteks genereerides tekste, mis matkivad inimeste kõnekeelt ja mis on palju paremini koostatud kui Google Translate´i abil loodu. Tehistaip ei piirdu sugugi ainult tekstiloomega, sest peale 7. oktoobri rünnakut märgati paljude juudivaenuliku sisuga võltspiltide laiemat levikut.
-
Google research shows the fast rise of AI-generated misinformation
Tehisintellektiga loodud võltspiltide ja valeinfo maht on kasvanud suure kiirusegaPro-CCP network ‘Spamouflage’ weaponizes Gaza conflict to spread anti-US sentiment
Selle uuringu tutvustuses on kirjas: „Hiina Kommunistlikku Parteid toetav võrgustik Spamouflage korraldab veebis mõjutuskampaaniaid, sh kasutades tehisintellekti loodud pilte eesmärgiga lõhestada lääne ühiskonda ning propageerida Ameerika-vastaseid narratiive. Kui varem keskendus võrgustiku jagatud sisu peamiselt Venemaa sõjale Ukrainas, siis alates oktoobrist lisandusid Iisraeli-Hamasi sõjanarratiivid ning praegu Bideni kui sõjast sõltuva inimese portreteerimine“.
Mida Spamouflage´i võrgustik teeb:
- kasutab läbisegi päris- ja tehisaru loodud pilte ja tekste, et levitada oma propagandat eesmärgiga mõjutada oma sihtrühmi USAs ja maailmas sotsiaalmeedias loodud võltsprofiilide kaudu;
- loob uusi sotsiaalmeediakontosid, mille profiilipildid on tehisintellekti loodud;
- genereerib poliitikute ja presidendikandidaatide postereid, nt kujutatakse Joe Bidenit sõjast sõltuvana;
- jagab väärnarratiive, näiteks et USA on süüdi Venemaa Ukrainas alustatud sõja pikenemises, kuna ta varustab Ukrainat relvadega.
On näha, et viimasel ajal keskendub Spamouflage üha rohkem USA 2024. a valimistele: levitatakse erinevaid kuulujutte poliitikutest, Ukraina abistamisest, piirikriisist ja muust.
China’s Cognitive Warfare Campaign Targets Americans with AI Generated Cartoons
Väidetavalt on Hiina loonud animatsiooni sarja, mis on suunatud USA publikule ning kannab nime “A fractured America” ehk “Killustatud Ameerika”. Asi, mis eristab seda multikat teistest, on tehisaru. Nimelt oli “A fractured America” tervenisti tehisintellekti genereeritud. Multika sisu paneb inimesi mõtlema massprotestidest ja sõnakuulmatusest. Samas tähistab see animafilm esimest korda, kui Hiina on kasutanud tehistaipu selleks, et jõuda ameeriklaste n-ö meelde ja hinge. Ja kuigi esimese osa kirjelduses oli mainitud, et see on tehisaru looming, siis tulevastest on see juba kadunud!
-
How AI bots spread misinformation online and undermine democratic politics (august 2024)
Huvipakkuv artikkel sellest, mismoodi inimaju reageerib sõnadele ja väljendustele, mis jäävad kõrvu – catchy phrases inglise keeles. Kas teadsite seda, et inimesele on omane jäljendada teiste kõnelemisviise või seda, et sagedamini korduvad fraasid jäävad paremini meelde ning võivad tekitada meie peas omavahelisi seoseid? Paraku on aga asi selles, et mitte kõik taolised fraasid, mida tihtilugu kasutatakse ka võtmesõnana, on inimese poolt kirjutatud – tehisintellektil võib olla selles oma roll.
Pro-Kigali propagandists caught using Artificial Intelligence tools
Uue raporti kohaselt on Rwanda valitsuse toetajad kasutanud suuri keelemudeleid, et uputada X platvormi valitsuse poolsete postitustega. Laialdase veebikampaania tarbeks, mis oli kutsutud toetama ja turundama Rwanda valitsuse projekte ja tegevusi, oli väidetavalt kasutatud suuri keelemudeleid, k.a Chat GPT, mille abil genereeriti hulgaliselt postitusi. Sama kampaania raames kiusatakse ja rünnatakse neid, kes suhtuvad valitsusse pigem kriitiliselt.
AI-Powered Russian Influence Network Targets U.S. Elections (juuni 2024)
Ilmuvad aina uuemad materjalid, mis tõestavad seda, et Venemaaga seotud meediavõrgustikud üritavad sekkuda USA valimistesse. Artiklis mainitakse võrgustikku nimega CopyCop, mis lõi 120 uut veebilehte kahe päevaga mullu mais. Need veebilehed on täis AI abil loodud sisu, seal esinevad väljamõeldud ajakirjanikud ning jutt käib peamiselt USA valimistest.
How much is AI meddling in elections? (juuni 2024)
Reuters võttis kokku Alan Turingi Instituudi uuringu, mille raames vaadeldi lähemalt 112 valimisi 2023.a jaanuarist saadik ning leiti tehisintellekti jälgi neist 19 seoses. Kuigi siiamaani ei ole tõestatud, et tehistaibu abil oleks avaldatud suurt mõju toimunud valimistele, ei tähenda see seda, et see ei kasvata oma rolli tulevaste valimiste valguses.
Uuringu märksõnad on usalduse erosioon, kajakambrite koondamine, poliitiline polariseerimine jt.
Nikki on võrgustik, mille moodustab vähemalt 64 X-i (endise Twitteri) kontot. Teistest eristab neid see, et kontode sisu on loonud tehisintellekt. Sisu on suunatud Aleksei Navalnõi ja Maria Pevtšihhi halvustamisele. Nikki eesmärk on ohustada Navalnõi ja Pevtšihhi aktsepteerimist Ukrainat toetavate ameeriklaste ja lääneriikide ühiskondade silmis.
ISD ei ole suutnud tõestada, kes on Nikki kampaania taga, kuid teatud ajaline muster on siiski jälgitav: postitused ilmuvad töistel kellaaegadel Moskva aja järgi.
Mõned kontod kustutas X ära, kuid nende asemele ilmusid kiiresti uued.
Peale tekstiloome seisneb ChatGPT roll veel selles, et tehisaru kasutab üsna tihti vanu teemaviiteid (hashtag´e) või mõtleb välja uusi, mille järgi otsides saab tulemuseks kõik sarnase sisuga postitused Nikki kampaaniast. Inglise keele kasutus on neis tihti kummaline ja kohmakas ehk tegemist on masina kirjutatuga.
Uurijad usuvad, et lähitulevik toob aina rohkem desinfo- ja mõjutuskampaaniaid ning tehisaru areng on sealjuures suureks tõukeks. Näiteks võidakse korraldada kampaaniaid, mis levitavad valeinfot konkreetsetest inimestest, ühiskondlikest ja sotsiaalsetest liikumistest eesmärgiga süvendada inimeste ja gruppide vahelist vastandumist sotsiaalmeedias.
-
Vene propaganda kasutab infosõjas Ukraina “laskemoona” (juuni 2024)
Peaaegu ükskõik, mis satub meediasse, võib olla ära kasutatud vene propaganda poolt. Nagu juhtus videoga, mis levis Ukraina meediaruumis, kus Ukraina patrull kontrollis ühe kodaniku dokumente eriti jõuliselt. See tekitas vastumeelt ukrainlaste seas, mida nad ka laialdaselt (sotsiaal)meedias avaldasid. Aga videot olid juba märgatud vene propagandistid, kes võtsid selle kohe kasutusse. Propastopi artikkel annab mitmekülgse ülevaate Ukraina mobilisatsiooniprotsessidest ja seadusest ning kaasnevast.
Russia boosts disinformation campaign targeting US, Ukraine
Üks viimastest (2024.a juuni seisuga) Venemaa narratiividest on see, et Ukraina on süüdi rünnakus Dagestanis. Vene propagandistid väidavad, et kuna see toimus samal päeval nagu Ukraina rünnak Venemaa sõjataristu peale Krimmis, oli see koordineeritud sama riigi poolt. See väide ei ole faktiliselt tõestatud.
Massive Russian influence operation targeted former Ukrainian defense minister on TikTok
DFRLab-i ja BBC Verify uuriv ajakirjanik Roman Osadtšuk on leidnud tõestusi Ukraina endise kaitseministri vastu TikTokis korraldatud infooperatsioonist, milles on oma osa ka tehisintellektil. Nimelt jälgis Osadtšuk TikTokis kahtlaseid kontosid, mille kogu sisu oli vaid üks video. Selle video peategelane oli Ukraina endine kaitseminister Oleksi Reznikov, kes elas luksuslikku elu, ostes kalleid autosid ja mõisasid. Üldjoontes vihjasid kõik videod sellele, et tema ning laiemalt Ukraina valitsus teenivad sõja käigus suuri ebaseaduslikke kasumeid. Videotes kasutati tehistaibu loodud kõnet. TikTok on tuvastanud ja eemaldanud üle 12 800 taolise konto; neid videoid märgati, kuna X-s ilmusid nende taaspostitused.
Visates taolisi narratiive rahvusvahelise publiku ette, püüab Venemaa kahjustada Ukraina imagot ning tekitada hõõrdumist nende riikide ja valitsuste vahel, kes Ukrainat aktiivselt abistavad.
Tasub meeles pidada, et Maailma Majandusfoorumi globaalsete riskide 2024. aasta aruande kohaselt on järgmise aasta suurim risk just vale- ja desinformatsioon.
-
Kas teadsite, et peaaegu kolm miljardit inimest lähevad sel aastal valimistele, sh riikides nagu India, Mehhiko, Suurbritannia ja USA? Ning probleem ei seisne vaid selles, et valijatega püütakse enne valimisi manipuleerida, vaid des- ja valeinfo laialdane levik võib kahjustada uute valitsuste mainet. Selle tagajärjed võivad ulatuda skeptilisusest ja umbusaldusest valitsuse suhtes kuni vägivaldsete protestideni.
Kasvav usaldamatus teabe, meedia ja valitsuste vastu süvendab seisukohtade vastandumist, mis omakorda võib vallandada rahutused ja tekitada ka tõsiseid konflikte. Ühiskonnad võivad muutuda polariseerunuks mitte ainult inimeste poliitilise kuuluvuse poolest, vaid ka välisteguritest mõjutatud reaalsustaju osas. Selline suundumus võib olla suureks väljakutseks sotsiaalsele ühtekuuluvusele ja isegi ühiskonnaliikmete vaimsele tervisele. Emotsioonid ja ideoloogiad varjutavad fakte ehk siis kallutatud info mõjutab uudiste ja faktide tajumist.Kuidas edasi? Kui riigiasutused püüavad tõkestada valeteabe levikut, siis tekib samas oht kahjustada meediavabadust. Demokraatlikes riikides on meedial õigus kajastada uudiseid vastavalt oma strateegiale ning riik ei tohi meedia tegevusse üleliia sekkuda.
Euroopa Liit ja riikide valitsused püüavad takistada ja kontrollida tehisaru loodud info levikut, toetada selle tuvastamist ja inimeste teadlikkuse suurendamist.
Selleteemaliste seaduste väljatöötamisega on praegu olukord keeruline, sest protsess vajab rohkem aega, nii et üldjoontes ei ole võimalik arenevale tehnoloogiale kuigi kiiresti järele jõuda. Aina keerulisem on tuvastada tehistaibu loodut, ükskõik kui digipädev veebikasutaja ka poleks või millist tehnoloogiat tuvastamiseks kasutatakse.
The ‘dead internet theory’ makes eerie claims about an AI-run web. The truth is more sinister
“Surnud Interneti teooria” tähendab olukorda, kus AI loodud sisu on ületanud inimeste loodud sisu mahu. Aga miks see võib olla probleemiks? Artiklis kirjeldatakse võimalusi, kuidas see loob pinnase desinfo levimiseks, propaganda loomiseks ja autokraatlikele režiimidele sobivate sõnumite levitamiseks.
How people view AI, disinformation and elections — in charts
Uuritakse inimeste teadlikkust tehisintellekti ja valeinfo osas – nt kuivõrd palju üldse mõistetakse tehisintellekti, kas tehisarul on mõju valimistele ja kes üldsegi peaks vastutama sellise valeinfo eest. Uuritakse erineva majandustaseme ja arenguga riike.
USAs ja Saksamaal läbi viidud uuringust, mis selgitas välja inimeste teadlikkust ja hoiakuid desinformatsiooni suhtes.
Vebinar – Far from fair – how the Finnish far-right took the spotlight on social media ahead of the presidential election
Selles ettekandes tutvustatakse uuringut, mis jälgis sotsiaalmeedia kanalite otsingutulemusi ja nende kallutatust Soome parteide suhtes.AI deepfakes, bad laws – and a big fat Indian election
See artikkel käsitleb küll rohkem India valimisi, kuid näited tehisintellekti mõjust ja inimeste arvamuste mõjutamisest, on kõnekad ja puudutavad ühiskonda laiemalt. Milline roll on süvavõltsingutel? Või millised on tagajärjed, kui tehisintellekti vestlusrobot loob tuntud poliitiku kohta valeinfot?
Cause for concern: The continuing success and impact of Kremlin disinformation campaigns
Ja kuigi sellest uuringust puudub otsene seos teemaga tehisintellekt ja valimised, võrreldakse siin Kremli propaganda mõjusid Nõukogude Liidus ja praegu. “KGB mõõtis propaganda edukust kahel viisil: 1 – kui palju huvi ja tähelepanu on tekitanud see või teine propagandistliku sisuga sõnum välismaa publiku seas ja meedias, kui mitu arutelu on see põhjustanud; 2 – kas see sõnum on pannud riigi tegema poliitilisi korrektuure, ehk siis otsuseid ja muudatusi, mis oleksid nii või teisiti kasulikud Nõukogude Liidule”. Sama eesmärkidega sõnumeid on tänapäeval lihtne luua ja levitada veebiavarustes muuhulgas ka tehisaru abil, mida Kremli režiim just nimelt aktiivselt harjutab. Teisi n-ö Kremli võtmed propaganda levitamiseks on samuti korduvalt rakendatud nüüdisajal.
3 months to save democracy: new AI election report published
Surrey’s Institute for People-Centred AI eksperdid jälgivad lähemalt peamisi suundumusi tehisaru arengus, mis võivad mõjutada valimisi ja valimistulemusi ning pakuvad oma lahendusi, kuidas neid riske vältida.
Probleemi nähakse muuhulgas aina süvenevas lõhes tehistaibu (arengu)võimaluste ja regulatsioonide vahel valitsuse tasandil. Kõige haavatavamad inimesed ses osas on need, kelle digi- ja meediapädevused on vähem arenenud.South Korea contends with AI and electoral integrity
Lõuna-Korea tundub eesotsas olevat tehisintellekti genereeritud võltsingute vastu võitlemise osas. Selleks, et võidelda valeinfoga ja tagada demokraatlikku õiglust, on Rahvusassamblee keelustanud tehisaru genereeritud võltssisu poliitilises kampaanias 90 päeva vältel enne valimisi. Reegli rikkumine lõpeb kopsaka trahviga.
Välja on töötatud ka plaan, kuidas vähendada tehisintellekti poolt genereeritud sisuga seotud riske. See peab tagama läbipaistvust tehistaibu kasutamise osas poliitilises kommunikatsioonis, sest plaaniga kaasneb ka tehisaru sisu avatuse nõue. Ehk iga tehisintellekti loomingu väljund peab olema selgelt tähistatud.
-
Disrupting deceptive uses of AI by covert influence operations
OpenAI on takistanud mitu infomõjutusoperatsiooniHere’s how ChatGPT maker OpenAI plans to deter election misinformation in 2024
OpenAI arendajad on välja töötanud uusi meetmeid, kuidas piirata ChatGPT väärkasutust. Mõnda on rakendatud juba varem, mõni aga on uus algatus nagu näiteks piltide vesimärgiga tähistamine. Samuti on kavas keelata tehnoloogia kasutamine selliste juturobotite loomiseks, mis kehastaksid poliitikuid, valimistel kandideerijaid ja valitsusliikmeid või levitaksid kallutatud või valeinfot valimistel osalemise kohta.
TikTok says it disrupted more than a dozen influence campaigns this year
Artiklis kirjeldatakse mitmeid juhtumeid, kuidas TikTok tõkestas mitmete, sealhulgas Hiinast pärit ebausaldusväärsete kontovõrgustike tegevust.
TikTok Moves to Limit Russian and Chinese Media’s Reach in Big Election Year
Püüdes võidelda valeinfo ja infomõjutustega hoiab TikTok Venemaa ja Hiinaga seotud meediakontod kasutajate infovoost eemal.
-
AI is destabilizing “the concept of truth itself” in 2024 election
Artiklis kirjeldatakse üle maailma toimunud juhtumeid, milles poliitikuid või teisi kuulsusi kahtlustatakse kas ebaseaduslikus tegevuses või ebamoraalses käitumises, mille tõestamiseks esitatakse audio- ja visuaalseid materjale. Vastuseks väidavad kahtlustatavad aga, et tõendid on loonud tehisintellekt. Fikseeritud sai ka valimisaasta esimene roboti poolt Joe Bideni nimel peetud kõne, kus esineja püüdis veenda valijaid mitte osalema valimisaktsioonis Tuesday primary.
Graphika analüütik Libby Lange, kelle arvamust tihtipeale küsitakse, väidab, et „tehisintellekt destabiliseerib tõe kontseptsiooni ennast, sest kui kõige kohta võib öelda, et see on võltsing, siis polegi enam sellist asja nagu põhitõde.“
AI deepfakes, bad laws – and a big fat Indian election
Peale Chat GPT-d on olemas ka sarnane Google toodetud juturobott Gemini. Selle käest küsiti kord, kas peaminister Narendra Modi oli fašist või mitte. Gemini vastas, et “teda süüdistati küll erinevate meetmete elluviimises, mille kohta ütlevad mõned eksperdid, et neil on fašismi omadused”. Kui sama küsimust esitati Geminile endise presidendi Donald Trump kohta, siis vastus polnud nii ilmselge.
India valitsus on selgelt öelnud, et nemad näevad suurt probleemi tehisintellekti genereeritud (süva)võltsingutes. Väidetavalt on kohalikud erakonnad kasutanud tehisaru enda valimiskampaanias. Tehistaibu rakendus oli siis üsna lai: personaliseeritud video-sõnumitest kuni reaalsena näivate videoteni, mille tegelaseks on meie seast lahkunud liidrid.
Congressional campaign using AI to help voters learn about their candidate
USAs leitutati järjekordne kõnerobot, mis helistab potentsiaalsetele valijatele ning räägib neile kandidaat Peter Dixonist. Roboti nimi on Jennifer ja ta asendab sadu inimesi, kes oleks muidu teinud seda ise – helistanud ja püüdnud veenda inimesi valima kindlat kandidaati. Seda peetakse väga hea lahenduseks eriti olukorras, mil oli vaja leida palju taolisi töötajaid ja kiirelt. Kõnerobotit kiidetakse ka sellepärast, et ta oskab vastata küsimustele üsna täpselt ja ausalt.
Aga võimalus, et AI laiendab oma kohalolekut erinevates valimiskampaaniates, pani juriste välja töötama seadusraamistikku, mis kaitseks nii valijaid, kui ka kandidaate vale ja kallutatud sisu eest. -
Tuhanded valijad USAs said enne New Hampshire’i jaanuarikuu eelvalimisi AI loodud võlts-Bideni telefonikõne. Millise karistuse sai robotkõne-skeemi loonud mees?
AI chatbot got election got election info wrong 30 percent of time, European study finds
2023. a detsembris ilmunud artiklis soovitatakse mitte küsida juturobotitelt infot valimiste ja kandidaatide kohta, isegi kui vastused ja nendes toodud allikad paistavad olevat usaldusväärsed.
Uurijate luubi all oli Microsoft Bingi juturobot, mis on tuntud ka Microsoft Copiloti nime all; tema kandidaatide kohta pakutud tulemused olid ebatäpsed või vastused ebakorrektsed proportsioonis üks kolmest.
OpenAI ChatGPT, Microsoft Bing ja Google Bard on kasutajate seas väga populaarsed seetõttu, et kuna juturobotite vastustes on olnud hulk valeinfot ja ebatäpsusi, on nende arendajad lisanud vastusesse tsiteerimisfunktsiooni. Kuid isegi see ei ole olukorda päästnud ning suuremaid ja väiksemaid apsakaid tuleb endiselt ette.
Millised need ebatäpsused on? Näiteks pakuvad juturobotid vastustes valimiste toimumise valet kuupäeva, mitteajakohaseid eeltulemusi ja küsitlustulemusi, vanu nimekirju kandidaatidega, kes enam ei osale jne. Veel üks näide: kui Bingi robotilt küsiti kordamööda erinevaid fakte Bideni ja Trumpi kohta, siis nii mõnedki vastused olid valed. Tähtis on rõhutada: info võib olla tõene, kuid aegunud ehk ei ole meie jaoks enam aktuaalne, aga võib olla ka täielik väljamõeldis.
The top tech trends in 2024 to watch
Paljude tehisintellekti innustatud suundumuste hulgas on mõned otseselt seotud suure valimisaastaga, näiteks USA iduettevõtte Delphi projekt Chat2024, mis võimaldab esitada juturobotile küsimusi poliitika, poliitikute ja kandidaatide kohta. Robotit on õpetatud osalejate kõnede, intervjuude ja transkribeeritud videote toel, kuid kindlasti ei tohi huviline loobuda omaenda analüüsist.
Vähemalt üks poliitik, Shamaine Daniels, on hakanud kasutama tehisintellektil põhinevat robotit, mis suhtleb valijatega varemkirjutatud vestluste põhjal.
-
Tõepoolest ‒ oleme praeguseks juba mõnes mõttes harjunud teadmisega, et tehisintellekt suudab luua võltspilte, kuid selles artiklis väidetakse, et tehistaipu võib kasutada ka sihtrühma määratlemiseks, et jõuda potentsiaalsete valijateni.
Asutuse Centre for Public Impact aruanne toob näiteks 2016. a valimised ning kuidas Cambridge Analytica kogutud andmed võimaldasid potentsiaalsetel valijatel saada sihitud reklaami, mis põhines igaühe sotsiaalmeedia kasutamise hindamisel ehk individuaalsel psühholoogial. Võib oletada, et varsti võib leida uusi näiteid tehisintellekti rakendamisest sama eesmärgi nimel.
Kui varasemalt on pigem räägitud kahjudest, mida tehisintellekti roll valimistel võiks kaasa tuua, siis siinses artiklis rõhutatakse selle kasule. Nimelt on tehistaibu abiga võimalik modelleerida nn alternatiivset ajalugu, ehk keda valijad eelistavad kandidaatide hulgast sõltuvalt sellest, mis infot nad tarbivad. Modelleerides, kuidas valijad saavad infot kätte, on võimalik ennustada, mis tulemuseni see viib. Lühidalt öeldes luuakse mitu stsenaariumi ajaloo arengust lähitulevikus, mille abil saab hiljem paremini hinnata riske ja ohtusid n-ö üle-maailmse valimispäeva eel.
-
A parody ad shared by Elon Musk clones Kamala Harris’ voice, raising concerns about AI in politics
Juuli lõpus postitas Ilon Musk oma X kontol video, milles keegi, kes näeb väga palju nagu Kamala Harris, räägib imelikku juttu. Postituse autor oli väga rõõmus selle video üle, kus oligi näha päris Kamala Harris, ent heli oli vahetatud. Helirida on tõenäoliselt genereeritud tehisintellekti abil ja video on päris video, mida Harris on avalikustanud oma poliitilise kampaania raames. Siinjuures on õige korrata seda, et hea süvavõltsing on selline, milles osa on päris ja osa on võlts ja see eksitabki vaatajat.
AI is finding its voice and that’s bad for democracy
Artikkel algab küsimusega, kuidas teie reageeriksite, kui kuuleksite tuttavat poliitikut rääkimas veidrat juttu? Mis tundeid see teis tekitaks ja kuidas mõjuks?
Uued sünteesitud hääled on, nagu arvata võib, tehisintellekti toodang. Tehistaipu õpetatakse erinevate häälte näitel ning talle antakse ette tekst, mida ta peab rääkima. Joe Bideni ja Donald Trumpi hääled on juba loodud ning kui soovite kasutada kellegi teise häält, mida pole veel loodud, siis loovad osavad tegijad selle teile lühikese ajaga ning võrdlemisi väikese tasu eest.
Microsoft väidab, et programm VALL-E on samuti võimeline looma kindlat häält ning seda kiiresti, valides oma n-ö raamatukogust võimalikult sarnase ehk siis päris häälele lähedase hääle.
Õnneks pole VALL-E teenused veel avalikult kättesaadavad ning teine ressurss, Resemble AI, vajab reaalse inimese antud nõusolekut salvestatud hääle kloonimiseks.
Uuel OpenAI tehisarul kulub inimhääle kloonimiseks vähem kui minut
Artikli tutvustusest loeme järgmist: “Ettevõte OpenAI hiljuti esitletud tehisaru suudab jäljendada inimhäält heal tasemel juba 15 sekundit kestva õpiprotsessi järel. Üheskoos ChatGPT veenmisoskusega ootavad inimeste reaalsustaju ja kriitilist mõtlemist tõsised väljakutsed, nendib R2 tehnikakommentaaris Kristjan Port”.
Scammers can use AI tools to clone the voices of you and your family—how to protect yourself
Jätkates inimhäälte jäljendamise teemat pakume teile paar soovitust, kuidas kaitsta ennast võltskõnede eest. Pärast seda, kui robot helistas valijatele Joe Bideni nimel, hakati sellele teemale palju rohkem tähelepanu osutama. Esimene asi, kui teile helistab otsekui keegi tuttav, kes on mures ja/või hädas, ja küsib kohe abi, proovige jääda ise rahulikuks ning kontrollida üle, kas see on päriselt teie tuttav/sugulane/sõber. Kui olete kindlaks teinud, et see pole õige inimene, katsuge mitte midagi rääkida. Sest isegi paar sõna “Hmm, ma ei tea, ei…” on piisavalt palju materjali tehisarul põhinevale programmile, et teie häälega hiljem manipuleerida või isegi kloonida seda.
-
Sora on AI mudel, mis oskab luua realistlikke ja kujuteldavaid stseene teksti käskude põhjal. Miks? AI-d õpetatakse matkima päris elu selleks, et aidata inimesi lahendada probleeme, mis oleks muidu vajanud suhtlust päris eluga.
Video peamised omadused:
– väga täpsed, kõrge resolutsiooniga tehtud;
– igas keskkonnas: linnas, looduses, transpordis;
– õnnestunud mitmeplaanilised formaadid, nagu nt inimese peegeldus, rahvarohked kohad;
– maal ja õhust filmitud, nt vaade saartele droonist;
– päris elu matkivad ja animatsiooni moodi tehtud videod;
– detailirohked, nt inimene sööb burgerit ning jätab oma hambajäljeid kuklile;
– mudel analüüsib mitte ainult käsku, vaid hindab ka, kas see asi on päris elus olemas.
Sora on tänaseks avatud vaid valitud seltskonnale, sh graafikutele ja kunstnikele, et tagasisidestada Sorat. Praegu avalikustati info platvormi kohta selleks, et inimestel oleks aimu, mida AI on võimeline teha. Kuid on teatud asju, mida see ei suuda veel teha, ehk sellel on oma nõrkused, nt füüsika osas. Ühel videol oli inimene tagurpidi jooksmas jõusaalis. Open AI arendajad hindavad ka Soraga seotud ohtusid ning peavad nõu ekspertidega, mõistes sealhulgas ka ohte seoses vale- ja desinfoga. Arendatakse ka programme, mis suudaksid manipuleeritud sisu ära tunda.
-
Google studied Gen Z. What they found is alarming (juuni 2024)
Uuring pakub ülevaate Z-generatsiooni meediatarbimise harjumustest: kuidas nad suhtuvad peavoolumeediasse ja klikisöötudesse; mida tähendab olla üles kasvanud tühistamise kultuuri tõusul; kas pikad tekstid on möödunud ajastu, ja miks tavakasutajate kommentaarid on endiselt populaarsed.
How social media is making young people accidental election influencers (juuni 2024)
BBC artiklis tõstatakse suunamudijate rolli valimise ajal ja valimisprotsessis ja uuritakse kõigepealt TikToki kontosid, mille videod on läinud viraalseks lühikese ajaga. Suunamudijad, kes tihtilugu ei ole veel jõudnud valimiseani, jagavad oma mõtteid ja arvamusi kandidaatide suhtes ning selgitavad, mis on nende jaoks tähtis, meeldiv või vastuvõetamatu ühe või teise poliitiku kavas. Sellest, kuidas suunamudijad ja tavakasutajad mõjutavad valimisi, aga ka sotsiaalmeedia toimimisest – uuritakse selles artiklis.
Is this really the TikTok general election? (juuni 2024)
Kuigi TikTok ei aktsepteeri tasustatud poliitilist reklaami, ei tähenda see, et poliitilise sisuga videod selles keskkonnas ei ilmu. Mõned parteid on jaganud TikTokis videoid, kus tavainimesed kommenteerivad selle partei tegusid ja arenguid. Samas ilmub üsna palju kallutatud, manipuleeriva või lausa valeinfot täis sisuga videoid. TikToki jt sotsiaalmeedia keskkondade toimimisest ja tasustatud reklaamist – selles BBC artiklis.
-
Far-right parties employed generative AI ahead of European Parliament elections
Enne EL valimisi möödunud aasta juunis kasutasid parempoolse koalitsiooniga “Identity and Democracy” (edasi – ID) seotud parteid tehisintellekti võimeid oma valimiskampaaniate tarbeks. DFRLab leidis, et ID on tehistaipu kasutanud vähemalt 2023.a sügisest saadik. Genereeritud pildid levisid siis sotsiaalmeedias ja nendel piltidel olid kajastatud immigrandid, kes “vallutavad” Euroopa Liitu, põllumeeste protestid või tuntud poliitikud ebasobivas valguses. Peaaegu kõik postitused ei vastanud käitumiskoodeksile, mille kohaselt peab näiteks tehisaru genereeritud pilte vastavalt tähistama.
Riikidele suunatud soovitused tegevusteks, mis peaks vähendama valimiste mõjutamise riski. Eestile soovitatakse investeerida faktidel põhinevasse ajakirjandusse ja muudesse desinformatsiooni vastupanuvõime suurendamise programmidesse, mis on mõeldud nende ühiskonnakihtide jaoks, kellel on kõige suurem oht sattuda mõjukampaaniate sihtmärgiks.
Selles artiklite seerias kirjeldab EUvsDisinfo, milliseid tehnikaid Venemaa kasutab Euroopa Parlamendi valimiste mõjutamiseks.
Elections are battlefields for the Kremlin: go after the leaders
Elections are battlefields for the Kremlin: Sow distrust and discontent
Elections are battlefields for the Kremlin: Flooding the information space- Liidrite ründamine/halvustamine kasutades selleks erinevaid võtteid.
- Segaduse ja kahtluste tekitamine.
- Inforuumi üleujutamine
- Jätkub…
Pro-Russian Facebook ads spread to target Italy, Poland elections
Enne Euroopa Parlamendi valimisi levivad sotsiaalmeedias desinfokampaaniad.Russian disinformation against Ukraine heightens ahead of EU parliamentary elections
Euroopa Parlamendi valimistega seoses võimendab Venemaa oma desinformatsiooni ja propagandataktikat, et kallutada avalikku arvamust Ukraina vastu ja venemeelsete kandidaatide kasuks. Peamisteks sihtmärkideks on tõenäoliselt Prantsusmaa ja Saksamaa.
Inside Google’s Plans to Combat E.U. Election Misinformation
Google avaldab mitmeid videoid, et hoiatada valijaid valimiste ajal levivate infomanipulatsioonide eest.
Disinformation ahead of the EU Parliamentary Elections: A snapshot from Bulgaria, Germany, and Italy
Fookuses on vale- ja desinformatsioon, mis oli loodud selleks, et lõhestada Euroopa ühiskonda Ukrainat ja ukrainlasi puudutavates küsimustes. Millega peab arvestama on see, et mõnes riigis (nt Saksamaal) ei leia need narratiivid laialdast toetust rahva seas, kuid nende levik on päris aktiivne. Ning mõnel riigil (nt Itaalial) on pikaajalised head suhted Venemaaga, mille liider “kaitseb traditsioonilisi väärtusi” (ehk siis manipuleeritakse mõistega “traditsiooniline suur kultuur”, mis omab veidi erinevad tõlgendusi Itaalias ja Venemaal). Mõni riik (nt Bulgaaria) on vastuvõtlikum vale- ja desinfo suhtes oma ajalooarengu tõttu.
Kaks aastat täiemahulise sõja algusest on möödas, kuid sõjapõgenike vastased narratiivid ei vaibu, vastupidi – enne valimisi vale- ja desinfo levik hakkas kasvama.
Sarnase sisuga levivad vale- ja desinfo narratiivid:
(NB! Tegemist on vale- ja desinfo näidetega, mis ei vasta tõele ja millele pole tõestust)– Ukraina sõjapõgenikud on rikkad ja rikutud;
– Ukraina sõjapõgenikud saavad suuremat sotsiaaltoetust, kui kohalik rahvas;
– Ukraina sõjapõgenikud põhjustavad uue Covidi pandeemia, kuna nad pole efektiivselt vaktsineeritud;
– Vene väed on Ukraina omadest tugevamad, nii et Ukraina kaotus on paratamatu;
– Ukraina ja lääs on ise süüdi sõjas ning selles, et sõda jätkub.
Olulist rolli antakse eelnevatele tegudele, töödele, paljastamistele, ehk tegevustele põhjustega, mitte tagajärgedega. Inglise keeles kasutatakse selle kohta väljendit “pre-bunk”, mis tähendab, et inimesi õpetatakse märkama valeinfot enne, kui nad kogevad seda. Ja seda saab kasutada mitte ainult inimeste, vaid asutuste ja riikide puhul.
-
Õpi mänguliselt tundma valimiste protsessi ning argumentide, faktide ja otsuste rolli selles.
Noorte valijate mõju ja teadlikkuse suurendamine: 2024. aasta EP valimistele suunatud õppematerjal. EDUbox on tasuta õppevahend, mis võimaldab õpetajatel töötada konkreetse haridustaseme ja mitme võtmepädevuse nimel.
Võimalus teada saada valimistel antud hääle teekond. Selles osas kutsutakse õpilasi üles suurendama 3 erinevat aspekti, nimelt poliitiline visioon, poliitiline kommunikatsioon ja poliitiline süsteem. Seejärel valitsuse moodustamine, poliitilised valikud ning otsuste tegemise väljakutse ja ootamatud stsenaariumid.
Rahvusraamatukogu meediapädevuse spetsialistid tegutsevad selle nimel, et inimesed oleksid meediateadlikud. Kui vajate täiendavat infot, nõuannet või soovitust, palun võtke meiega ühendust: [email protected].
Sündmused
Vaata veelTehisaru kahjustab keskkonda: tõde või vale?
- 16. september–14. oktoober
- rara.ee
Meediahariduse konverents 2024: kuidas orienteeruda info virvarris?
- 24. oktoober kell 9.30–17.30
- ESTONIA Resort Hotel & Spa konverentsikeskus, A. H. Tammsaare pst 6, Pärnu
Meediakirjaoskus raamatukogutöötajatele
- Kokkuleppel
- RaRa väike maja
Videod
Vaata veelProgrammid
Vaata veelSeljata tehisintellekt!
- 29.10 10:10-11:10
- RaRa väike maja (Narva mnt 11)
UUS! Pakett: Gümnaasiumiklassidele “Infolabürint – eluks valmis?!” (10.- 12. klass)
- 12.11 10:00-13:00
- Kutsu RaRa kooli!
Libastudes libauudistele (7.–12. klass)
- 28.11 10:15-11:00
- RaRa väike maja (Narva mnt 11)