AI Deepfakes ateitis: 3 tikri šios besivystančios technologijos pavojai

AI Deepfakes ateitis: 3 tikri šios besivystančios technologijos pavojai
Tokie skaitytojai kaip jūs padeda palaikyti MUO. Kai perkate naudodami nuorodas mūsų svetainėje, galime uždirbti filialų komisinius. Skaityti daugiau.

Anksčiau buvo nesunku pastebėti įspėjamuosius giliai suklastoto vaizdo ženklus, tačiau generuojantis AI verčia mus suabejoti beveik viskuo, ką dabar matome ir girdime. Su kiekvienu nauju išleidžiamu dirbtinio intelekto modeliu įspėjamieji netikro vaizdo ženklai mažėja, o kad dar labiau padidintumėte painiavą, dabar galite per kelias sekundes kurti netikrus vaizdo įrašus, savo artimųjų balso klonus ir sukurti netikrus straipsnius.





DIENOS VAIZDO ĮRAŠO PAGALBA SLĖKITE, KAD TĘSITE SU TURINIU

Kad neapgautumėte dirbtinio intelekto klastotės, verta žinoti, kokį pavojų jie kelia.





kaip įjungti „Mac“

Deepfakes evoliucija

Deepfake rodo, kad žmogus daro tai, ko niekada nebuvo realiame gyvenime. Tai visiškai netikra. Mes juokiamės iš gilių klastotės, kai jais dalijamasi internete kaip memu ar pokštu, tačiau tik nedaugeliui žmonių būna juokinga, kai jie įpratę mus suklaidinti.





Anksčiau gilios klastotės buvo kuriamos darant esamą nuotrauką ir ją pakeičiant vaizdo redagavimo programine įranga, pvz., „Photoshop“. Tačiau AI gilus klastotė išsiskiria tuo, kad ją galima sugeneruoti nuo nulio naudojant giluminio mokymosi algoritmus.

The Merriam-Webster žodynas Deepfake apibrėžia taip:



Vaizdas arba įrašas, kuris buvo įtikinamai pakeistas ir manipuliuojamas siekiant klaidingai įsivaizduoti, kad kažkas daro ar sako tai, kas iš tikrųjų nebuvo padaryta ar pasakyta.

Tačiau tobulėjant dirbtinio intelekto technologijoms, šis apibrėžimas pradeda atrodyti pasenęs. Naudojant AI įrankius, gilieji klastotės dabar apima vaizdus, ​​​​tekstą, vaizdo įrašus ir balso klonavimą. Kartais vienu metu naudojami visi keturi AI generavimo režimai.





Kadangi tai automatizuotas procesas, kurio naudojimas yra neįtikėtinai greitas ir pigus, tai yra puikus įrankis, leidžiantis padirbinėti gilias klastotes tokiu greičiu, kokio dar nematėme – ir nereikia žinoti nė vieno dalyko, kaip redaguoti nuotraukas, vaizdo įrašus ar garso įrašus. .

Didieji AI Deepfakes pavojai

Šeimininkas AI vaizdo generatoriai jau egzistuoja, kartu su daugybe AI balso generatoriai . Mesti a didelis kalbos modelis, pvz., GPT-4 ir jūs turite receptą, kaip sukurti labiausiai tikėtinus padirbinius, kokius iki šiol matėme šiuolaikinėje istorijoje.





Žinojimas apie įvairius AI giluminius klastojimus ir tai, kaip jie gali būti panaudoti jus apgauti, yra vienas iš būdų išvengti klaidinimo. Štai tik keli rimti pavyzdžiai, kaip dirbtinio intelekto giluminio padirbinėjimo technologija kelia realią grėsmę.

1. AI tapatybės vagystė

Galbūt jūs juos matėte. Tarp pirmųjų tikrai virusinių dirbtinio intelekto klastočių, pasklidusių visame pasaulyje, buvo suimto Donaldo Trumpo atvaizdas ir vienas popiežiaus Pranciškaus baltu pūkuotu švarku.

  AI sugeneravo popiežiaus Pranciškaus atvaizdą pūkuota striuke, paskelbtą „Reddit“ forume „Midjourney“.

Nors atrodo, kad nekaltas pergalvojimas apie tai, ką garsus religinis veikėjas gali apsirengti vėsią dieną Romoje; kitas vaizdas, kuriame pavaizduotas politinis veikėjas, atsidūręs rimtoje padėtyje su įstatymu, turi daug didesnių pasekmių, jei laikomas tikru.

Iki šiol kurdami dirbtinio intelekto klastotes žmonės daugiausia taikėsi į įžymybes, politinius veikėjus ir kitus žinomus asmenis. Iš dalies taip yra todėl, kad žinomi asmenys internete turi daugybę jų nuotraukų, kurios greičiausiai padėjo išugdyti modelį.

Jei naudojamas dirbtinio intelekto vaizdų generatorius, pvz., „Midjourney“, naudojamas tiek Trumpo, tiek popiežiaus klastojimuose, vartotojas tiesiog turi įvesti tekstą, apibūdinantį tai, ką jis nori matyti. Raktažodžiai gali būti naudojami norint nurodyti meno stilių, pvz., nuotrauką ar fotorealizmą, o rezultatus galima patikslinti padidinus skiriamąją gebą.

Taip pat lengvai galite išmokti naudoti Midjourney ir išbandykite tai patys, tačiau dėl akivaizdžių moralinių ir teisinių priežasčių turėtumėte vengti viešai skelbti šiuos vaizdus.

Deja, būdami vidutiniu, neįžymiu žmogumi, taip pat negarantuosite, kad esate apsaugoti nuo dirbtinio intelekto padirbinėjimo.

Problema kyla dėl pagrindinės funkcijos, kurią siūlo AI vaizdo generatoriai: galimybė įkelti savo vaizdą ir manipuliuoti juo naudojant AI. Ir toks įrankis Dažymas DALL-E 2 gali išplėsti esamą vaizdą už jo ribų, įvesdami teksto raginimą ir aprašydami, ką dar norėtumėte sugeneruoti.

Jei kas nors kitas tai padarytų su jūsų nuotraukomis, pavojai gali būti žymiai didesni nei popiežiaus su balta striuke padirbinėjimas – jie gali jį naudoti bet kur, apsimesdami jumis. Nors dauguma žmonių dirbtinį intelektą paprastai naudoja turėdami gerų ketinimų, yra labai nedaug apribojimų, neleidžiančių žmonėms jį naudoti siekiant pakenkti, ypač tapatybės vagystės atvejais.

2. Deepfake Voice Clone sukčiai

Su dirbtinio intelekto pagalba gilieji klastotės peržengė ribą, kuriai dauguma iš mūsų nebuvo pasiruošę: netikri balso klonai. Turėdamas nedidelį originalaus garso kiekį – galbūt iš „TikTok“ vaizdo įrašo, kurį kažkada paskelbėte, arba „YouTube“ vaizdo įrašą, kuriame rodomas – AI modelis gali atkartoti jūsų vienintelį balsą.

Neįtikėtina ir baisu įsivaizduoti, kad sulaukia telefono skambučio, kuris skamba kaip šeimos narys, draugas ar kolega. Deepfake balso klonai kelia pakankamai rimtą susirūpinimą, kad Federalinė prekybos komisija (FTC) paskelbė apie tai įspėjimą.

Nepasitikėk balsu. Paskambinkite asmeniui, kuris tariamai su jumis susisiekė, ir patikrinkite istoriją. Naudokite telefono numerį, kurį žinote, kad tai yra jų. Jei negalite susisiekti su savo mylimuoju, pabandykite susisiekti su juo per kitą šeimos narį ar jo draugus.

„The Washington Post“ pranešė atvejis, kai 70-ies metų pora sulaukė telefono skambučio iš žmogaus, kuris skambėjo kaip jų anūkas. Jis buvo kalėjime ir jam skubiai reikėjo pinigų už užstatą. Neturėdami jokios kitos priežasties abejoti, su kuo jie kalbėjosi, nuėjo į priekį ir perdavė pinigus sukčiui.

Rizika kyla ne tik vyresniajai kartai, „The Guardian“ pranešė Kitas pavyzdys, kai banko vadovas patvirtino 35 milijonų dolerių sandorį po daugybės „netikrų skambučių“ iš asmens, kuris, jų manymu, buvo banko direktorius.

3. Masiškai gaminamos netikros naujienos

Dideli kalbiniai modeliai, pvz ChatGPT labai, labai gerai kuria tekstą, kuris skamba kaip žmogus, ir šiuo metu neturime veiksmingų priemonių skirtumui pastebėti. Netinkamose rankose netikros naujienos ir sąmokslo teorijos bus pigios, o jų demaskavimas užtruks ilgiau.

Dezinformacijos skleidimas, žinoma, nėra naujiena, bet mokslinis darbas paskelbta arXiv 2023 m. sausio mėn. paaiškina, kad problema yra ta, kaip lengva padidinti išvestį naudojant AI įrankius. Jie tai vadina „AI sukurtomis įtakos kampanijomis“, kurias, jų teigimu, galėtų, pavyzdžiui, panaudoti politikai, kad galėtų vykdyti savo politines kampanijas.

Sujungus daugiau nei vieną AI sukurtą šaltinį sukuriamas aukšto lygio gilus klastojimas. Pavyzdžiui, dirbtinio intelekto modelis gali sukurti gerai parašytą ir įtikinamą naujienų istoriją, kuri atitiktų netikrą suimto Donaldo Trumpo įvaizdį. Tai suteikia jam daugiau teisėtumo, nei tuo atveju, jei vaizdas būtų bendrinamas atskirai.

Netikros naujienos taip pat neapsiriboja vaizdais ir raštu, AI vaizdo įrašų generavimo raida reiškia, kad matome daugiau netikrų vaizdo įrašų. Štai vienas iš Robert Downey Jr., įskiepytas į Elono Musko vaizdo įrašą, kurį paskelbė „YouTube“ kanalas „Deepfakery“.

Deepfake sukurti gali būti taip paprasta, kaip atsisiųsti programą. Galite naudoti tokią programą kaip „TokkingHeads“, kad nejudančius vaizdus paverstų animuotais avatarais , kuri leidžia įkelti savo vaizdą ir garso įrašą, kad atrodytų, jog asmuo kalba.

Daugeliu atvejų tai yra linksma ir smagu, tačiau taip pat gali kilti problemų. Tai parodo, kaip lengva panaudoti kieno nors įvaizdį, kad atrodytų, jog tas asmuo ištarė žodžius, kurių niekada nekalbėjo.

Neapsigaukite dirbtinio intelekto klastočių

Deepfakes galima greitai įdiegti už labai mažą kainą ir nedidelę kompetenciją ar skaičiavimo galią. Jie gali būti sugeneruoto vaizdo, balso klono arba dirbtinio intelekto sukurtų vaizdų, garso ir teksto derinio formos.

Anksčiau sukurti gilią klastotę buvo daug sudėtingiau ir daug darbo reikalaujaniau, tačiau dabar, kai yra daugybė AI programų, beveik kiekvienas turi prieigą prie įrankių, naudojamų kuriant gilius klastotes. AI giliai padirbinėjimo technologijai vis tobulėjant, verta atidžiai stebėti jos keliamus pavojus.