„Facebook“ kuria savo dirbtinio intelekto klastotes, kad išvengtų dezinformacijos katastrofos

Šalia esantys originalaus vaizdo įrašo ir padirbto vaizdo vaizdai.

Šalia esantys originalaus vaizdo įrašo ir padirbto vaizdo vaizdai. Facebook





„Facebook“ baiminasi, kad dirbtinio intelekto sukurti netikri vaizdo įrašai gali būti kitas didelis virusinės dezinformacijos šaltinis, plintantis tarp vartotojų ir galinčių sukelti katastrofiškų pasekmių kitiems JAV prezidento rinkimams.

Jo sprendimas? Sukuria daug savo gilių klastočių, kad padėtų tyrėjams sukurti ir tobulinti aptikimo įrankius.

„Facebook“ nurodė savo dirbtinio intelekto tyrėjų komandai sukurti daugybę labai tikroviškų netikrų vaizdo įrašų, kuriuose aktoriai daro ir sako įprastus dalykus. Šie klipai bus naudojami kaip duomenų rinkinys giliųjų klastotės aptikimo įrankių testavimui ir palyginimui. „Facebook“ padirbiniai bus išleisti didelėje AI konferencijoje metų pabaigoje.



Giliųjų klastočių atsiradimą lėmė pastarojo meto mašininio mokymosi pažanga. Kino studijos jau seniai galėjo manipuliuoti vaizdais ir vaizdo įrašais naudojant programinę įrangą ir kompiuterius, o algoritmai, galintys užfiksuoti ir atkurti žmogaus panašumą, jau buvo naudojami kuriant žymeklio ir spustelėjimo įrankius, skirtus įklijuoti žmogaus veidą ant kito asmens. .

Egzistuoja suklastotų laikmenų aptikimo metodai, tačiau jie dažnai apima kruopščią ekspertų analizę. Įrankiai, leidžiantys automatiškai gaudyti gilius padirbinius, dar tik atsiranda.

„Facebook“ technologijų vadovas Mike'as Schroepferis teigia, kad padirbinėjimai sparčiai plinta, todėl labai svarbu sukurti geresnius būdus pažymėti ar blokuoti galimus padirbinius.



Mes dar nemanėme, kad tai yra didžiulė mūsų platformų problema, bet darau prielaidą, kad jei padidinsite prieigą – padarysite pigesnį, lengvesnį ir greitesnį šių dalykų kūrimą – tai akivaizdžiai padidina riziką, kad žmonės tai naudos kokiu nors piktybiniu būdu, Schroepfer. , kuris vadovauja iniciatyvai, vakar sakė. Nenoriu atsidurti tokioje situacijoje, kai tai yra didžiulė problema ir mes neinvestavome didelių sumų į mokslinius tyrimus ir plėtrą.

Lygindamas pastangas su kova su el. pašto šiukšlėmis, Schroepferis teigė, kad „Facebook“ gali nepavykti sugauti pačių sudėtingiausių padirbinių. Mes sugausime akivaizdžius, sakė jis. Tačiau jis sakė, kad „Facebook“ kol kas netaiko jokių metodų, nes klastotės taip greitai tobulėja.

Socialinis tinklas skirs 10 milijonų JAV dolerių aptikimo technologijai finansuoti per dotacijas ir iššūkių prizus. Kartu su Microsoft, Partnerystė dėl AI ir mokslininkai iš institucijų, įskaitant MIT, UC Berkeley ir Oksfordo universitetą, bendrovė pradeda Deepfake Detection Challenge , kuriame bus pasiūlytas nenurodytas piniginis atlygis už geriausius aptikimo būdus.



Norint sukurti gilią klastotę, paprastai reikia dviejų vaizdo klipų. Algoritmai išmoksta kiekvieno veido išvaizdą, kad įklijuotų vieną ant kito, išlaikydami kiekvieną šypseną, mirksėjimą ir linktelėjimą. Įvairūs AI metodai taip pat gali būti naudojami norint atkurti konkretaus asmens balsą. Terminas „deepfake“ paimtas iš „Reddit“ vartotojo, kuris 2017 m. išleido tokį įrankį. Tai reiškia gilųjį mokymąsi, naudojamą AI techniką.

Vienas iš didžiausių rūpesčių yra tai, kad giliosios klastotės gali būti naudojamos labai užkrečiamai dezinformacijai paskleisti per kitų metų JAV rinkimus, o tai galbūt net pakenktų rezultatams. Keletas JAV senatorių paskelbė pavojaus signalą dėl grėsmės, o Benas Sasse'as (R–Nebraska) pateikė įstatymo projektą, kuriuo būtų uždrausta kurti ar platinti gilias klastotes, turinčias piktų kėslų. Neseniai pranešimas apie rinkimų dezinformaciją iš NYU įvardija, kad klastotės yra vienas iš kelių pagrindinių 2020 m. rinkimų iššūkių.

Tiesą sakant, manipuliuoti vaizdo įrašai jau plinta socialinėse platformose. Šių metų pradžioje „Facebook“ greitai išplito klipas, kuriame buvo parodyta, kaip Nancy Pelosi nerišliai kalba (padaryta tiesiog sulėtinus filmuotą medžiagą). Bendrovė atsisakė pašalinti tą įrašą arba Marko Zuckerbergo klastotę, o pasirinko klipus pažymėti kaip netikrus faktus tikrinančiose organizacijose.



Prasminga, kad „Facebook“ bandytų išspręsti šią problemą, ypač po paskutinių prezidento rinkimų. Kai paaiškėjo politinės dezinformacijos kampanijų detalės, „Facebook“ sulaukė intensyvios kritikos, kad leido tokiai propagandai plisti.

Vis dėlto „deepfake“ iššūkio reklamavimas gali turėti nenumatytų pasekmių. Henry Ajder, Nyderlandų bendrovės „Deeptrace“, kuri dirba su įrankiais, leidžiančiais aptikti suklastotus klipus, analitikas pažymi, kad pasakojimas apie gilius klastojimus gali pasiūlyti politikams būdą išvengti atsakomybės, teigdamas, kad buvo suklastota tikra informacija (dar kartą žr. ). Ajder sako, kad vien gilių padirbinėjimo idėja jau sukelia daug problemų. Tai politinės sferos virusas, užkrėtęs politikų ir piliečių protus.

Be to, nepaisydamas pavojaus, Ajderis, sekantis padirbinius laukinėje gamtoje, abejoja, ar technologija kurį laiką bus panaudota politiniams tikslams. Jis mano, kad tai greičiau taps galingu elektroninio persekiojimo ir patyčių įrankiu.

Jau yra keletas gilių klastotės aptikimo būdų. Paprasti metodai apima vaizdo įrašo failo duomenų analizę arba signalinių burnos judesių ir mirksėjimo paiešką, o tai algoritmui sunkiau užfiksuoti ir sukurti iš naujo.

Metodas, kurį neseniai sukūrė pirmaujančių ekspertų grupė, apima gilaus mokymosi algoritmo mokymą, kad būtų galima atpažinti konkretų žmogaus galvos judėjimo būdą, nes tai nėra kažkas, ko algoritmai paprastai išmoksta.

Šis metodas atsirado per kitas pastangas sukurti aptikimo įrankius , kurias finansuoja Gynybos pažangių tyrimų projektų agentūra (DARPA).

Daugelis ekspertų buvo nustebinti ir sunerimę dėl AI klastojimo spartos. Tik šią savaitę kinų programa, pavadinta Zao, sukėlė diskusijas paskelbdama netikrus vaizdo įrašus, tariamai sukurtus iš nejudančio vaizdo. Hao Li , vizualinių efektų menininkas ir Pietų Kalifornijos universiteto docentas, perspėjo, kad netrukus gali būti įmanoma masiškai gaminti neaptinkamus „deepfake“ klastotes (žr.

paslėpti