Cuprins:

Falsuri profunde: Neuroset a fost învățat să genereze falsuri de sunet și video
Falsuri profunde: Neuroset a fost învățat să genereze falsuri de sunet și video

Video: Falsuri profunde: Neuroset a fost învățat să genereze falsuri de sunet și video

Video: Falsuri profunde: Neuroset a fost învățat să genereze falsuri de sunet și video
Video: Off Grid AC / SOLAR / TINY HOUSE! Powered By Jackery 1000 2024, Aprilie
Anonim

Pentru a crea o imagine de știri „individuală” pentru oricare dintre noi și pentru a falsifica reportajele media selectate în ea, eforturile unui programator sunt suficiente astăzi. Specialiștii în inteligență artificială și securitate cibernetică au povestit Izvestiei despre acest lucru.

Mai recent, au estimat că acest lucru a necesitat munca mai multor echipe. O astfel de accelerare a devenit posibilă odată cu dezvoltarea tehnologiilor pentru atacuri asupra rețelelor neuronale și generarea de falsuri audio și video folosind programe pentru crearea de „falsuri profunde”. Ziarul Izvestia a fost supus recent unui atac similar, când trei portaluri de știri libiene au publicat deodată un mesaj care ar fi apărut într-unul dintre numere. Potrivit experților, în 3-5 ani ne putem aștepta la o invazie a manipulatoarelor robotice, care vor putea în mod automat să creeze o mulțime de falsuri.

O lume nouă curajoasă

Există tot mai multe proiecte care adaptează imaginea informațională la percepția anumitor utilizatori. Un exemplu al muncii lor a fost acțiunea recentă a trei portaluri libiene, care au publicat o știre presupusă publicată în numărul Izvestia din 20 noiembrie. Creatorii falsului au modificat prima pagină a ziarului, postând pe acesta un mesaj despre negocierile dintre feldmareșalul Khalifa Haftar și prim-ministrul Guvernului Acordului Național (PNS) Fayez Sarraj. Falsul, cu caractere Izvestia, a fost însoțit de o fotografie a celor doi lideri făcută în mai 2017. Eticheta cu sigla publicației a fost tăiată din numărul efectiv publicat din 20 noiembrie, iar toate celelalte texte de pe pagină din numărul din 23 octombrie.

Din punctul de vedere al specialiștilor, în viitorul previzibil, astfel de falsificări se pot face automat.

The Truman Show - 2019: Cum au învățat rețelele neuronale să falsifice imaginea de știri
The Truman Show - 2019: Cum au învățat rețelele neuronale să falsifice imaginea de știri

„Tehnologiile de inteligență artificială sunt acum complet deschise, iar dispozitivele pentru primirea și procesarea datelor se miniaturizează și devin mai ieftine”, Yuri Vilsiter, doctor în științe fizice și matematice, profesor al Academiei Ruse de Științe, șef al departamentului FSUE „GosNIIAS” a spus Izvestiei. - Prin urmare, este foarte probabil ca, în viitorul apropiat, nici măcar statul și marile corporații, ci pur și simplu persoane fizice, să ne poată asculta cu urechea și să ne spioneze, precum și să manipuleze realitatea. În următorii ani, va fi posibil, prin analiza preferințelor utilizatorilor, să îl influențezi prin fluxuri de știri și falsuri foarte inteligente.

Potrivit lui Yuri Vilsiter, tehnologiile care pot fi folosite pentru o astfel de intervenție în mediul mental există deja. În teorie, invazia roboților robotici poate fi așteptată în câțiva ani, a spus el. Un punct limitativ aici poate fi nevoia de a colecta baze de date mari de exemple de răspunsuri ale oamenilor reali la stimuli artificiali, cu urmărirea consecințelor pe termen lung. O astfel de urmărire va necesita probabil mai mulți ani de cercetare înainte ca atacurile țintite să fie obținute în mod constant.

Atacul vizual

Alexey Parfentiev, șeful departamentului de analiză la SearchInform, este, de asemenea, de acord cu Yuri Vilsiter. Potrivit acestuia, experții prevăd deja atacuri asupra rețelelor neuronale, deși acum practic nu există astfel de exemple.

- Cercetătorii de la Gartner cred că până în 2022, 30% din toate atacurile cibernetice vor avea ca scop coruperea datelor pe care este antrenată rețeaua neuronală și furtul modelelor de învățare automată gata făcute. Apoi, de exemplu, vehiculele fără pilot pot începe brusc să confunde pietonii cu alte obiecte. Și nu vom vorbi despre riscul financiar sau reputațional, ci despre viața și sănătatea oamenilor obișnuiți, crede expertul.

Atacurile asupra sistemelor de viziune computerizată sunt efectuate acum ca parte a cercetării. Scopul unor astfel de atacuri este de a face rețeaua neuronală să detecteze ceva în imagine care nu există. Sau, dimpotrivă, să nu vezi ce a fost planificat.

The Truman Show - 2019: Cum au învățat rețelele neuronale să falsifice imaginea de știri
The Truman Show - 2019: Cum au învățat rețelele neuronale să falsifice imaginea de știri

„Unul dintre subiectele aflate în curs de dezvoltare în domeniul antrenării rețelelor neuronale este așa-numitele atacuri adverse („atacuri adverse.”- Izvestia)”, a explicat Vladislav Tushkanov, analist web la Kaspersky Lab. - În cele mai multe cazuri, acestea sunt destinate sistemelor de viziune computerizată. Pentru a efectua un astfel de atac, în majoritatea cazurilor, trebuie să aveți acces deplin la rețeaua neuronală (așa-numitele atacuri cu casetă albă) sau la rezultatele activității acesteia (atacuri cu casetă neagră). Nu există metode care să poată înșela orice sistem de viziune computerizată în 100% din cazuri. În plus, au fost deja create instrumente care vă permit să testați rețelele neuronale pentru rezistența la atacurile adverse și să le creșteți rezistența.

În timpul unui astfel de atac, atacatorul încearcă să schimbe cumva imaginea recunoscută, astfel încât rețeaua neuronală să nu funcționeze. Adesea, zgomotul este suprapus pe fotografie, similar cu cel care apare atunci când fotografiați într-o cameră slab iluminată. De obicei, o persoană nu observă bine o astfel de interferență, dar rețeaua neuronală începe să funcționeze defectuos. Dar pentru a efectua un astfel de atac, atacatorul are nevoie de acces la algoritm.

Potrivit lui Stanislav Ashmanov, directorul general al Neuroset Ashmanov, în prezent nu există metode de rezolvare a acestei probleme. În plus, această tehnologie este disponibilă oricui: un programator obișnuit o poate folosi descărcând software-ul open source necesar din serviciul Github.

The Truman Show - 2019: Cum au învățat rețelele neuronale să falsifice imaginea de știri
The Truman Show - 2019: Cum au învățat rețelele neuronale să falsifice imaginea de știri

- Un atac asupra unei rețele neuronale este o tehnică și algoritmi de a înșela o rețea neuronală, care o fac să producă rezultate false și, de fapt, să o spargă ca o încuietoare, - crede Ashmanov. - De exemplu, acum este destul de ușor să faci sistemul de recunoaștere a feței să creadă că nu ești tu, ci Arnold Schwarzenegger în fața lui - acest lucru se realizează amestecând aditivi imperceptibili pentru ochiul uman în datele care vin în rețeaua neuronală. Aceleași atacuri sunt posibile pentru sistemele de recunoaștere și analiză a vorbirii.

Expertul este sigur că se va înrăutăți - aceste tehnologii au ajuns în masă, fraudătorii le folosesc deja și nu există protecție împotriva lor. Deoarece nu există protecție împotriva creării automate de falsuri video și audio.

Falsuri profunde

Tehnologiile deepfake bazate pe Deep Learning (tehnologii de deep learning ale rețelelor neuronale. - Izvestia) reprezintă deja o amenințare reală. Falsurile video sau audio sunt create prin editarea sau suprapunerea fețelor unor oameni celebri care se presupune că pronunță textul necesar și joacă rolul necesar în complot.

„Deepfake vă permite să înlocuiți mișcările buzelor și vorbirea umană cu videoclipuri, ceea ce creează un sentiment de realism a ceea ce se întâmplă”, spune Andrey Busargin, directorul departamentului pentru protecția inovatoare a mărcii și proprietate intelectuală la Group-IB. - Vedetele false „oferă” utilizatorilor de pe rețelele de socializare să participe la tragerea de premii valoroase (smartphone-uri, mașini, sume de bani) etc. Linkurile de la astfel de publicații video duc adesea la site-uri frauduloase și de phishing, unde utilizatorii sunt rugați să introducă informații personale, inclusiv detaliile cardului bancar. Astfel de scheme reprezintă o amenințare atât pentru utilizatorii obișnuiți, cât și pentru persoanele publice care sunt menționate în reclame. Acest tip de escrocherie începe să asocieze imaginile celebrităților cu escrocherii sau bunuri reclame și aici ne confruntăm cu daune personale ale mărcii, spune el.

The Truman Show - 2019: Cum au învățat rețelele neuronale să falsifice imaginea de știri
The Truman Show - 2019: Cum au învățat rețelele neuronale să falsifice imaginea de știri

O altă amenințare este asociată cu utilizarea „voturilor false” pentru frauda telefonică. De exemplu, în Germania, infractorii cibernetici au folosit vocea deepfake pentru a-l determina pe șeful unei filiale din Marea Britanie să transfere de urgență 220.000 EUR într-o conversație telefonică, dându-se drept manager de companie.în contul unui furnizor maghiar. Șeful firmei britanice a bănuit o șmecherie când „șeful” lui a cerut un al doilea mandat de plată, dar apelul a venit de la un număr austriac. Până atunci, prima tranșă fusese deja transferată într-un cont din Ungaria, de unde banii au fost retrași în Mexic.

Se pare că tehnologiile actuale vă permit să creați o imagine individuală de știri plină cu știri false. Mai mult decât atât, în curând va fi posibil să distingem falsurile de video și audio real doar prin hardware. Potrivit experților, măsurile care interzic dezvoltarea rețelelor neuronale sunt puțin probabil să fie eficiente. Prin urmare, în curând vom trăi într-o lume în care va fi necesar să verificăm constant totul.

„Trebuie să ne pregătim pentru asta, iar acest lucru trebuie acceptat”, a subliniat Yuri Vilsiter. - Umanitatea nu este prima dată când trece de la o realitate la alta. Lumea, modul de viață și valorile noastre sunt radical diferite de lumea în care au trăit strămoșii noștri acum 60.000 de ani, acum 5.000 de ani, acum 2.000 de ani și chiar acum 200-100 de ani. În viitorul apropiat, o persoană va fi în mare parte lipsită de intimitate și, prin urmare, va fi forțată să nu ascundă nimic și să acționeze cinstit. În același timp, nimic din realitatea înconjurătoare și din propria personalitate nu poate fi luat cu credință, totul va trebui pus la îndoială și constant reverificat. Dar va fi această realitate viitoare îngrozitoare? Nu. Pur și simplu va fi complet diferit.

Recomandat: