Мазмұны:

Терең фейктер: Neuroset дыбыс және бейне фейктерін жасауды үйретті
Терең фейктер: Neuroset дыбыс және бейне фейктерін жасауды үйретті

Бейне: Терең фейктер: Neuroset дыбыс және бейне фейктерін жасауды үйретті

Бейне: Терең фейктер: Neuroset дыбыс және бейне фейктерін жасауды үйретті
Бейне: Айдың жойылған өркениеті. Наса не туралы үндемейді 2024, Сәуір
Anonim

Біздің кез келгеніміз үшін «жеке» жаңалық картинасын жасау және онда таңдалған БАҚ хабарларын бұрмалау үшін бүгінде бір бағдарламашының күш-жігері жеткілікті. Бұл туралы «Известия» басылымына жасанды интеллект және киберқауіпсіздік саласының мамандары айтты.

Жақында олар бұл үшін бірнеше команданың жұмысын қажет етеді деп есептеді. Мұндай жеделдету нейрондық желілерге шабуыл жасау технологияларын дамыту және «терең фейктерді» жасау бағдарламаларын пайдалана отырып, аудио және бейне фейктерін құру арқылы мүмкін болды. Жақында «Известия» газеті де осындай шабуылға ұшырады, сол кезде ливиялық үш ақпараттық портал бірден бір нөмірде пайда болды деген хабарды жариялады. Сарапшылардың пікірінше, 3-5 жыл ішінде біз робот-манипуляторлардың басып кетуін күтуге болады, олар автоматты түрде көптеген фейктерді жасай алады.

Батыл жаңа әлем

Ақпараттық суретті нақты пайдаланушылардың қабылдауына қарай реттейтін жобалар көбейіп келеді. Олардың жұмысының бір мысалы ретінде 20 қарашада «Известия» санында жарияланған делінетін жаңалықты жариялаған үш ливиялық порталдың жақында әрекеті болды. Фейкті жасаушылар газеттің бірінші бетін өзгертіп, оған фельдмаршал Халифа Хафтар мен Ұлттық келісім үкіметінің (PNS) премьер-министрі Файез Саррадж арасындағы келіссөздер туралы хабарлама жариялады. «Известия» шрифтімен жазылған жалған 2017 жылдың мамыр айында түсірілген екі көшбасшының суретімен бірге болған. Басылымның логотипі бар жапсырма 20 қарашадағы нақты жарияланған нөмірден, ал беттегі барлық басқа мәтіндер 23 қазандағы нөмірден кесілген.

Мамандардың көзқарасы бойынша, жақын болашақта мұндай бұрмалаулар автоматты түрде жасалуы мүмкін.

Трумэн шоуы - 2019: нейрондық желілер жаңалықтар суретін қалай жалған етуге үйретті
Трумэн шоуы - 2019: нейрондық желілер жаңалықтар суретін қалай жалған етуге үйретті

«Жасанды интеллект технологиялары қазір толығымен ашық, ал деректерді қабылдау және өңдеу құрылғылары кішірейтіліп, арзандауда», - Юрий Вильситер, физика-математика ғылымдарының докторы, Ресей ғылым академиясының профессоры, «МемҒЗИ» ФМУИ кафедрасының меңгерушісі, «Известияға». – Демек, таяу болашақта тіпті мемлекет пен ірі корпорациялар емес, жай ғана жеке тұлғалар бізді тыңдап, аңдып, шындықты манипуляциялауы әбден мүмкін. Алдағы жылдары пайдаланушының қалауын талдау арқылы оған жаңалықтар арналары мен өте ақылды фейктер арқылы әсер ету мүмкін болады.

Юрий Вилситердің айтуынша, психикалық ортаға мұндай араласу үшін қолдануға болатын технологиялар қазірдің өзінде бар. Теориялық тұрғыдан алғанда, робот-боттардың шабуылын бірнеше жылдан кейін күтуге болады, деді ол. Бұл жерде шектеулі нүкте ұзақ мерзімді салдарларды бақылай отырып, жасанды ынталандыруға нақты адамдардың жауаптары мысалдарының үлкен деректер қорын жинау қажеттілігі болуы мүмкін. Мұндай бақылау мақсатты шабуылдар дәйекті түрде алынбай тұрып, тағы бірнеше жыл зерттеуді қажет етеді.

Көру шабуылы

SearchInform аналитика бөлімінің басшысы Алексей Парфентьев те Юрий Вилситердің пікірімен келіседі. Оның айтуынша, қазірдің өзінде мұндай мысалдар іс жүзінде жоқ болса да, сарапшылар нейрондық желілерге шабуыл жасауды болжайды.

- Gartner зерттеушілері 2022 жылға қарай барлық кибершабуылдардың 30%-ы нейрондық желі оқытылатын деректерді бүлдіруге және машиналық оқытудың дайын үлгілерін ұрлауға бағытталған деп есептейді. Содан кейін, мысалы, ұшқышсыз көліктер кенеттен жаяу жүргіншілерді басқа нысандармен қателесе бастайды. Ал біз қаржылық немесе беделді тәуекел туралы емес, қарапайым халықтың өмірі мен денсаулығы туралы айтпаймыз, деп есептейді сарапшы.

Қазір зерттеу аясында компьютерлік көру жүйелеріне шабуыл жасалуда. Мұндай шабуылдардың мақсаты нейрондық желіні кескінде жоқ нәрсені анықтауға мәжбүрлеу болып табылады. Немесе, керісінше, жоспарланған нәрсені көрмеу.

Трумэн шоуы - 2019: нейрондық желілер жаңалықтар суретін қалай жалған етуге үйретті
Трумэн шоуы - 2019: нейрондық желілер жаңалықтар суретін қалай жалған етуге үйретті

«Нейрондық желілерді оқыту саласындағы белсенді дамып келе жатқан тақырыптардың бірі – қарсылас шабуылдар (« қарсыластық шабуылдар »- «Известия»)», - деп түсіндірді Владислав Тушканов, Касперский зертханасының веб-сарапшысы. – Көп жағдайда олар компьютерлік көру жүйелеріне бағытталған. Мұндай шабуылды жүзеге асыру үшін көп жағдайда нейрондық желіге (ақ жәшік шабуылдары деп аталатын) немесе оның жұмысының нәтижелеріне (қара жәшік шабуылдары) толық қол жеткізу қажет. Кез келген компьютерлік көру жүйесін 100% жағдайда алдайтын әдістер жоқ. Сонымен қатар, нейрондық желілерді қарсыластық шабуылдарға қарсы тұруды сынауға және олардың қарсылығын арттыруға мүмкіндік беретін құралдар қазірдің өзінде жасалған.

Мұндай шабуыл барысында шабуылдаушы нейрондық желі жұмыс істемейтіндей етіп танылған кескінді өзгертуге тырысады. Көбінесе, жарық аз бөлмеде суретке түсіру кезінде пайда болатын шу сияқты фотосуретте шу пайда болады. Әдетте адам мұндай кедергіні жақсы байқамайды, бірақ нейрондық желі дұрыс жұмыс істей бастайды. Бірақ мұндай шабуылды жүзеге асыру үшін шабуылдаушыға алгоритмге қол жеткізу керек.

«Нейросет Ашманов» компаниясының бас директоры Станислав Ашмановтың айтуынша, қазіргі уақытта бұл мәселемен күресу әдістері жоқ. Сонымен қатар, бұл технология кез келген адамға қолжетімді: қарапайым бағдарламашы оны Github сервисінен қажетті ашық бастапқы бағдарламалық құралды жүктеп алу арқылы пайдалана алады.

Трумэн шоуы - 2019: нейрондық желілер жаңалықтар суретін қалай жалған етуге үйретті
Трумэн шоуы - 2019: нейрондық желілер жаңалықтар суретін қалай жалған етуге үйретті

- Нейрондық желіге шабуыл - бұл жалған нәтиже беретін, ал шын мәнінде оны есік құлпы сияқты бұзатын нейрондық желіні алдаудың әдістемесі мен алгоритмі, - деп есептейді Ашманов. – Мысалы, қазір бетті тану жүйесінде сіз емес, оның алдында Арнольд Шварцнеггер тұр деп ойлауға мәжбүрлеу өте оңай – бұл нейрондық желіге түсетін деректерге адам көзі сезінбейтін қоспаларды араластыру арқылы жасалады. Дәл осындай шабуылдар сөйлеуді тану және талдау жүйелері үшін де мүмкін.

Сарапшы оның тек нашарлайтынына сенімді - бұл технологиялар көпшілікке тарады, алаяқтар оларды қазірдің өзінде қолданып жатыр және олардан ешқандай қорғаныс жоқ. Бейне және дыбыстық жалғандықтарды автоматтандырылған жасаудан ешқандай қорғаныс жоқ.

Терең жалған

Deep Learning негізіндегі Deepfake технологиялары (нейрондық желілерді тереңдетіп оқыту технологиялары. - Известия) қазірдің өзінде нақты қауіп төндіреді. Бейне немесе аудио фейктер қажетті мәтінді айтатын және сюжетте қажетті рөлді ойнайтын танымал адамдардың беттерін өңдеу немесе жабу арқылы жасалады.

«Deepfake ерін қимылдары мен адамның сөйлеуін бейнемен ауыстыруға мүмкіндік береді, бұл болып жатқан оқиғаның шынайы сезімін тудырады», - дейді Андрей Бусаргин, Group-IB инновациялық брендті қорғау және зияткерлік меншік департаментінің директоры. - Жалған атақты адамдар әлеуметтік желілердегі пайдаланушыларға бағалы сыйлықтардың (смартфондар, автокөліктер, ақшалай сомалар) ұтысына қатысуды «ұсынады». Мұндай бейне жарияланымдардағы сілтемелер жиі алаяқтық және фишингтік сайттарға әкеледі, мұнда пайдаланушылардан жеке ақпаратты, соның ішінде банк картасының деректемелерін енгізу сұралады. Мұндай схемалар қарапайым қолданушыларға да, жарнамалық роликтерде айтылатын қоғам қайраткерлеріне де қауіп төндіреді. Мұндай алаяқтық атақты адамдардың суреттерін алаяқтықпен немесе жарнамаланған тауарлармен байланыстыра бастайды және осы жерде біз жеке брендке зиян келтіреміз, дейді ол.

Трумэн шоуы - 2019: нейрондық желілер жаңалықтар суретін қалай жалған етуге үйретті
Трумэн шоуы - 2019: нейрондық желілер жаңалықтар суретін қалай жалған етуге үйретті

Тағы бір қауіп телефондық алаяқтық үшін «жалған дауыстарды» пайдаланумен байланысты. Мысалы, Германияда киберқылмыскерлер Ұлыбританиядағы еншілес компанияның басшысын телефон арқылы сөйлесу кезінде өзін компания менеджері ретінде таныстыру үшін 220 000 еуро жедел түрде аудару үшін дауыстық терең фейк қолданды. Венгриялық жеткізушінің шотына. Британдық фирманың басшысы «бастық» екінші ақша аударымын сұрағанда, айла-шарғы бар деп күдіктенген, бірақ қоңырау австриялық нөмірден келген. Осы уақытқа дейін бірінші транш Венгриядағы шотқа аударылып үлгерді, ол жерден ақша Мексикаға алынды.

Қазіргі технологиялар жалған жаңалықтармен толтырылған жеке жаңалық суретін жасауға мүмкіндік береді екен. Оның үстіне, жақын арада жалғанды шынайы бейне мен аудиодан тек аппараттық құрал арқылы ажыратуға болады. Сарапшылардың пікірінше, нейрондық желілерді дамытуға тыйым салатын шаралардың тиімді болуы екіталай. Сондықтан көп ұзамай біз бәрін үнемі тексеріп отыру қажет болатын әлемде өмір сүреміз.

«Біз бұған дайындалуымыз керек және мұны қабылдау керек», - деді Юрий Вилситер. – Адамзат бір шындықтан екінші шындыққа бірінші рет өтіп жатқан жоқ. Біздің дүниеміз, өмір салтымыз, құндылықтарымыз біздің ата-бабаларымыз 60 000 жыл, 5 000 жыл бұрын, 2 000 жыл бұрын, тіпті 200-100 жыл бұрын өмір сүрген әлемнен түбегейлі ерекшеленеді. Жақын болашақта адам көп жағдайда жеке өмірден айырылады, сондықтан ештеңені жасырмауға және адал әрекет етуге мәжбүр болады. Сонымен бірге, айналадағы шындықтағы және адамның жеке басындағы ештеңені сеніммен қабылдауға болмайды, бәріне күмәндануға және үнемі қайта тексеруге тура келеді. Бірақ бұл болашақ шындық қорқынышты бола ма? Жоқ. Бұл мүлдем басқаша болады.

Ұсынылған: