Տեկولوջիա

Արհեստական ​​ինտելեկտը գնում է դեպի լրտեսություն

Արհեստական ​​ինտելեկտը գնում է դեպի լրտեսություն

Արհեստական ​​ինտելեկտը գնում է դեպի լրտեսություն

Բրիտանացի մի խումբ հետազոտողների կողմից անցկացված նոր ուսումնասիրությունը ցույց է տվել, որ արհեստական ​​ինտելեկտի մոդելները կարող են շատ բարձր ճշգրտությամբ որոշել, թե ինչ են օգտատերերը մուտքագրում իրենց համակարգիչներում, օրինակ՝ գաղտնաբառերը՝ լսելով և վերլուծելով ստեղնաշարի վրա մուտքագրելու ձայները:

Հետազոտությունը, որը հրապարակվել է IEEE European (Institute of Electrical and Electronics Engineers) անվտանգության և գաղտնիության թեմայով սիմպոզիումի ժամանակ, նախազգուշացրել է, որ այս տեխնոլոգիան մեծ վտանգ է ներկայացնում օգտատերերի անվտանգության համար, քանի որ այն կարող է տվյալների գողանալ էլեկտրոնային համակարգում ներկառուցված միկրոֆոնների միջոցով։ սարքեր, որոնք մենք օգտագործում ենք ողջ օրվա ընթացքում:

Բայց ինչպես է աշխատում այս տեխնոլոգիան: Իսկ որո՞նք են սպասվող ռիսկերը։ Ինչպե՞ս կարելի է այն կրճատել:

Հետազոտողները ստեղծել են արհեստական ​​ինտելեկտի մոդել, որը կարող է ճանաչել մուտքագրման ձայները Apple MacBook Pro համակարգչի ստեղնաշարի վրա, և այս մոդելին մոտակա հեռախոսի ձայնագրված ստեղնաշարի վրա վարժեցնելուց հետո այն կարող է որոշել, թե որ ստեղնն է սեղմված մինչև ճշտությամբ: 95% %, հիմնված միայն սեղմվող ստեղնի ձայնի վրա:

Հետազոտողները նշել են, որ Zoom-ի խոսակցությունների ժամանակ համակարգչի կողմից հավաքված ձայներն օգտագործելիս ձայնի դասակարգման ալգորիթմը վարժեցնելու համար կանխատեսման ճշգրտությունը նվազել է մինչև 93%, ինչը բարձր և տագնապալի տոկոս է և համարվում է այս մեթոդի ռեկորդը:

Հետազոտողները հավաքել են մարզման տվյալները՝ սեղմելով «MacBook Pro» համակարգչային ստեղնաշարի 36 ստեղնը 25 անգամ յուրաքանչյուր ստեղնի համար՝ օգտագործելով տարբեր մատներ և տարբեր աստիճանի ճնշում, այնուհետև նրանք ձայնագրել են յուրաքանչյուր սեղմումից ստացվող ձայնը՝ ստեղնաշարի մոտ գտնվող սմարթֆոնի միջոցով, կամ։ Զանգի միջոցով Խոշորացումն իրականացվում է համակարգչով:

Այնուհետև նրանք ձայնագրություններից ստացան ալիքային ձևեր և սպեկտրային պատկերներ, որոնք ցույց էին տալիս յուրաքանչյուր ստեղնի համար հստակ տարբերությունները և կատարեցին տվյալների մշակման քայլեր՝ ուժեղացնելու ազդանշանները, որոնք կարող էին օգտագործվել ստեղների ձայնը որոշելու համար:

Այս տվյալների վրա մոդելը փորձարկելուց հետո նրանք պարզեցին, որ այն կարողացել է ճանաչել ճիշտ բանալին սմարթֆոնի ձայնագրություններից 95%-ում, Zoom զանգերի ձայնագրություններից՝ 93%-ում և Skype-ի զանգերի ձայնագրություններից՝ 91.7%-ում, ինչը ցածր է, բայց դեռ շատ բարձր է: և մտահոգիչ տոկոս:

Հետազոտողները ասում են, որ վիդեոկոնֆերանսի գործիքների աճող օգտագործման հետ, ինչպիսիք են՝ Zoom-ը, ամենուր ներկառուցված խոսափողներով սարքերի տարածումը և արհեստական ​​ինտելեկտի տեխնոլոգիաների արագ զարգացումը, այս հարձակումները կարող են հավաքել մեծ քանակությամբ օգտատերերի տվյալներ՝ որպես գաղտնաբառեր: , քննարկումներին և հաղորդագրություններին կարելի է հեշտությամբ մուտք գործել և այլ զգայուն տեղեկություններ:

Ի տարբերություն այլ կողային ալիքի հարձակումների, որոնք պահանջում են հատուկ պայմաններ և ենթակա են տվյալների փոխանցման արագության և հեռավորության սահմանափակման, ձայնի միջոցով հարձակումները շատ ավելի պարզ են դարձել միկրոֆոն ունեցող սարքերի առատության պատճառով և կարող են բարձրորակ աուդիո ձայնագրություններ կատարել, հատկապես արագ զարգացմամբ: մեքենայական ուսուցում.

Իհարկե, սա ձայնային կիբերհարձակումների առաջին հետազոտությունը չէ, քանի որ կան բազմաթիվ ուսումնասիրություններ, որոնք ցույց են տվել, թե ինչպես կարող են խոցելիությունները խելացի սարքերի և ձայնային օգնականների խոսափողներում, ինչպիսիք են Alexa-ն, Siri-ն և (Google Assistant) Google Assistant-ը: կարող են օգտագործվել կիբերհարձակումների ժամանակ: Բայց իրական վտանգը այստեղ այն է, թե որքան ճշգրիտ են AI-ի մոդելները:

Հետազոտողները ասում են, որ իրենց ուսումնասիրության ընթացքում օգտագործել են ամենաառաջադեմ մեթոդները՝ արհեստական ​​ինտելեկտի մոդելները, և հասել են մինչ այժմ ամենաբարձր ճշգրտությանը, և այդ հարձակումներն ու մոդելները ժամանակի ընթացքում ավելի ճշգրիտ կդառնան։

Դոկտոր Իհսան Թուրենին, ով մասնակցել է Surrey-ի համալսարանի հետազոտությանը, ասել է. «Այս հարձակումները և մոդելները ժամանակի ընթացքում ավելի ճշգրիտ կդառնան, և քանի որ խոսափողով խելացի սարքերը դառնում են ավելի տարածված տներում, հանրային քննարկումների հրատապ անհրաժեշտություն կա: այն մասին, թե ինչպես կազմակերպել հարձակումներ. արհեստական ​​բանականություն»:

Հետազոտողները խորհուրդ են տվել օգտատերերին, ովքեր մտահոգված են այս հարձակումներով, փոխել գաղտնաբառի գրման ձևը, ինչպես օրինակ՝ օգտագործելով shift ստեղնը՝ թվերով և նշաններով մեծ և փոքրատառ տառերի խառնուրդ ստեղծելու համար, որպեսզի խուսափեն ամբողջ գաղտնաբառը իմանալուց:

Նրանք նաև խորհուրդ են տալիս օգտագործել կենսաչափական նույնականացում կամ օգտագործել գաղտնաբառերի կառավարիչ հավելվածներ, այնպես որ կարիք չկա ձեռքով մուտքագրել զգայուն տեղեկատվություն:

Պաշտպանության այլ հնարավոր միջոցները ներառում են ծրագրաշարի օգտագործումը ստեղնաշարի ձայները վերարտադրելու համար, կամ սպիտակ աղմուկը՝ ստեղնաշարի կոճակների սեղմման ձայնը խեղաթյուրելու համար:

Ի լրումն հետազոտողների առաջարկած մեխանիզմների. Zoom-ի խոսնակը մեկնաբանություն է հրապարակել այս ուսումնասիրության վերաբերյալ BleepingComputer-ում՝ խորհուրդ տալով օգտվողներին ձեռքով կարգավորել Zoom հավելվածի ֆոնային աղմուկի մեկուսացման գործառույթը՝ նվազեցնելու դրա ինտենսիվությունը, լռելյայն անջատել խոսափողը հանդիպմանը միանալիս և խլացնել խոսափողը հանդիպման ժամանակ մուտքագրելիս: օգնել պաշտպանել և պաշտպանել իրենց տեղեկությունները, նման հարձակումները:

Մագուի Ֆարահի աստղագուշակի կանխատեսումները 2023 թվականի համար

Ռայան Շեյխ Մոհամմեդ

Գլխավոր խմբագրի տեղակալ և հարաբերությունների բաժնի վարիչ, Քաղաքացիական ճարտարագիտության բակալավր - տեղագրության բաժին - Tishreen University Վերապատրաստվել է ինքնազարգացման ոլորտում

Առնչվող հոդվածներ

Գնալ դեպի վերև կոճակ
Բաժանորդագրվեք հիմա անվճար Անա Սալվայի հետ Դուք նախ կստանաք մեր նորությունները, և մենք ձեզ ծանուցում կուղարկենք յուրաքանչյուր նորության մասին لا Այո
Սոցիալական մեդիա ավտոմատ հրատարակություն Powered by: XYZScripts.com