Արհեստական ինտելեկտը գնում է դեպի լրտեսություն
Արհեստական ինտելեկտը գնում է դեպի լրտեսություն
Արհեստական ինտելեկտը գնում է դեպի լրտեսություն
Բրիտանացի մի խումբ հետազոտողների կողմից անցկացված նոր ուսումնասիրությունը ցույց է տվել, որ արհեստական ինտելեկտի մոդելները կարող են շատ բարձր ճշգրտությամբ որոշել, թե ինչ են օգտատերերը մուտքագրում իրենց համակարգիչներում, օրինակ՝ գաղտնաբառերը՝ լսելով և վերլուծելով ստեղնաշարի վրա մուտքագրելու ձայները:
Հետազոտությունը, որը հրապարակվել է IEEE European (Institute of Electrical and Electronics Engineers) անվտանգության և գաղտնիության թեմայով սիմպոզիումի ժամանակ, նախազգուշացրել է, որ այս տեխնոլոգիան մեծ վտանգ է ներկայացնում օգտատերերի անվտանգության համար, քանի որ այն կարող է տվյալների գողանալ էլեկտրոնային համակարգում ներկառուցված միկրոֆոնների միջոցով։ սարքեր, որոնք մենք օգտագործում ենք ողջ օրվա ընթացքում:
Բայց ինչպես է աշխատում այս տեխնոլոգիան: Իսկ որո՞նք են սպասվող ռիսկերը։ Ինչպե՞ս կարելի է այն կրճատել:
Հետազոտողները ստեղծել են արհեստական ինտելեկտի մոդել, որը կարող է ճանաչել մուտքագրման ձայները Apple MacBook Pro համակարգչի ստեղնաշարի վրա, և այս մոդելին մոտակա հեռախոսի ձայնագրված ստեղնաշարի վրա վարժեցնելուց հետո այն կարող է որոշել, թե որ ստեղնն է սեղմված մինչև ճշտությամբ: 95% %, հիմնված միայն սեղմվող ստեղնի ձայնի վրա:
Հետազոտողները նշել են, որ Zoom-ի խոսակցությունների ժամանակ համակարգչի կողմից հավաքված ձայներն օգտագործելիս ձայնի դասակարգման ալգորիթմը վարժեցնելու համար կանխատեսման ճշգրտությունը նվազել է մինչև 93%, ինչը բարձր և տագնապալի տոկոս է և համարվում է այս մեթոդի ռեկորդը:
Հետազոտողները հավաքել են մարզման տվյալները՝ սեղմելով «MacBook Pro» համակարգչային ստեղնաշարի 36 ստեղնը 25 անգամ յուրաքանչյուր ստեղնի համար՝ օգտագործելով տարբեր մատներ և տարբեր աստիճանի ճնշում, այնուհետև նրանք ձայնագրել են յուրաքանչյուր սեղմումից ստացվող ձայնը՝ ստեղնաշարի մոտ գտնվող սմարթֆոնի միջոցով, կամ։ Զանգի միջոցով Խոշորացումն իրականացվում է համակարգչով:
Այնուհետև նրանք ձայնագրություններից ստացան ալիքային ձևեր և սպեկտրային պատկերներ, որոնք ցույց էին տալիս յուրաքանչյուր ստեղնի համար հստակ տարբերությունները և կատարեցին տվյալների մշակման քայլեր՝ ուժեղացնելու ազդանշանները, որոնք կարող էին օգտագործվել ստեղների ձայնը որոշելու համար:
Այս տվյալների վրա մոդելը փորձարկելուց հետո նրանք պարզեցին, որ այն կարողացել է ճանաչել ճիշտ բանալին սմարթֆոնի ձայնագրություններից 95%-ում, Zoom զանգերի ձայնագրություններից՝ 93%-ում և Skype-ի զանգերի ձայնագրություններից՝ 91.7%-ում, ինչը ցածր է, բայց դեռ շատ բարձր է: և մտահոգիչ տոկոս:
Հետազոտողները ասում են, որ վիդեոկոնֆերանսի գործիքների աճող օգտագործման հետ, ինչպիսիք են՝ Zoom-ը, ամենուր ներկառուցված խոսափողներով սարքերի տարածումը և արհեստական ինտելեկտի տեխնոլոգիաների արագ զարգացումը, այս հարձակումները կարող են հավաքել մեծ քանակությամբ օգտատերերի տվյալներ՝ որպես գաղտնաբառեր: , քննարկումներին և հաղորդագրություններին կարելի է հեշտությամբ մուտք գործել և այլ զգայուն տեղեկություններ:
Ի տարբերություն այլ կողային ալիքի հարձակումների, որոնք պահանջում են հատուկ պայմաններ և ենթակա են տվյալների փոխանցման արագության և հեռավորության սահմանափակման, ձայնի միջոցով հարձակումները շատ ավելի պարզ են դարձել միկրոֆոն ունեցող սարքերի առատության պատճառով և կարող են բարձրորակ աուդիո ձայնագրություններ կատարել, հատկապես արագ զարգացմամբ: մեքենայական ուսուցում.
Իհարկե, սա ձայնային կիբերհարձակումների առաջին հետազոտությունը չէ, քանի որ կան բազմաթիվ ուսումնասիրություններ, որոնք ցույց են տվել, թե ինչպես կարող են խոցելիությունները խելացի սարքերի և ձայնային օգնականների խոսափողներում, ինչպիսիք են Alexa-ն, Siri-ն և (Google Assistant) Google Assistant-ը: կարող են օգտագործվել կիբերհարձակումների ժամանակ: Բայց իրական վտանգը այստեղ այն է, թե որքան ճշգրիտ են AI-ի մոդելները:
Հետազոտողները ասում են, որ իրենց ուսումնասիրության ընթացքում օգտագործել են ամենաառաջադեմ մեթոդները՝ արհեստական ինտելեկտի մոդելները, և հասել են մինչ այժմ ամենաբարձր ճշգրտությանը, և այդ հարձակումներն ու մոդելները ժամանակի ընթացքում ավելի ճշգրիտ կդառնան։
Դոկտոր Իհսան Թուրենին, ով մասնակցել է Surrey-ի համալսարանի հետազոտությանը, ասել է. «Այս հարձակումները և մոդելները ժամանակի ընթացքում ավելի ճշգրիտ կդառնան, և քանի որ խոսափողով խելացի սարքերը դառնում են ավելի տարածված տներում, հանրային քննարկումների հրատապ անհրաժեշտություն կա: այն մասին, թե ինչպես կազմակերպել հարձակումներ. արհեստական բանականություն»:
Հետազոտողները խորհուրդ են տվել օգտատերերին, ովքեր մտահոգված են այս հարձակումներով, փոխել գաղտնաբառի գրման ձևը, ինչպես օրինակ՝ օգտագործելով shift ստեղնը՝ թվերով և նշաններով մեծ և փոքրատառ տառերի խառնուրդ ստեղծելու համար, որպեսզի խուսափեն ամբողջ գաղտնաբառը իմանալուց:
Նրանք նաև խորհուրդ են տալիս օգտագործել կենսաչափական նույնականացում կամ օգտագործել գաղտնաբառերի կառավարիչ հավելվածներ, այնպես որ կարիք չկա ձեռքով մուտքագրել զգայուն տեղեկատվություն:
Պաշտպանության այլ հնարավոր միջոցները ներառում են ծրագրաշարի օգտագործումը ստեղնաշարի ձայները վերարտադրելու համար, կամ սպիտակ աղմուկը՝ ստեղնաշարի կոճակների սեղմման ձայնը խեղաթյուրելու համար:
Ի լրումն հետազոտողների առաջարկած մեխանիզմների. Zoom-ի խոսնակը մեկնաբանություն է հրապարակել այս ուսումնասիրության վերաբերյալ BleepingComputer-ում՝ խորհուրդ տալով օգտվողներին ձեռքով կարգավորել Zoom հավելվածի ֆոնային աղմուկի մեկուսացման գործառույթը՝ նվազեցնելու դրա ինտենսիվությունը, լռելյայն անջատել խոսափողը հանդիպմանը միանալիս և խլացնել խոսափողը հանդիպման ժամանակ մուտքագրելիս: օգնել պաշտպանել և պաշտպանել իրենց տեղեկությունները, նման հարձակումները:
Մագուի Ֆարահի աստղագուշակի կանխատեսումները 2023 թվականի համար