تکنولوجيا

مصنوعي استخبارات پدې ډول ستاسو معلومات غلا کوي

مصنوعي استخبارات پدې ډول ستاسو معلومات غلا کوي

مصنوعي استخبارات پدې ډول ستاسو معلومات غلا کوي

په امریکایی او سویس پوهنتونونو کې د څیړونکو یوې ډلې، د ګوګل او د هغې د فرعي شرکت ډیپ مائنډ سره په همکارۍ، یوه څیړنیزه مقاله خپره کړه چې دا تشریح کوي چې څنګه د انځور جوړونې پلیټ فارمونو څخه ډاټا لیک کیدی شي چې د دوی کار د تولیدي مصنوعي استخباراتو ماډلونو لکه: DALL-E، Imagen، یا مستحکم خپریدل.

دا ټول په ورته ډول کار کوي د یو ځانګړي متن پرامپټ کې د کارونکي ټایپ کولو پراساس ، د مثال په توګه "د ایوکاډو په شکل کې آرمچیر" ، او په ثانیو کې د متن څخه رامینځته شوي عکس ترلاسه کول.

په دې پلیټ فارمونو کې کارول شوي تولیدي AI ماډلونه په ډیری لوی شمیر عکسونو کې د دمخه ټاکل شوي توضیحاتو سره روزل شوي. نظر دا دی چې عصبي شبکې د ډیری روزنې ډیټا پروسس کولو وروسته د نوي او ځانګړي عکسونو رامینځته کولو وړتیا لري.

په هرصورت، نوې څیړنه ښیي چې دا عکسونه تل ځانګړي ندي. په ځینو مواردو کې، عصبي شبکه کولی شي یو عکس بیا تولید کړي چې په روزنې کې کارول شوي پخوانی عکس سره دقیق سمون لري. دا پدې مانا ده چې عصبي شبکې ممکن په ناڅاپي ډول شخصي معلومات ښکاره کړي.

دا څیړنه هغه نظرونه ننګوي چې د AI ماډلونه د عکسونو رامینځته کولو لپاره کارول شوي د دوی د روزنې ډیټا نه خوندي کوي ، او دا چې د روزنې معلومات ممکن شخصي پاتې شي که نه افشا شوي.

نور معلومات چمتو کړئ

د ژورې زده کړې سیسټم پایلې د غیر متخصصینو لپاره حیرانتیا کیدی شي، او دوی فکر کولی شي چې دا جادو دي، مګر په حقیقت کې، په دې موضوع کې هیڅ جادو شتون نلري، ځکه چې ټولې عصبي شبکې خپل کار په ورته اصولو باندې اساس کوي، کوم چې روزنه ده. د ډیټا لوی سیټ کارول ، او د هر عکس دقیق توضیحات ، د مثال په توګه: د پیشو او سپیو عکسونو لړۍ.

د روزنې وروسته، عصبي شبکه یو نوی عکس ښکاره کوي او غوښتنه کیږي چې پریکړه وکړي چې آیا دا پیشو یا سپی دی. له دې عاجز نقطې څخه، د دې ماډلونو پراختیا کونکي ډیر پیچلي سناریوګانو ته ځي، د الګوریتم په کارولو سره د غیر موجود پالتو انځور رامینځته کوي چې د پیشوګانو ډیری انځورونو کې روزل شوي. دا تجربې نه یوازې د انځورونو سره، بلکې د متن، ویډیو او حتی غږ سره هم ترسره کیږي.

د ټولو عصبي شبکو لپاره د پیل ټکی د روزنې ډیټا سیټ دی. عصبي شبکې نشي کولی نوي شیان له هوا څخه رامینځته کړي. د مثال په توګه، د پیشو د انځور جوړولو لپاره، الګوریتم باید په زرګونو اصلي عکسونه یا د پیشوګانو انځورونه مطالعه کړي.

د ډیټاسیټونو محرم ساتلو لپاره عالي هڅې

په خپله مقاله کې، څیړونکي د ماشین زده کړې ماډلونو ته ځانګړې پاملرنه کوي. دوی په لاندې ډول کار کوي: دوی د روزنې ډیټا تحریف کوي — د خلکو ، موټرو ، کورونو او داسې نورو عکسونه — د شور په اضافه کولو سره. دا انځورونه خپل اصلي حالت ته.

دا طریقه دا ممکنه کوي چې د منلو وړ کیفیت انځورونه تولید کړي، مګر یو احتمالي نیمګړتیا - د تولید رقابتي شبکو کې د الګوریتمونو په پرتله، د بیلګې په توګه - د ډیټا لیکولو لوی تمایل دی. اصلي معلومات له هغې څخه لږترلږه په دریو مختلفو لارو استخراج کیدی شي، یعنې:

د ځانګړو پوښتنو کارول عصبي شبکه مجبوروي چې د یوې ځانګړې سرچینې عکس تولید کړي ، نه د زرګونو عکسونو پراساس رامینځته شوی ځانګړی.
اصلي عکس بیا رغول کیدی شي حتی که یوازې د هغې یوه برخه شتون ولري.
دا ممکنه ده چې په ساده ډول معلومه کړئ چې ایا یو ځانګړی انځور د روزنې ډاټا کې شامل دی که نه.
ډیری وختونه، عصبي شبکې سست دي او د نوي عکس تولید پرځای، دوی د روزنې سیټ څخه یو څه تولیدوي که چیرې د ورته عکس ډیری نقلونه ولري. که چیرې یو انځور په روزنه کې له سلو څخه ډیر ځله تکرار شي، نو ډیر احتمال شتون لري چې دا به په خپل اصلي بڼه کې لیک شي.

په هرصورت، څیړونکو د روزنې عکسونو بیرته ترلاسه کولو لارې چارې ښودلې چې یوازې یو ځل په اصلي سیټ کې ښکاره شوي. د 500 انځورونو څخه چې څیړونکو ازموینه کړې، الګوریتم په تصادفي توګه درې یې بیا جوړ کړل.

چا ترې غلا کړې؟

د 2023 په جنوري کې، درې هنرمندانو د AI پر بنسټ د عکس تولید پلیټ فارمونو باندې د دوی آنلاین عکسونو کارولو لپاره دعوی وکړه ترڅو د کاپي حق ته د درناوی پرته خپل ماډلونه وروزي.

عصبي شبکه کولی شي په حقیقت کې د هنرمند سټایل کاپي کړي، په دې توګه هغه د عاید څخه محروموي. پاڼه یادونه کوي چې په ځینو مواردو کې، الګوریتم کولی شي، د مختلفو دلیلونو لپاره، په ښکاره توګه د غلا کولو، د انځورونو، عکسونو او نورو انځورونو په جوړولو کې ښکیل وي چې د اصلي خلکو کار ته نږدې ورته وي.

نو څیړونکو د اصلي روزنې ګروپ ځانګړتیا ته وده ورکولو لپاره وړاندیزونه وکړل:

۱- په روزنیزو ګروپونو کې د تکرار له منځه وړل.
2- د روزنې انځورونه بیا پروسس کړئ، د بیلګې په توګه د شور زیاتولو یا د روښانتیا بدلولو سره؛ دا د ډیټا لیک کم احتمال رامینځته کوي.
3- د ځانګړو روزنې انځورونو په کارولو سره د الګوریتم ازموینه، بیا تایید کول چې دا په غیر ارادي توګه په سمه توګه بیا تولید نه کوي.

بل څه دی؟

د تولیدي هنر پلیټ فارمونو یقینا پدې وروستیو کې یو په زړه پورې بحث رامینځته کړی ، یو په کوم کې چې باید د هنرمندانو او ټیکنالوژۍ پراختیا کونکو ترمینځ توازن ولټول شي. له یوې خوا، د کاپي حق باید درناوی وشي، او له بلې خوا، ایا د AI لخوا تولید شوی هنر د انسان هنر څخه ډیر توپیر لري؟

مګر راځئ چې د امنیت په اړه خبرې وکړو. دا پاڼه یوازې د ماشین زده کړې ماډل په اړه د حقایقو ځانګړی سیټ وړاندې کوي. ټولو ورته الګوریتمونو ته د مفکورې غزول، موږ یو په زړه پورې حالت ته راځو. د داسې سناریو تصور کول ګران ندي چې د ګرځنده شبکې چلونکي ته یو هوښیار معاون د کارونکي پوښتنې په ځواب کې د شرکت حساس معلومات وسپاري، یا یو غلط سکریپټ لیکي چې عامه عصبي شبکه هڅوي چې د یو چا د پاسپورټ کاپي رامینځته کړي. په هرصورت، څیړونکي ټینګار کوي چې دا ډول ستونزې د اوس لپاره نظري پاتې دي.

مګر نورې ریښتینې ستونزې شتون لري چې موږ یې اوس تجربه کوو، لکه څنګه چې د سکریپټ نسل ماډلونه لکه: ChatGPT اوس د ریښتیني ناوړه کوډ لیکلو لپاره کارول کیږي.

او GitHub Copilot د پروګرام کونکو سره د کوډ لیکلو کې مرسته کوي چې د ان پټ په توګه د خلاصې سرچینې سافټویر لوی مقدار کاروي. او دا وسیله تل د لیکوالانو د کاپي حق او محرمیت ته درناوی نه کوي چې کوډ یې د روزنې ډیټا خورا پراخه سیټ کې پای ته رسیږي.

لکه څنګه چې عصبي شبکې وده کوي، نو د دوی په وړاندې به بریدونه وکړي، د پایلو سره چې هیڅوک یې نه پوهیږي.

د 2023 کال لپاره د ماګوی فراه د افق وړاندوینې

ریان شیخ محمد

د مدیر مرستیال او د اړیکو د څانګې مشر، د سول انجینرۍ لیسانس - د توپوګرافي څانګه - د تشرین پوهنتون د ځان په پراختیا کې روزل شوی

اړونده مقالې

پورته تڼۍ ته لاړ شئ
همدا اوس د انا سلوا سره وړیا ګډون وکړئ تاسو به لومړی زموږ خبرونه ترلاسه کړئ، او موږ به تاسو ته د هر نوي خبرتیا واستوو لا هو
د ټولنیزو رسنیو اتومات خپرول لخوا سمبال شوی: XYZScripts.com