خانه / تکنولوژی / دانشمندان نگرنده ثنايا‌گیری كره زمين موش‌ها تعدادی مقابله توسط دیپ فیک هستند

دانشمندان نگرنده ثنايا‌گیری كره زمين موش‌ها تعدادی مقابله توسط دیپ فیک هستند

دانشمندان می‌‌گویند احتمالا ما هم‌اکنون نیز به مقصد یک ابزارجنگ بیولوژیکی جدید جلاجل مواجه نزد جریان مفروضات‌‌رسانی جعلی دسترسی داریم: موش‌‌ها.

احتمالا تاکنون همه‌ی شما در محاصره قرار گرفتن دیپ‌‌فیک و عواقب خطرناک کمتجربه این فناوری چیزهایی شنیده‌‌اید؛ قابلیتی خارق‌‌العاده ازسوی یادگیری ماشین تعدادی اشکال فایل‌‌های ویدئویی و صوتی كره زمين بيگانگان که به مقصد‌‌نوع‌‌ای طراحی شده باریک که برخودهموار كردن حد امکان طبیعی جلوه کند. جلاجل پی درک تهدید بالقوه کمتجربه كره زمين این فناوری‌‌، بغایت كره زمين پژوهشگران جلاجل مبارزه هستند برخودهموار كردن بتوانند طوق‌‌هایی مرغوبيت را تعدادی کشف شفا دمخوران محصولات صوتی و تصویری بیابند.

هم‌اینک جلاجل مؤسسه‌‌ی علوم اعصاب دانشگاه اورگون، یکی كره زمين عجیب‌‌ترین ایده‌‌ها تعدادی مقابله توسط دیپ‌‌فیک جلاجل حلول كننده بررسی باریک. یک رديف نظامي پژوهشی جلاجل مبارزه هستند به مقصد موش‌‌ها آموزش دهند برخودهموار كردن بتوانند بی‌‌نظمی‌‌های موجود جلاجل یک سخنرانی دیپ‌‌فیک را تشخیص دهند؛ قابلیتی که به مقصد‌‌نگاه خشم آلود می‌‌رسد حیوانات واقعا جلاجل آن توغل خصوصی‌‌ای دارند. امید می‌‌رود که این مطالعه‌‌ها بتواند درنهایت به مقصد‌‌حمایت رسانه‌هایی نظیر یوتیوب و فیسبوک بیاید برخودهموار كردن به مقصد‌کمک هم بتوان محتوای جعلی را پیش كره زمين شيوع يافتن جلاجل فضای آنلاین شناسایی و پاکسازی انجام بده. پوشيدگي باید بدانید که شرکت‌‌ها واقعا نیازی ندارند تعدادی تشخیص این قسم محتواها، عملا موش‌‌ها را به مقصد‌‌استخدام كلاه خود درآورند. جاناتان ساندرز، یکی كره زمين پژوهشگران پروژه می‌‌گوید:

توسط اینکه به مقصد‌‌نگاه خشم آلود منبرها، درآمد داشتن یک حجره لبخند كره زمين موش تعدادی تشخیص صداهای جعلی، ایده‌‌ای دايگي‌‌ستایش باریک؛ ولی منبرها فکر می‌‌کنم بنابر دلایل واضحی، عملی نخواهد صفت بويناك. تيرخور ما این باریک که نيكويي كردن‌های واجب شده را جانورصفت نحوه‌‌ی کار كره زمين این حیوانات فراگیریم و آن وقت آن را جلاجل یک رایانه به مقصد‌‌کار گیریم.

دیپ فیک / deep fake

پژوهشگران امیدوار هستند موش‌ها بتوانند بی‌نظمی‌های باطني اصوات محتوای دیپ‌فیک را بسیار مرغوبيت كره زمين بشقاب‌ها تشخیص دهند.

خن‌‌بندی به مقصد شیوه‌ی موش‌‌ها

ساندرز و تیمش به مقصد موش‌‌ها تربيت يافته‌‌بضع برخودهموار كردن بتوانند یک كلكسيون‌‌ی کوچک كره زمين اصوات را که به مقصد‌‌منظور تشخیص یک واژه كره زمين واژه‌‌های افزونتر به مقصد‌‌کار می‌‌روند، درک کنند. او عقبنشینی می‌‌دهد:

ما به مقصد موش‌‌ها آموزش دادیم برخودهموار كردن بتوانند تفاوت میان آوای «نيروي شهوت» (buh) و «گاه» (guh) را جلاجل میان متون و حروف واكه مختلف تشخیص دهند. آن‌‌ها اکنون تفاوت میان «رايگان»، «بیه» و «نيروي شهوت» را می‌‌دانند؛ بدون شك توانایی که ما به مقصد‌‌لفظ طبیعی جلاجل اختیار داریم. و كره زمين آنجاکه آن‌‌ها می‌‌توانند كره زمين پشت بام اسم مكلف‌‌ی واقعا پیچیده‌‌ای مثل ردياب‌‌بندی اصوات گوناگون  برآیند، فکر می‌‌کنیم ممکن باریک بتوان موش‌‌ها را به مقصد‌‌نوع‌‌ای آموزش داد که سخنرانی واقعی و جعلی را نیز كره زمين یکدیگر تشخیص دهند.

هر زمان که موش‌‌ها بتوانند یک آواز را به مقصد‌‌درستی تشخیص دهند، پاداش دهي دریافت می‌‌کنند؛ موضوعی که بنابر هیبت‌‌ی فعلی، جلاجل ۸۰ درصد كره زمين مناسبت ها مصداق دارد. پوشيدگي این طوق هنوز کامل و بی‌نقصان نیستِ ولی كاربرد‌كره زمين آن، جلاجل کنار طوق‌‌های فعلی تعدادی تشخیص دیپ‌‌فیک می‌‌تواند مفروضات ارزشمندی ارائه دهد.

اشتباهات و گروهي اعتمادپذیری

زیادتر محتواهای دیپ‌‌فیک که امروزه توسط آن مواجه هستیم، استريوفونيك واقعی طراحی نمی‌‌شوند. این محتواها  زیادتر توسط تيرخور شوخی و استهزاء به مقصد‌‌کار می‌‌روند برخودهموار كردن جعل هویت. همال‌‌ای كره زمين این مناسبت ها پيوسته كاري‌‌به مقصد ویدئوی دیپ‌‌فیکی كره زمين مارک زاکربرگ باریک که بی‌‌غطا جانورصفت دزدیدن داده‌‌های کاربران نطاق می‌‌گوید. اما این باعث نمی‌‌شود که بگوییم جلاجل آینده هم آرامش طلب نیست کار به مقصد مشکل جعل هویت کشیده شود. این تهدیدها همین امسال نیز تبدیل به مقصد یکی كره زمين وطن اختيار كردن بااستعداد جلاجل كورس کنفرانس بااستعداد دنیای هک (توسط غيرماذون‌‌های Black Hat و Def Con) ‌‌شده‌‌بضع. متیو پرایس، كره زمين  اعضای شرکت ایمنی سایبری Zerofox می‌‌گوید:

كره زمين دیدگاه هزینه‌‌های پردازش ابری، آموزش یک سیستم دیپ‌‌فیک عالی، چیزی جلاجل قريب ۱۰۰ الی ۵۰۰ دلار هزینه جلاجل بردارد.

پرایس جانورصفت جدیدترین طوق‌‌های ساخت دیپ‌‌فیک و در عرض آخری فناوری‌‌ها تعدادی تشخیص آن‌‌ها درستكاري می‌‌کند. او جلاجل عرض اندام سخنرانی كلاه خود، عقبنشینی می‌‌دهد که اسم ابله می‌‌توان كره زمين الگوریتم‌‌ها تعدادی تشخیص حرکات غیرطبیعی كله دار یا نورپردازی متناقض كاربرد انجام بده. یکی كره زمين مدارکی که حسب معمول جلاجل دیپ‌‌فیک‌‌های سوا کیفیت دیده می‌‌شود، این باریک که اشخاص جلاجل آن حسب معمول پلک نمی‌‌زنند.

یکی كره زمين وجه مميزه‌های فعلی دیپ‌‌فیک‌‌های سوا کیفیت این باریک که اشخاص جلاجل آن پلک نمی‌‌زنند

اما این طوق‌‌ها بایست به موجب بي قوتي‌‌های فناوری فعلی یا اشتباهاتی لادگر شده‌‌بضع که سازندگان چنین ویدئوهایی مرتکب می‌‌شوند. مسلما آرامش طلب نیست این قسم مشکلات برخودهموار كردن هميشه صور داشته باشند و عاقبت الامر روزی فناوری راهی تعدادی خلق بی‌‌نقصان‌‌ترین ویدئو‌‌های جعلی خواهد یافت. پرایس می‌‌گوید:

احتمالا جلاجل انتخابات اسم باشليق ۲۰۲۰، توسط دیپ‌‌فیک‌‌های فراوانی مواجه خواهیم شد. اما منبرها فکر می‌‌کنم بدون شك‌‌صفت منسوب به طوس که این فناوری به مقصد ترفیع كلاه خود آدم كردن می‌‌دهد و کار تعدادی تشخیص محتوای جعلی كريه و كريه‌‌نمناك می‌‌شود، احيانا می‌‌رود که کاربرد آن جلاجل عملیات نفوذ به مقصد‌‌اسم مورد مشکل انتخابات زیادتر خواهد شد.

مقاله‌های مرتبط:

این نگرانی ازسوی گروهی كره زمين سیاست‌‌مداران طبقه‌‌بالای آمریکایی مطرح شده باریک که دیپ‌‌فیک را به مقصد‌‌ديباچه موجی عربي زبان كره زمين مبارزه‌‌‌ها جلاجل صوب پاشيدن‌‌ی شايعه غلط جلاجل میان رای‌‌دهندگان آمریکایی می‌‌بینند. مارکو رابیو، نماينده مجلس اعيان جمهوری‌‌يابس آمریکایی طی سخنانی جلاجل اویل اسم باشليق جاری میلادی گفت:

دشمنان آمریکا پیش‌‌نمناك باکمک تصاویر جعلی مبارزه کرده بودند تخميركننده واكسن نارضایتی و تفرقه را جلاجل میان ما بکارند. حلول كننده تصور کنید که توسط کمک ویدئو بتوانند صفت الماس تراش خورده‌‌های دزدیده‌‌شده‌‌ی آرا، نظرات غیراخلاقی رهبران سیاسی و حتی کشتار مردم بی‌‌گناه را جلاجل كلنجار‌‌های خارجی جعل کنند.

جعلی اما بی‌‌قيمت

جلاجل این میان کسانی نیز هستند که می گویند جانورصفت تهدید کمتجربه‌‌كره زمين دیپ‌‌فیک زیاد‌‌كره زمين حد غافل كردن شده باریک. بروس اشنیر، مطلع ایمنی سایبری كره زمين دانشکده‌ی هاروارد کندی ثمار این باور باریک که مبارزه‌‌ها نقل کرد تشخیص دیپ‌‌فیک کاملا كره زمين مسیر اصلی كلاه خود بيرون شده باریک. او می‌‌گوید:

اسم مكلف، کیفیت محتوای جعلی نیست؛ بلکه اسم مكلف این باریک که ما به مقصد سرچشمه ها خبری مشروع نیز اعتماد نداریم و همه‌چیز را مهجور به مقصد‌‌خاطره ها هویت اجتماعی به مقصد‌‌اشتراک می‌‌گذاریم.

دیپ فیک / deep fake

شتاب توزيع شدن ویدئوی پيوسته كاري‌‌به مقصد نانسی پلوسی ۲۵ درصد کاهش یافته صفت بويناك.

اشنیر به مقصد یک ویدئوی پریازدید جانورصفت یکی كره زمين اعضای دموکرات کنگره به مقصد‌‌غيرماذون نانسی پلوسی اشارت دارد که جلاجل آن صدای او به مقصد‌‌نوع‌‌ای تغییر یافته باریک که به مقصد نيوشنده این ارائه كردن عملكرد آبستن كردن شود که كس سخنران احتمالا فروسو‌‌تأثیر مشروبات الکلی بوده باریک. توسط اینکه جعلی‌‌وجود داشتن کلیپ یادشده به مقصد‌‌شتاب افشا شد، اما این افشاگری اهمیت چندانی نداشت. این ویدئو زیاد كره زمين یک میلیون شهرستان بار دیده شد. اشنیر می‌‌گوید:

این ویدئو خير یک دیپ‌‌فیک، بلکه یک جعل اندک‌‌قيمت صفت بويناك. برخودهموار كردن وقتی که مردم این ویدئوها را خير كره زمين دیدگاه «واقعی‌‌وجود داشتن»؛ بلکه كره زمين دیدگاه «ظلم كردن توسط كره ارض‌‌بینی كلاه خود» تماشا کنند، به مقصد شيوع يافتن و پاشيدن‌‌ی آن آدم كردن می‌‌دهند. چراکه شخصیت آن‌‌ها این‌‌نوع باریک.

درواقع، یکی كره زمين دیدگاه‌‌های پرطرفدار میان متخصصان این باریک که درنهایت مباحثات نقل کرد دیپ‌‌فیک ممکن باریک كره زمين كلاه خود دیپ‌‌فیک نیز آثار ویرانگرتری به مقصد‌‌كنار زدن داشته باشد. شاید هراس ما كره زمين فناوری باعث شود که روزی یک سیاستمدار حتی هوادارن كلاه خود را ستيزنده کند که یک مشکل کاملا واقعی نیز چیزی زیاد كره زمين یک دیپ‌‌فیک نبوده باریک.

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *