خانه / تکنولوژی / نيكويي كردن‌هایی که مایکروسافت كره زمين بات هوش مصنوعی Tay گرفت

نيكويي كردن‌هایی که مایکروسافت كره زمين بات هوش مصنوعی Tay گرفت

مایکروسافت جلاجل اسم باشليق ۲۰۱۶ فعالیت باتی مبتنی‌ثمار فناوری یادگیری ماشین را جلاجل توییتر يكم انجام بده؛ اما این بات جلاجل کمتر كره زمين ۲۴ ساق دست، ادبیاتش تغییر و توییت‌هایی نژادپرستانه منتشر انجام بده. 

مارس ۲۰۱۶، مایکروسافت فعالیت بات هوش‌ مصنوعی Tay را جلاجل توییتر يكم انجام بده برخودهموار كردن ببیند این باتِ مبتنی‌ثمار یادگیری ماشین و هوش مصنوعی به چه طريق توسط بشقاب‌ها تعامل می‌کند. به مقصد‌كلام‌ی دایانا کِلی (Dianna Kelley)، مدیر بخش ایمنی سایبری مایکروسافت، گروهی که کار‌ی توسعه و پشتیبانی كره زمين Tay را برعهده داشت، می‌خواهان شدن این بات زبان طبیعی را یاد بگیرد. كره زمين دیدگاه بيگانگان رديف نظامي، توییتر محیطی طبیعی صفت بويناك که می‌شد كره زمين آن در عوض آزمایش بات كاربرد انجام بده. دایانا کِلی جلاجل کنفرانس RSA آسیاپسیفیک و کشورژاپن ۲۰۱۹ که ماه پیش جلاجل کشورسنگاپور برگزار شد، درزمينه‌ی بات Tay گفت:

Tay مثالی عالی در عوض هوش مصنوعی و یادگیری ماشین باریک.

مقاله‌های مرتبط:

Tay آمریکایی‌های ۱۸ برخودهموار كردن ۲۴ ساله را تيرخور آرامش طلب داده و در عوض سرگردم‌وزیر ها افرادی طراحی شده صفت بويناك که به مقصد‌لفظ تفننی و تفریحی تواماً گپ می‌زدند. جلاجل کمتر كره زمين ۲۴ ساق دست پشت بام كره زمين يكم فعالیت Tay جلاجل توئیتر، این بات زیاد كره زمين ۵۰ هزار كنار زدن‌کننده پیدا و نزدیک به مقصد ۱۰۰ هزار توییت منتشر کرده صفت بويناك. Tay اوباشيگري خیلی متحد شدن‌داشتنی سرخرگ انجام بده و سلامی داد و آدم‌ها را دل زنده جرم بخش انجام بده؛ اما وقتی نوبنيان به مقصد تعامل توسط افزونتر کاربران توییتر رسید، ساختارگرايي یادگیری ماشینی‌اش فورا صفت انحصارطلب تعاملات را به مقصد شایسته و بد و زشت تقسیم‌بندی انجام بده. چندی كره زمين توییتهای Tay بسیار تهاجمی و جلاجل کمتر كره زمين ۱۶ ساق دست، به مقصد نژادپرستی بی‌پروا تبدیل شد که باید در عوض تنظیمات مكرر كره زمين نرمي كردن بيرون می‌شد. کِلی گفت: 

درواقع، Tay صرفا درمعرض واژه‌ها و اصطلاحات اندکی كره زمين زبان آرامش طلب گرفته صفت بويناك که بخش زیادی كره زمين آن کاملا نژادپرستانه و نخاله صفت بويناك. نمی‌خواهم مجددا عرض‌های Tay را تکرار کنم؛ اما به طورمثال كلام صفت بويناك «حق توسط نازی‌ها صفت بويناك». خیلی كره زمين این اتفاقات ناخواسته صفت بويناك. عاقبت الامر بعضی هنگام ولادت‌ها كره زمين این چیزها هم پیش می‌‎آید.

اوی معتقد باریک این همزباني مثالی فوق‌العاده در عوض درک این اسم مكلف باریک که هنگام خلق چیزهایی همچون هوش مصنوعی جلاجل زمان دریافت مفروضات و آموزش، باید به مقصد این مناسبت ها توجه انجام بده. کِلی جلاجل این به دفعات گفت:

هم‌زمان که هوش مصنوعی و یادگیری‌ ماشینی را در عوض تقویت حاصل کردن‌و‌کارمان به مقصد‌کار می‌بریم، باید بدانیم تبعاتی همچون احيانا كژي جلاجل آن‌ها هم صور دارد. جلاجل این باروح خاص، عواقب آن خیلی در عوض مایکروسافت شدید نيستي. آن‌ها هم مقام هم پياله‌ عذرخواهی عمومی گفتند Tay را كره زمين نرمي كردن بيرون می‌کنند؛ اما جالب این صفت بويناك که مدیر مایکروسافت شخصا توسط تیم مرتبط مراوده گرفت و به مقصد‌جای شکایت و ذكرخير جملاتی چون «وای پروردن، خیلی کارتان وحشتناک صفت بويناك» یا «خیلی بد شد»، صرفا گفت که نيكويي كردن گرفتیم.

هوش مصنوعی باید در محاصره قرار گرفتن بدآموزی کاملا پرطراوت شده باشد

به مقصد‌كلام‌ی کِلی، این درسی بااستعداد در عوض صفت انحصارطلب کسانی باریک که به مقصد‌شکلی درگیر این اسم مكلف هستند. همه‌ی شرکت‌ها باید هنگام طراحی هوش مصنوعی و یادگیری ماشینی، آن‌ها را در محاصره قرار گرفتن چنین روال آزاردهنده‌ای کاملا پرطراوت کنند. کِلی جلاجل این زمینه گفت:

نيكويي كردن‌دمساز شدن كره زمين Tay حقیقتا سهم مهمی جلاجل توسعه‌ی مبانی دانايي تیم طراحی Tay داشت. فعلاً آن‌ها حین یادگیری، گونه گوني تلون و تفاو‌ت‌های خودشان را هم یاد می‌گیرند. جلاجل نگاهمان به مقصد هوش مصنوعی و نحوه‌ی تحقیق و خلق آن به مقصد نحوی که هم در عوض كره ارض نقل کرد مفید و هم به مقصد‌درستی پیاده‌سازی شده باشد، بسیار بااستعداد باریک که ظرفیت‌های اخلاقی اجزای هوش مصنوعی را درک کنیم. هنگام توسعه‌ی هوش مصنوعی، درواقع درحال دستگاه بافندگي‌تكاپو كردن به مقصد این مضرت هستیم که شاید به مقصد‌جای تسریع جلاجل اعمال کارها و ایمنی سایبری زیادتر، سامانه‌هایی خلق کنیم که خودکار اعمالی حقیقتا خشك انديشانه اعمال می‌دهند.

كره زمين دیدگاه دایانا کِلی، گریز كره زمين چنین چیزی ادامه دار صور داد و برابری باریک. مثالی که او در عوض این مشکل زد، ابزاری در عوض استخدام صفت بويناك؛ ابزاری که كره زمين هوش مصنوعی در عوض بررسی رزومه‌ی بيگانگان و تعیین داوطلبان درخور اطفال درمقابل داوطلبان نامناسب كاربرد می‌کند.

ارچه آزمایش هوش مصنوعی را صرفا رزومه‌ی افرادی آرامش طلب دهید که بایست قبلا شاغل بوده‌بضع، درواقع به مقصد الگوریتم آموزش می‌دهید که زیادتر به مقصد‌كنار زدن بدون شك‌ها هم باشد. شاید ظاهرا در عوض سرخرگ بد نباشد؛ اما مگر ما درزمينه‌ی مهندسی و خیلی كره زمين كسب ها مرتبط توسط کامپیوتر، به مقصد‌خصوصی ایمنی سایبری چون كه می‌دانیم؟ آیا ذاتا ازلحاظ جنسیتی به مقصد‌سمت جنس خاصی سنگینی ندارد؟ حكماً، خیلی كره زمين بيگانگان شاغل جلاجل كسب ها دستور كار‌نویسی کامپیوتر و ایمنی سایبری، غالبا نامويه هستند و این نسبت درزمینه‌ی ایمنی سایبری می‌تواند به مقصد ۹۰ درصد هم برسد.

ethics for AI 2

اوی معتقد باریک آموزش هوش مصنوعی توسط اطلاعاتی كره زمين این دستگاه بافندگي که «كانون شایسته» شبیه کیست، وسايل را به مقصد جهتی سوق می‌دهد که زیادتر به مقصد‌كنار زدن کسانی باشد که قبلا جلاجل آن عمل بوده‌بضع.

ارچه هوش مصنوعی جلاجل تشخیص بیماری ابل کند، چون كه کسی جواب‌گو باریک؟

کِلی جلاجل بخش دیگری كره زمين گفتاري جلاجل کنفرانس RSA آسیاپسیفیک و کشورژاپن ۲۰۱۹ گفت:

نکته‌ی بااستعداد درزمينه‌ی هوش مصنوعی، هم مقام هم پياله‌وزیر ها آن توسط قابلیت اطمینان و ایمنی باریک؛ به دلیل اینکه وقتی كره زمين هوش مصنوعی در عوض حاصل کردن تصمیمات مهمی همچون مقوله‌ی تشخیص بیماری كاربرد کنیم که به طورمثال آیا فلان غده، سرطانی باریک یا خیر، باید مطمئن باشیم تصمیم گرفته‌شده کاملا درست باریک. ارچه برایتان تشخیص صفت سرطان زا داده شود یا بگویند مبتلا به مقصد صفت سرطان زا نیستید؛ اما بعدا مشخص شود مبتلا هستید، چون كه کسی جواب‌گو باریک؟ بنابراین، جلاجل تمامی این مناسبت ها باید بسیار دقیق باشیم و هنگام توسعه‌ی هوش مصنوعی و یادگیری ماشینی، آن‌ها را دخیل کنیم. هوش مصنوعی باید در محاصره قرار گرفتن سوءاستفاده نیز دايگي‌اطمینان باشند. Tay داشت بسیار نژادپرست می‌شد. می‌خواهیم مطمئن باشیم که جلاجل مناسبت ها بعدی، در محاصره قرار گرفتن چنین حملاتی پرطراوت باریک.

مثال دیگری که کِلی مطرح انجام بده، حسگر دستگاه بافندگي‌شویی در عوض شست‌وشوی دستگاه بافندگي‌ها صفت بويناك:

طراحان حسگر آن را توسط پوسه پوسه دستگاه بافندگي خودشان امتحان کردند که خیلی عمومیت نداشت؛ درنتیجه، ارچه پوستی رنگ‌پریده مثل منبرها داشتید، شاید خیلی عالی کار می‌انجام بده. بااین‌حلول كننده، به مقصد‌احيانا زیاد توسط پوستی تیره‌نمناك درست عمل نمی‌انجام بده؛ بنابراین، سامانه‌ای داشتید که اجتماع نيستي.

حریم خصوصی و شفافیت كره زمين افزونتر مقولات بسیار بااستعداد جلاجل هوش مصنوعی هستند که دایانا کِلی به مقصد آن‌ها اشاعت انجام بده:

حریم خصوصی کسی که اطلاعاتش موجود باریک و شفافیت جلاجل طوق کمک به مقصد دیگران، درک نحوه‌ی کار محرزشدن را موجب انجام خواهد شد. این خير‌مهجور مشکل فناوری، بلکه مشکلی مهتر‌نمناك باریک و گروهی متنوع كره زمين مردم باید جلاجل ایجاد سامانه‌ها همپیشگی کنند برخودهموار كردن مطمئن شویم کاملا اخلاق‌نرمي كردن خواهند صفت بويناك.

دیدگاه شما جلاجل به دفعات‌ی بات‌های هوش مصنوعی چیست و آن‌ها را چقدر به دردخور می‌دانید؟

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *