مدل‌های یادگیری ماشینی-هوش مصنوعی

بازدید: 210 بازدید
مدل‌های یادگیری ماشینی

وقتی هوش مصنوعی قاضی می شود : شدت ناخواسته مدل‌های یادگیری ماشین

به گفته محققان MIT و سایر موسسات، مدل‌های یادگیری ماشینی-هوش مصنوعی اغلب قضاوت‌های سخت‌تری نسبت به انسان‌ها انجام می‌دهند، زیرا بر روی نوع اشتباه داده‌ها آموزش دیده‌اند، که می‌تواند پیامدهای جدی در دنیای واقعی داشته باشد.

در تلاشی برای بهبود انصاف یا کاهش عقب ماندگی‌ها، مدل‌های یادگیری ماشینی گاهی برای تقلید از تصمیم‌گیری انسانی طراحی می‌شوند، مانند تصمیم‌گیری در مورد اینکه آیا پست‌های رسانه‌های اجتماعی خط‌مشی‌های محتوای سمی را نقض می‌کنند یا خیر.

اما محققان MIT و جاهای دیگر دریافته‌اند که این مدل‌ها اغلب تصمیمات انسانی در مورد نقض قوانین را تکرار نمی‌کنند. اگر مدل‌ها با داده‌های مناسب آموزش نبینند، احتمالاً قضاوت‌های متفاوت و اغلب سخت‌تر از انسان‌ها خواهند داشت.

«داده‌های توصیفی»

اما داده‌هایی که برای آموزش مدل‌های یادگیری ماشینی استفاده می‌شوند معمولاً به صورت توصیفی برچسب‌گذاری می‌شوند – به این معنی که از انسان‌ها خواسته می‌شود ویژگی‌های واقعی را شناسایی کنند، مثلاً، وجود غذای سرخ‌شده در عکس. اگر از «داده‌های توصیفی» برای آموزش مدل‌هایی استفاده شود که نقض قوانین را قضاوت می‌کنند، مانند اینکه آیا یک وعده غذایی خط‌مشی مدرسه را که غذای سرخ‌شده را ممنوع می‌کند، نقض می‌کند، مدل‌ها تمایل دارند بیش از حد نقض قوانین را پیش‌بینی کنند.

مدل‌های یادگیری ماشینی-هوش مصنوعی

 

هوش مصنوعی

من فکر می‌کنم اکثر محققان هوش مصنوعی/یادگیری ماشینی تصور می‌کنند که قضاوت‌های انسان در داده‌ها و برچسب‌ها مغرضانه است، اما این نتیجه چیز بدتری را می‌گوید. این مدل‌ها حتی قضاوت‌های پیش‌بینی‌شده انسانی را بازتولید نمی‌کنند، زیرا داده‌هایی که بر روی آن‌ها آموزش می‌بینند یک نقص دارد: اگر انسان‌ها بدانند که این ویژگی‌ها برای قضاوت مورد استفاده قرار می‌گیرند، ویژگی‌های تصاویر و متن را به‌طور متفاوتی برچسب‌گذاری می‌کنند. مرضیه قاسمی، استادیار و رئیس گروه Healthy ML در آزمایشگاه علوم کامپیوتر و هوش مصنوعی (CSAIL) می‌گوید: این پیامدهای بسیار زیادی برای سیستم‌های یادگیری ماشینی در فرآیندهای انسانی دارد.

آپارنا بالاگوپالان، نویسنده اصلی، یک دانشجوی فارغ التحصیل مهندسی برق و علوم کامپیوتر، در این مقاله به او می پیوندند. دیوید مدرس، دانشجوی کارشناسی ارشد در دانشگاه تورنتو؛ دیوید اچ. یانگ، دانشجوی کارشناسی ارشد سابق که اکنون یکی از بنیانگذاران ML Estimation است. دیلن هادفیلد-منل، استادیار دانشگاه MIT. و گیلیان ک. هادفیلد، شوارتز رایسمن، کرسی فناوری و جامعه و استاد حقوق در دانشگاه تورنتو.

عدم تطابق برچسب

این مطالعه از پروژه متفاوتی نشأت می‌گیرد که بررسی می‌کند چگونه یک مدل یادگیری ماشینی می‌تواند پیش‌بینی‌های خود را توجیه کند. هنگامی که آنها داده‌ها را برای آن مطالعه جمع‌آوری کردند… محققان متوجه شدند که انسان‌ها گاهی اگر از آنها خواسته شود برچسب‌های توصیفی یا هنجاری درباره همان داده‌ها ارائه دهند، پاسخ‌های متفاوتی می‌دهند.

برای جمع‌آوری برچسب‌های توصیفی، محققان از برچسب‌گذاران می‌خواهند ویژگی‌های واقعی را شناسایی کنند – آیا این متن حاوی الفاظ ناپسند است؟ برای جمع‌آوری برچسب‌های هنجاری، محققان به برچسب‌گذاران قانونی می‌دهند و می‌پرسند که آیا داده‌ها آن قانون را نقض می‌کند – آیا این متن خط‌مشی صریح زبان پلتفرم را نقض می‌کند؟

قضاوت

در هر مورد… از برچسب‌گذاران توصیفی خواسته شد تا مشخص کنند که آیا سه ویژگی واقعی در تصویر یا متن وجود دارد، مانند اینکه آیا سگ تهاجمی به نظر می‌رسد یا خیر. سپس از پاسخ های آنها برای ساختن قضاوت استفاده شد. (اگر کاربری گفت که عکسی حاوی یک سگ پرخاشگر است، این خط‌مشی نقض شده است.) برچسب‌زنان خط‌مشی مربوط به حیوانات خانگی را نمی‌دانستند.

محققان دریافتند که انسان‌ها به‌طور قابل‌توجهی احتمال بیشتری دارد که یک شی را به‌عنوان نقض در محیط توصیفی برچسب‌گذاری کنند.

یادگیری انتقالی

اگر محققان بدانند که چگونه داده‌ها جمع‌آوری شده‌اند، می‌دانند چگونه باید از آن داده‌ها استفاده شود. استراتژی ممکن دیگر تنظیم دقیق یک مدل آموزش‌دیده توصیفی بر روی مقدار کمی از داده‌های هنجاری است. این ایده که به عنوان یادگیری انتقالی شناخته می‌شود، چیزی است که محققان می‌خواهند در کارهای آینده بررسی کنند.

آن‌ها همچنین می‌خواهند مطالعه مشابهی را با برچسب‌زنان خبره، مانند پزشکان یا وکلا انجام دهند تا ببینند آیا منجر به تفاوت برچسب‌ها می‌شود یا خیر.

راه حل این مشکل مدل‌های یادگیری ماشینی-هوش مصنوعی این است که به طور شفاف اذعان کنیم که اگر می‌خواهیم قضاوت انسانی را بازتولید کنیم… فقط باید از داده‌هایی استفاده کنیم که در آن محیط جمع‌آوری شده‌اند. در غیر این صورت، ما به سیستم‌هایی خواهیم رسید که اعتدال‌های بسیار خشن خواهند داشت، بسیار خشن‌تر از آنچه انسان‌ها انجام می‌دهند. قاسمی می‌گوید: انسان‌ها تفاوت‌های ظریف را می‌بینند یا تمایز دیگری قائل می‌شوند، در حالی که این مدل‌ها اینطور نیستند.

 

 

برای دیدن محصولات بیشتر میتوانید به سایت اینترنتی YASASTORE مراجعه فرمایید.

دسته بندی تکنولوژی آینده مقالات
اشتراک گذاری
نوشته های مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سبد خرید

هیچ محصولی در سبد خرید نیست.

ورود به سایت