تقلید از ذهن ها: UCLA نشان می دهد که مدل زبان هوش مصنوعی GPT-3 می تواند به خوبی یک دانشجوی کالج را مورد توجه قرار دهد.
محققان UCLA نشان دادهاند که مدل هوش مصنوعی GPT3 میتواند مشکلات استدلال را در سطحی قابل مقایسه با دانشجویان حل کند.
افراد مسایل جدید را به راحتی و بدون هیچ آموزش یا تمرین خاصی با مقایسه آنها با مسائل آشنا و گسترش راه حل برای مشکل جدید حل می کنند. مدتها تصور میشد که این فرآیند، که به عنوان استدلال قیاسی شناخته میشود، یک توانایی منحصر به فرد انسانی است.
با کمال تعجب، GPT3 نه تنها به خوبی انسان عمل کرد، بلکه اشتباهات مشابهی نیز مرتکب شد.
اما اکنون ممکن است مردم مجبور باشند برای یک بچه جدید در بلوک جا باز کنند.
تحقیقات روانشناسان دانشگاه کالیفرنیا، لس آنجلس (UCLA) نشان میدهد که به طرز شگفتانگیزی، مدل زبان هوش مصنوعی GPT3 زمانی که از آنها خواسته میشود مشکلات استدلالی را که معمولاً در آزمونهای هوش ظاهر میشوند، حل کند تقریباً به همان اندازه عملکرد دانشجویان کارشناسی دارد. تست های استاندارد مانند SAT. این مطالعه امروز (31 ژوئیه) در مجله Nature Human Behaviour منتشر خواهد شد.
بررسی فرآیندهای شناختی هوش مصنوعی
اما نویسندگان مقاله می نویسند که این مطالعه این سوال را مطرح می کند: آیا GPT3 تقلید از استدلال انسانی به عنوان محصول جانبی مجموعه داده های عظیم آموزش زبان خود است یا از یک نوع اساساً جدید از فرآیند شناختی استفاده می کند؟
بدون دسترسی به عملکرد درونی GPT-3 – که توسط OpenAI، شرکت سازنده آن محافظت می شود – دانشمندان UCLA نمی توانند با اطمینان بگویند که توانایی های استدلال آن چگونه کار می کند. آنها همچنین می نویسند که اگرچه GPT-3 در برخی از وظایف استدلالی بسیار بهتر از آنچه که انتظار داشتند عمل می کند، ابزار محبوب هوش مصنوعی همچنان در برخی دیگر به طرز شگفت انگیزی شکست می خورد.
محدودیت های عمده هوش مصنوعی در وظایف استدلال
تیلور وب، محقق فوق دکترای روانشناسی دانشگاه UCLA و نویسنده اول این مطالعه، گفت: «مهم نیست نتایج ما چقدر چشمگیر باشد، مهم است که تأکید کنیم که این سیستم محدودیت های عمده ای دارد. میتواند استدلال قیاسی انجام دهد، اما نمیتواند کارهایی را انجام دهد که برای افراد بسیار آسان است، مانند استفاده از ابزار برای حل یک کار فیزیکی. هنگامی که ما آن نوع مشکلات را به آن دادیم – بعضی از آنها را بچه ها می توانند سریع حل کنند – چیزهایی که پیشنهاد کرد بی معنی بود.
وب و همکارانش توانایی GPT-3 را برای حل مجموعهای از مسائل با الهام از آزمونی به نام ماتریسهای پیشرونده Raven که از سوژه میخواهد تصویر بعدی را در آرایش پیچیدهای از اشکال پیشبینی کند، آزمایش کردند. وب برای فعال کردن GPT-3 برای “دیدن” اشکال، تصاویر را به قالب متنی تبدیل کرد که GPT-3 می توانست پردازش کند. این رویکرد همچنین تضمین می کرد که هوش مصنوعی هرگز قبلاً با این سؤالات روبرو نشده بود.
محققان از 40 دانشجوی UCLA خواستند تا همین مشکلات را حل کنند.
نتایج شگفت انگیز و پیامدهای آینده
Hongjing Lu، استاد روانشناسی UCLA، نویسنده ارشد این مطالعه گفت: «به طرز شگفت انگیزی، GPT-3 نه تنها به خوبی انسان عمل کرد، بلکه اشتباهات مشابهی نیز مرتکب شد.
آنها نمرات GPT-3 را با نتایج منتشر شده از نمرات SAT متقاضیان کالج مقایسه کردند و دریافتند که هوش مصنوعی بهتر از میانگین نمره برای انسان ها عمل می کند.
فشار دادن محدودیت های هوش مصنوعی: از GPT-3 تا GPT-4
سپس محققان از GPT3 و داوطلبان دانشآموز خواستند تا قیاسهایی را بر اساس داستانهای کوتاه حل کنند… و آنها را ترغیب کرد که یک قسمت را بخوانند و سپس داستان متفاوتی را شناسایی کنند که همان معنای را منتقل میکند. این فناوری عملکرد کمتری نسبت به دانش آموزان در این مشکلات داشت، اگرچه GPT-4، آخرین تکرار فناوری OpenAI، بهتر از GPT-3 عمل کرد.
کیت هولیوک، استاد روانشناسی UCLA، گفت: “هوش مصنوعی بهتر می شد… اما مدل هوش مصنوعی روانشناختی ما تا دسامبر گذشته… زمانی که تیلور آخرین ارتقاء GPT-3 را دریافت کرد، هنوز در انجام مشکلات قیاس بهترین بود، و به همان خوبی یا بهتر بود.” یکی از نویسندگان مطالعه
محققان گفتند GPT-3 تاکنون قادر به حل مشکلاتی که نیاز به درک فضای فیزیکی دارند، نبوده است. برای مثال… اگر توضیحاتی در مورد مجموعهای از ابزارها ارائه شود …مثلاً یک لوله مقوایی، قیچی و نوار … که میتوان از آن برای انتقال گلولههای آدامس از یک کاسه به کاسه دیگر استفاده کرد، GPT3 راهحلهای عجیبی را پیشنهاد کرد.
لو گفت: «مدلهای یادگیری زبان فقط سعی میکنند کلمات را پیشبینی کنند، بنابراین ما از آنها تعجب میکنیم که میتوانند استدلال کنند. طی دو سال گذشته، این فناوری جهش بزرگی نسبت به تجسم های قبلی خود داشته است.
دانشمندان UCLA امیدوارند کشف کنند که آیا مدل های یادگیری زبان واقعاً مانند انسان ها شروع به «فکر کردن» می کنند… یا کاری کاملاً متفاوت انجام می دهند که صرفاً تفکر انسان را تقلید می کند.
مثل انسان ها فکر می کنید؟
هولیوک گفت: «GPT3 ممکن است به نوعی مانند یک انسان فکر کند. اما از سوی دیگر، مردم با مصرف کل اینترنت یاد نگرفتند، بنابراین روش آموزش کاملاً متفاوت است. میخواهیم بدانیم که آیا واقعاً این کار را به روشی که مردم انجام میدهند انجام میدهد یا اینکه چیزی کاملاً جدید است… یک هوش مصنوعی واقعی …که در نوع خود شگفتانگیز خواهد بود.»
برای کشف این موضوع، آنها باید فرآیندهای شناختی زیربنایی را که مدلهای هوش مصنوعی استفاده میکنند… تعیین کنند، که نیازمند دسترسی به نرمافزار و دادههای مورد استفاده برای آموزش نرمافزار است… و سپس آزمایشهایی را انجام دهند که مطمئن شوند نرمافزار قبلاً انجام نشده است. آنها گفتند که این گام بعدی برای تصمیم گیری در مورد اینکه چه هوش مصنوعی باید باشد باشد.
وب گفت: «برای محققان هوش مصنوعی GPT3 و شناختی بسیار مفید است که مدلهای GPT را داشته باشند. ما فقط ورودیها و خروجیها را انجام میدهیم و آنقدر که میخواهیم تعیینکننده نیست.»
برای دیدن محصولات بیشتر میتوانید به سایت اینترنتی YASASTORE مراجعه فرمایید.