هوش مصنوعی GPT3

بازدید: 324 بازدید
هوش مصنوعی GPT-3

تقلید از ذهن ها: UCLA نشان می دهد که مدل زبان هوش مصنوعی GPT-3 می تواند به خوبی یک دانشجوی کالج را مورد توجه قرار دهد.

محققان UCLA نشان داده‌اند که مدل هوش مصنوعی GPT3 می‌تواند مشکلات استدلال را در سطحی قابل مقایسه با دانشجویان حل کند.

افراد مسایل جدید را به راحتی و بدون هیچ آموزش یا تمرین خاصی با مقایسه آنها با مسائل آشنا و گسترش راه حل برای مشکل جدید حل می کنند. مدت‌ها تصور می‌شد که این فرآیند، که به عنوان استدلال قیاسی شناخته می‌شود، یک توانایی منحصر به فرد انسانی است.

با کمال تعجب، GPT3 نه تنها به خوبی انسان عمل کرد، بلکه اشتباهات مشابهی نیز مرتکب شد.

اما اکنون ممکن است مردم مجبور باشند برای یک بچه جدید در بلوک جا باز کنند.

تحقیقات روانشناسان دانشگاه کالیفرنیا، لس آنجلس (UCLA) نشان می‌دهد که به طرز شگفت‌انگیزی، مدل زبان هوش مصنوعی GPT3 زمانی که از آنها خواسته می‌شود مشکلات استدلالی را که معمولاً در آزمون‌های هوش ظاهر می‌شوند، حل کند تقریباً به همان اندازه عملکرد دانشجویان کارشناسی دارد. تست های استاندارد مانند SAT. این مطالعه امروز (31 ژوئیه) در مجله Nature Human Behaviour منتشر خواهد شد.

بررسی فرآیندهای شناختی هوش مصنوعی

اما نویسندگان مقاله می نویسند که این مطالعه این سوال را مطرح می کند: آیا GPT3 تقلید از استدلال انسانی به عنوان محصول جانبی مجموعه داده های عظیم آموزش زبان خود است یا از یک نوع اساساً جدید از فرآیند شناختی استفاده می کند؟

بدون دسترسی به عملکرد درونی GPT-3 – که توسط OpenAI، شرکت سازنده آن محافظت می شود – دانشمندان UCLA نمی توانند با اطمینان بگویند که توانایی های استدلال آن چگونه کار می کند. آنها همچنین می نویسند که اگرچه GPT-3 در برخی از وظایف استدلالی بسیار بهتر از آنچه که انتظار داشتند عمل می کند، ابزار محبوب هوش مصنوعی همچنان در برخی دیگر به طرز شگفت انگیزی شکست می خورد.

محدودیت های عمده هوش مصنوعی در وظایف استدلال

تیلور وب، محقق فوق دکترای روانشناسی دانشگاه UCLA و نویسنده اول این مطالعه، گفت: «مهم نیست نتایج ما چقدر چشمگیر باشد، مهم است که تأکید کنیم که این سیستم محدودیت های عمده ای دارد. می‌تواند استدلال قیاسی انجام دهد، اما نمی‌تواند کارهایی را انجام دهد که برای افراد بسیار آسان است، مانند استفاده از ابزار برای حل یک کار فیزیکی. هنگامی که ما آن نوع مشکلات را به آن دادیم – بعضی از آنها را بچه ها می توانند سریع حل کنند – چیزهایی که پیشنهاد کرد بی معنی بود.

وب و همکارانش توانایی GPT-3 را برای حل مجموعه‌ای از مسائل با الهام از آزمونی به نام ماتریس‌های پیشرونده Raven که از سوژه می‌خواهد تصویر بعدی را در آرایش پیچیده‌ای از اشکال پیش‌بینی کند، آزمایش کردند. وب برای فعال کردن GPT-3 برای “دیدن” اشکال، تصاویر را به قالب متنی تبدیل کرد که GPT-3 می توانست پردازش کند. این رویکرد همچنین تضمین می کرد که هوش مصنوعی هرگز قبلاً با این سؤالات روبرو نشده بود.

محققان از 40 دانشجوی UCLA خواستند تا همین مشکلات را حل کنند.

نتایج شگفت انگیز و پیامدهای آینده

Hongjing Lu، استاد روانشناسی UCLA، نویسنده ارشد این مطالعه گفت: «به طرز شگفت انگیزی، GPT-3 نه تنها به خوبی انسان عمل کرد، بلکه اشتباهات مشابهی نیز مرتکب شد.

آنها نمرات GPT-3 را با نتایج منتشر شده از نمرات SAT متقاضیان کالج مقایسه کردند و دریافتند که هوش مصنوعی بهتر از میانگین نمره برای انسان ها عمل می کند.

فشار دادن محدودیت های هوش مصنوعی: از GPT-3 تا GPT-4

سپس محققان از GPT3 و داوطلبان دانش‌آموز خواستند تا قیاس‌هایی را بر اساس داستان‌های کوتاه حل کنند… و آنها را ترغیب کرد که یک قسمت را بخوانند و سپس داستان متفاوتی را شناسایی کنند که همان معنای را منتقل می‌کند. این فناوری عملکرد کمتری نسبت به دانش آموزان در این مشکلات داشت، اگرچه GPT-4، آخرین تکرار فناوری OpenAI، بهتر از GPT-3 عمل کرد.

 

کیت هولیوک، استاد روانشناسی UCLA، گفت: “هوش مصنوعی بهتر می شد… اما مدل هوش مصنوعی روانشناختی ما تا دسامبر گذشته… زمانی که تیلور آخرین ارتقاء GPT-3 را دریافت کرد، هنوز در انجام مشکلات قیاس بهترین بود، و به همان خوبی یا بهتر بود.” یکی از نویسندگان مطالعه

محققان گفتند GPT-3 تاکنون قادر به حل مشکلاتی که نیاز به درک فضای فیزیکی دارند، نبوده است. برای مثال… اگر توضیحاتی در مورد مجموعه‌ای از ابزارها ارائه شود …مثلاً یک لوله مقوایی، قیچی و نوار … که می‌توان از آن برای انتقال گلوله‌های آدامس از یک کاسه به کاسه دیگر استفاده کرد، GPT3 راه‌حل‌های عجیبی را پیشنهاد کرد.

لو گفت: «مدل‌های یادگیری زبان فقط سعی می‌کنند کلمات را پیش‌بینی کنند، بنابراین ما از آن‌ها تعجب می‌کنیم که می‌توانند استدلال کنند. طی دو سال گذشته، این فناوری جهش بزرگی نسبت به تجسم های قبلی خود داشته است.

دانشمندان UCLA امیدوارند کشف کنند که آیا مدل های یادگیری زبان واقعاً مانند انسان ها شروع به «فکر کردن» می کنند… یا کاری کاملاً متفاوت انجام می دهند که صرفاً تفکر انسان را تقلید می کند.

مثل انسان ها فکر می کنید؟

هولیوک گفت: «GPT3 ممکن است به نوعی مانند یک انسان فکر کند. اما از سوی دیگر، مردم با مصرف کل اینترنت یاد نگرفتند، بنابراین روش آموزش کاملاً متفاوت است. می‌خواهیم بدانیم که آیا واقعاً این کار را به روشی که مردم انجام می‌دهند انجام می‌دهد یا اینکه چیزی کاملاً جدید است… یک هوش مصنوعی واقعی …که در نوع خود شگفت‌انگیز خواهد بود.»

برای کشف این موضوع، آنها باید فرآیندهای شناختی زیربنایی را که مدل‌های هوش مصنوعی استفاده می‌کنند… تعیین کنند، که نیازمند دسترسی به نرم‌افزار و داده‌های مورد استفاده برای آموزش نرم‌افزار است… و سپس آزمایش‌هایی را انجام دهند که مطمئن شوند نرم‌افزار قبلاً انجام نشده است.  آنها گفتند که این گام بعدی برای تصمیم گیری در مورد اینکه چه هوش مصنوعی باید باشد باشد.

وب گفت: «برای محققان هوش مصنوعی GPT3 و شناختی بسیار مفید است که مدل‌های GPT را داشته باشند. ما فقط ورودی‌ها و خروجی‌ها را انجام می‌دهیم و آن‌قدر که می‌خواهیم تعیین‌کننده نیست.»

 

 

 

برای دیدن محصولات بیشتر میتوانید به سایت اینترنتی YASASTORE مراجعه فرمایید.

دسته بندی مقالات هوش مصنوعی
اشتراک گذاری
نوشته های مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سبد خرید

هیچ محصولی در سبد خرید نیست.

ورود به سایت
سوالی دارید از ما بپرسید
×