اطلاعات غلط اکسپرس: چگونه مدلهای هوش مصنوعی مولد مانند ChatGPT، DALL-E و Midjourney ممکن است باورهای انسان را تحریف کنند.
محققان هشدار میدهند که مدلهای مولد هوش مصنوعی، از جمله ChatGPT، DALL-E و Midjourney، میتوانند با انتشار اطلاعات نادرست و مغرضانه، باورهای انسان را تحریف کنند.
تاثیر هوش مصنوعی بر ادراک انسان
به گفته محققان Celeste Kidd و Abeba Birhane، مدلهای هوش مصنوعی مولد مانند ChatGPT، DALL-E و Midjourney ممکن است باورهای انسان را از طریق انتقال اطلاعات نادرست و تعصبات کلیشهای تحریف کنند. از دیدگاه آنها، آنها به این موضوع می پردازند که چگونه مطالعات روانشناسی انسان می تواند روشن کند که چرا هوش مصنوعی مولد چنین قدرتی در تحریف باورهای انسانی دارد.
نقش هوش مصنوعی در انتشار اطلاعات نادرست و مغرضانه
این مدلهای هوش مصنوعی مولد پتانسیل ساخت اطلاعات نادرست و مغرضانه را دارند که میتواند به طور گسترده و تکراری منتشر شود، عواملی که در نهایت میزان تثبیت چنین اطلاعاتی در باورهای مردم را تعیین میکنند. افراد زمانی که به دنبال اطلاعات هستند بیشتر مستعد تأثیرگذاری هستند و تمایل دارند پس از دریافت اطلاعات به طور محکم به آن پایبند باشند.
مفاهیم برای جستجو و ارائه اطلاعات
مشکل منحصر به هوش مصنوعی نیست. یعنی هوش مصنوعی تعصبات خود را از انسان می گیرد. هنگامی که ایدئولوژی سیاسی یا مذهبی مهمتر از حقیقت عینی تلقی می شود و مردم ترجیح می دهند «واقعیات» را ارائه دهند… آنگاه خوانندگان در معرض تحریف واقعیت قرار می گیرند. یک ضرب المثل قدیمی وجود دارد که می گوید همیشه یک داستان دو طرف دارد. اگر کسی فقط یک طرف ماجرا را دریافت کند، پس فقط «نیمه حقیقت» را دریافت می کند.
وضعیت ممکن است در واقع بدتر از این باشد. اثر راشومون نشان میدهد که به تعداد ناظران، جنبههای داستان وجود دارد. به همین دلیل است که روزنامهنگاران و دانشمندان باید به مشاهدات قابل تأیید پایبند باشند… و در صورت وجود تناقضات آشکار یا تفسیرهای متفاوت، به جای تصمیمگیری برای خوانندگان، هر دو طرف را پیشنهاد کنند.
برای دیدن محصولات بیشتر میتوانید به سایت اینترنتی YASASTORE مراجعه فرمایید.