هوش مصنوعی هم می تواند مثل انسان ها متوهم و مغرض باشد

هوش مصنوعی هم می تواند مثل انسان ها متوهم و مغرض باشد

ایتنا علم و تکنولوژی 1404/02/30 00:08 لینک خبر در سایت اصلی
مطالعه‌ای جدید نشان می‌دهد که هوش مصنوعی، با وجود تفاوت در نحوهٔ پردازش اطلاعات، گاهی به همان اندازهٔ انسان‌ها تصمیماتی غیرمنطقی می‌گیرد.
پژوهشی که به تازگی در نشریهٔ Manufacturing & Service Operations Management منتشر شده، نشان می دهد که سامانهٔ چت بات ChatGPT در تقریباً نیمی از سناریوهای آزمایشی، دچار سوگیری های شناختی شناخته شده ای شد که پیش تر تنها در انسان ها مشاهده می شد. به گزارش
و به نقل از
، این اولین مطالعه ای است که عملکرد مدل های زبانی GPT-3.5 و GPT-4 در برابر ۱۸ نوع از رایج ترین سوگیری های روان شناختی انسان بررسی می کند. این تحقیق توسط گروهی از پژوهشگران پنج دانشگاه در کانادا و استرالیا انجام شده و تمرکز آن بر بررسی رفتار این مدل های هوش مصنوعی در تصمیم گیری های تجاری، روان شناختی و موقعیت های فرضی بوده است.
شباهت عجیب میان انسان و ماشین یافته ها نشان می دهد که با وجود ثبات چشمگیر در استدلال های GPT، این مدل ها در مقابل خطاهای شناختی بشر مصون نیستند. یانگ چن (استاد مدیریت عملیات در مدرسهٔ کسب وکار آیوی و نویسندهٔ اصلی مطالعه) می گوید: -مدیران زمانی بیشترین بهره را از این ابزارها خواهند برد که از آن ها در مسائلی با پاسخ های روشن و فرمول محور استفاده کنند. اما در تصمیم هایی که وابسته به ترجیحات شخصی یا قضاوت های ذهنی هستند، باید با احتیاط عمل کرد.- محققان سوگیری هایی همچون ریسک گریزی، توهم دانایی و اثر مالکیت (که در آن افراد به چیزی که مالکش هستند ارزش بیشتری می دهند) را به چالش کشیدند و بررسی کردند که آیا ChatGPT در این دام ها گرفتار می شود یا خیر. وقتی تصمیمات غیرمنطقی ظاهر می شوند در این پژوهش، از پرسش های فرضی برگرفته از آزمایش های کلاسیک روان شناسی استفاده شد. این پرسش ها همچنین در بستر موقعیت های واقعی مانند مدیریت موجودی انبار یا مذاکره با تأمین کنندگان نیز بازنویسی شدند. هدف این بود که مشخص شود آیا مدل های GPT فقط در قالب های روان شناختی دچار خطا می شوند یا در مسائل عملی تجاری نیز همان سوگیری ها را نشان می دهند.
نتایج نشان داد GPT-4 در مسائل منطقی و ریاضی عملکرد بهتری نسبت به GPT-3.5 دارد و کمتر دچار اشتباه در احتمالات و منطق می شود. اما در سناریوهای ذهنی، مانند انتخاب بین گزینه ای پرریسک یا امن، گاهی همان ترجیحات غیرعقلانی انسان ها را تکرار می کرد. در بخشی از مطالعه آمده: -GPT-4 حتی تمایل بیشتری نسبت به انسان ها به انتخاب گزینه های قطعی و قابل پیش بینی دارد-، که به سوگیری برای اطمینان اشاره دارد؛ یعنی ترجیح گزینه ای که نتیجه اش مشخص تر است، حتی اگر از نظر منطقی بهینه نباشد. سوگیری هایی که تقویت می شوند شاید شگفت آورترین نتیجه این باشد که GPT-4 گاهی خطاهای شناختی را بیش ازپیش تشدید می کند. در یکی از آزمون ها مربوط به سوگیری تأیید، GPT-4 همواره پاسخ های مغرضانه ارائه داد. همچنین در خطای معروف -دست داغ- (باور به وجود الگو در پدیده های تصادفی)، این مدل بیشتر از GPT-3.5 دچار اشتباه شد. با این حال، ChatGPT موفق شد از برخی سوگیری های انسانی دیگر بپرهیزد. از جمله، در برابر بی توجهی به نرخ پایه (نادیده گرفتن آمار کلی به نفع اطلاعات خاص) و مغلطهٔ هزینهٔ ازدست رفته (تأثیر هزینهٔ قبلاً پرداخت شده بر تصمیم گیری های فعلی) مقاومت نشان داد.
تکرار خطاهای انسانی، محصول داده های انسانی به گفتهٔ پژوهشگران، دلیل بروز این سوگیری ها در مدل های GPT، استفاده از داده هایی است که خود از رفتارها و زبان مغرضانهٔ انسان ها تشکیل شده اند. این سوگیری ها سپس در مرحلهٔ آموزش با بازخورد انسانی تقویت می شوند، چراکه پاسخ های قابل قبول و طبیعی معمولاً ترجیح داده می شوند، حتی اگر منطقی نباشند. یانگ چن توصیه می کند: -اگر خواهان تصمیم گیری دقیق و بدون سوگیری هستید، از GPT در همان زمینه هایی استفاده کنید که به ماشین حساب اعتماد دارید.- در شرایطی که تصمیم گیری بیشتر به ورودی های استراتژیک یا ذهنی وابسته است، نظارت انسانی همچنان لازم است — حتی اگر فقط در قالب تنظیم دقیق پرسش ها برای کاهش خطا باشد. مینا اندیاپان (استاد مدیریت منابع انسانی در دانشگاه مک مستر کانادا و از نویسندگان این مطالعه) نیز تأکید دارد: -هوش مصنوعی باید مانند یک کارمند تلقی شود؛ کارمندی که تصمیم های مهم می گیرد و نیاز به نظارت و دستورالعمل های اخلاقی دارد. در غیر این صورت، به جای بهبود تصمیم گیری، ممکن است به خودکارسازی تفکر معیوب منجر شود.-