بررسی سوگیری های شناختی مدل‌های زبانی بزرگ

در سال گذشته، مدل‌های زبانی بزرگ (LLM) مانند ChatGPT، دنیا را تحت تأثیر قرار داده اند. این سیستم‌های هوش مصنوعی قدرتمند، که بر روی مقادیر زیادی متن آموزش دیده‌اند، می‌توانند در مکالمات بسیار شبیه انسان شرکت کنند و طیف وسیعی از وظایف، از نوشتن مقاله تا کدنویسی را انجام دهند.

همانطور که LLM ها به طور فزاینده ای در زندگی روزمره ما ادغام می شوند، یک سوال مهم مطرح می شود: این مدل ها ممکن است در طول فرآیند آموزش خود چه سوگیری هایی داشته باشند؟ به هر حال، داده‌های آموزشی برای LLM از اینترنت، رسانه‌های اجتماعی و سایر منابع دیجیتال فراهم می‌شود و به‌رغم تلاش‌ها برای فیلتر کردن آن، به ناچار حاوی محتوای سمی، نژادپرستانه و زن‌ستیزانه است.

علاوه بر این، انسان‌ها ذاتاً مستعد سوگیری‌های ناخودآگاه هستند، که احتمالاً در داده‌های آموزشی منعکس شده و متعاقباً توسط خود LLM‌ها جذب می‌شوند. کشف و درک این سوگیری ها نه تنها برای شناسایی و اصلاح آنها ضروری است، بلکه برای به دست آوردن بینش عمیق تر در مورد ماهیت و عملکرد این فناوری تحول آفرین نیز ضروری است.

در این راستا، یک مطالعه اخیر با هدف کشف سوگیری های شناختی نشان داده شده توسط یکی از برجسته ترین LLM ها، GPT-3، توسعه یافته توسط OpenAI انجام شد. با آزمایش GPT-3 بر روی طیف وسیعی از اثرات شناختی – الگوهای سیستماتیکی که معمولاً در وظایف شناختی انسان مشاهده می شود – محققان به دنبال روشن کردن میزان تقلید یا اختراع مجدد مدل از این سوگیری ها بودند.

یافته‌های این تحقیق پیشگامانه نه تنها بینش‌های ارزشمندی را در مورد عملکرد LLM ارائه می‌کند، بلکه راه‌های جدیدی را برای اکتشاف و بهبود این سیستم‌های پیشرفته هوش مصنوعی در آینده باز می‌کند.

روش‌شناسی: تبدیل آزمایش‌های دنیای واقعی به آزمایش‌های مبتنی بر متن

ارزیابی مدل های زبان بزرگ مانند GPT-3 به دلیل ماهیت ذاتا مبهم آنها و این واقعیت که تعامل با آنها از طریق گفتگوهای زبان طبیعی به جای زبان های کاملاً تعریف شده رخ می دهد، چالش های منحصر به فردی را ارائه می دهد. علاوه بر این، LLM ها اغلب به عنصر تصادفی در پاسخ های خود نیاز دارند تا واقعا مفید باشند، که ارزیابی سیستماتیک را پیچیده تر می کند.

در این مطالعه، محققان از یک روش جدید برای آزمایش اثرات شناختی در GPT-3 استفاده کردند. بیشتر تأثیرات شناختی در روانشناسی انسان معمولاً با مقایسه زمان واکنش در شرایط مختلف شناسایی می‌شوند که زمان‌های واکنش کندتر نشان‌دهنده دشواری کار بیشتر است. با این حال، برای LLM ها، زمان پاسخ در درجه اول با طول ورودی، صرف نظر از محتوای آن تعیین می شود.

برای غلبه بر این مانع، محققان سطوح اطمینان GPT-3 را اندازه‌گیری کردند – احتمالی که به پیش‌بینی صحیح نسبت می‌دهد، متناسب با احتمال کلی که به پیش‌بینی‌های مربوطه اختصاص داده می‌شود. این رویکرد مشابه اندازه‌گیری میزان خطا است، که یک شاخص رایج دشواری کار در آزمایش‌های شناختی انسان است.

یکی از جنبه های مهم این روش، معرفی “بار ذهنی” برای چالش برانگیزتر کردن وظایف برای GPT-3 بود. این با افزودن فاصله بین حروف محرک به دست آمد و مدل را مجبور کرد که ورودی را در قالبی کمتر آشنا پردازش کند.

علاوه بر این، محققان در دستکاری متغیرهای مستقل با محدودیت‌هایی مواجه بودند، زیرا تکنیک‌های مورد استفاده در آزمایش‌های انسانی، مانند تغییر اندازه فونت یا محو کردن متن، نمی‌توانند مستقیماً روی LLM‌ها اعمال شوند. برای رفع این مشکل، آنها راه‌حل‌های خلاقانه‌ای مانند ارائه کلمات با حروف بزرگ مختلف به عنوان قیاسی برای تغییر اندازه فونت و افزودن فاصله بین حروف برای شبیه‌سازی تاری اجرا کردند.

علاوه بر این، در حالی که سوگیری‌های شناختی انسان معمولاً با میانگین‌گیری داده‌ها در میان بسیاری از شرکت‌کنندگان شناسایی می‌شوند، GPT-3 یک «شرکت‌کننده» را نشان می‌دهد که همیشه با توزیع احتمال یکسان برای پرسش‌های یکسان پاسخ می‌دهد. برای جبران این مسئله قدرت آماری، محققان تغییراتی را در قالب‌های پرس و جو معرفی کردند که به آنها اجازه می‌داد چندین سؤال بپرسند و داده‌های کافی برای تجزیه و تحلیل به دست آورند.

اگرچه این اصلاحات از روش‌های سنتی منحرف می‌شوند، محققان استدلال می‌کنند که رویکرد جدید آن‌ها جوهر اثرات شناختی تحت بررسی را نشان می‌دهد، همانطور که توسط توانایی آنها در تکرار بیشتر اثرات آزمایش‌شده در GPT-3 مشهود است.

اثرات شناختی بررسی شده

در مطالعه خود، محققان پنج اثر شناختی کلیدی را در حوزه های مختلف شناخت انسان بررسی کردند. این اثرات که به طور گسترده در روانشناسی شناختی مورد مطالعه قرار گرفته است، الگوهای سیستماتیکی را نشان می دهد که بینش هایی را در مورد فرآیندهای ذهنی زیربنایی درگیر در وظایفی مانند ادراک، یادگیری، استدلال و یادآوری ارائه می دهد.

  • اثر آغازگر (Priming): این اثر به تأثیر یک محرک (“اول”) بر پردازش بعدی یک محرک دیگر (“هدف”) اشاره دارد. به عنوان مثال، مردم تمایل دارند کلمات را سریعتر تشخیص دهند، زمانی که کلمات مرتبط معنایی قبل از آنها در مقایسه با کلمات نامرتبط قرار می گیرند. توضیح استاندارد این است که زمینه ایجاد شده توسط اول، عملیات شناختی مورد نیاز برای درک هدف را در دسترس تر می کند.
  • اثر فاصله: اثر فاصله نشان می دهد که زمان مورد نیاز برای مقایسه دو نماد یا محرک به فاصله بین ارجاع های آنها در طول بعد مورد ارزیابی بستگی دارد. به عنوان مثال، هنگام مقایسه اندازه حیوانات یا اعداد، با افزایش تفاوت بین اندازه محرک ها، زمان واکنش کاهش می یابد. این اثر اغلب به یک «خط اعداد ذهنی» نسبت داده می‌شود که مقایسه‌ها روی آن انجام می‌شود و مقایسه و رمزگذاری نقاط دورتر را آسان‌تر از نقاط نزدیک‌تر می‌کند.
  • اثر SNARC: افکت SNARC (Spatial-Numerical Association of Response Codes) به ارتباط بین اعداد کوچک و چپ، و اعداد بزرگ و راست اشاره دارد. در آزمایش‌ها، شرکت‌کنندگان تمایل دارند وقتی که اعداد بزرگ ارائه می‌شوند با دست راست و برای اعداد کوچک با دست چپ، سریع‌تر پاسخ دهند. اعتقاد بر این است که این تأثیر از جهت‌گیری خط اعداد ذهنی، جهت‌های خواندن فرهنگی یا ارتباط بین کوچک/بد و چپ و بزرگ/خوب و راست نشات می‌گیرد.
  • اثر تناسب اندازه (Size Congruity): این اثر پدیده ای را توصیف می کند که در آن افراد هنگام مقایسه اندازه دو محرک که در هر دو اندازه واقعی و نمایشی آنها مطابقت دارند، سریعتر پاسخ می دهند. به عنوان مثال، زمانی که نام حیوانات بزرگ با فونت بزرگ و نام حیوانات کوچک با فونت کوچک ارائه می‌شود، شرکت‌کنندگان زمان‌های پاسخ سریع‌تری را در مقایسه با زمانی که برعکس است نشان می‌دهند. توضیح استاندارد این است که اطلاعات متناقض بین اندازه واقعی و ارائه شده تداخل ایجاد می کند و زمان واکنش را کاهش می دهد.
  • اثر لنگر انداختن: اثر لنگر یک سوگیری شناختی است که زمانی اتفاق می‌افتد که افراد هنگام تصمیم‌گیری یا تخمین‌ها به شدت به یک قطعه اطلاعات اولیه (“لنگر”) تکیه می‌کنند، حتی زمانی که آن اطلاعات نامربوط باشد. به عنوان مثال، اگر از افراد خواسته شود که جمعیت یک کشور را پس از ارائه یک مقدار لنگر دلخواه تخمین بزنند، افراد تمایل دارند تخمین های خود را به اندازه کافی دور از آن لنگر تنظیم کنند، که منجر به تصمیم گیری های جانبدارانه می شود.

هدف محققان با آزمایش GPT-3 بر روی این اثرات شناختی متنوع، روشن کردن میزان تقلید یا ابداع مجدد الگوهای سیستماتیک مشاهده شده در شناخت انسان توسط این مدل است که به طور بالقوه بینش های ارزشمندی را در مورد ماهیت و عملکرد این مدل زبانی قدرتمند ارائه می دهد.

یافته ها و توضیحات

محققان از طریق روش نوآورانه خود، چندین یافته جالب در مورد وجود اثرات شناختی در GPT-3 را کشف کردند. قابل توجه است، چهار اثر از پنج اثر آزمایش شده – اثر آغازگر، اثر فاصله، اثر SNARC، و اثر تناسب اندازه – در واقع توسط مدل زبان به نمایش گذاشته شد.

اثر پرایمینگ:

GPT-3 در تشخیص کلمات مرتبط در مقایسه با کلمات نامرتبط، اعتماد بیشتری در تشخیص کلمات نشان داد، که بازتاب اثر آغازگر مشاهده شده در انسان است. این تأثیر به‌ویژه زمانی مشخص می‌شد که اول به صراحت به عنوان یک کلمه ارائه می‌شد، که نشان می‌دهد مکانیسم توجه GPT-3 ممکن است بیشتر بر روی اطلاعات مرتبط با زمینه تمرکز کند.

اثر فاصله:

هنگام مقایسه اندازه حیوانات یا اعداد، با بزرگتر شدن فاصله بین محرک ها، اطمینان GPT-3 افزایش می یابد. این الگو با تأثیر فاصله در شناخت انسان سازگار است، که اغلب به یک «خط اعداد ذهنی» نسبت داده می‌شود که مقایسه و کدگذاری نقاط دور در آن آسان‌تر از نقاط نزدیکتر است. با کمال تعجب، این اثر حتی زمانی که محرک‌ها با فاصله بین حروف ارائه می‌شدند ادامه داشت و توضیح ساده مبتنی بر token embedding را رد می‌کرد.

اثر SNARC:

محققان دریافتند که GPT-3 سمت چپ را با اعداد کوچک و راست را با اعداد بزرگ مرتبط می‌کند و اثر SNARC را نشان می‌دهد. این تأثیر در شناخت انسان تا حدودی خودسرانه در نظر گرفته می شود، با توضیحاتی از جهت گیری خط اعداد ذهنی گرفته تا عادات خواندن فرهنگی یا ارتباط بین چپ/بد و راست/خوب. فقدان تجسم فیزیکی یا زمینه فرهنگی GPT-3 وجود این اثر را به ویژه جذاب می کند.

اثر تناسب اندازه:

هنگام مقایسه اندازه حیوانات، GPT-3 زمانی که نام حیوانات کوچکتر با حروف کوچک و نام حیوانات بزرگتر با حروف بزرگ ارائه می شد، اطمینان بیشتری نشان داد، که با اثر تطابق اندازه مشاهده شده در انسان همسو می شود. این اثر معمولاً با تداخل یا فرآیندهای رمزگذاری پیچیده‌تر توضیح داده می‌شود که محرک‌ها در اندازه واقعی و ارائه‌شده‌شان ناسازگار باشند.

جالب توجه است، اثر لنگر، یک سوگیری شناختی که در آن افراد به شدت به یک بخش اولیه از اطلاعات نامربوط هنگام انجام تخمین‌ها یا تصمیم‌گیری‌ها تکیه می‌کنند، به طور قابل توجهی در پاسخ‌های GPT-3 وجود نداشت.

در حالی که این احتمال وجود دارد که برخی از این اثرات را می‌توان از داده‌های آموزشی تقلید کرد، محققان استدلال می‌کنند که بعید است که قالب‌های پرس و جوی خاص مورد استفاده در آزمایش‌های آنها در مجموعه آموزشی وجود داشته باشد. علاوه بر این، برخی از اثرات، مانند اثر SNARC، در شناخت انسان تا حدودی خودسرانه در نظر گرفته می‌شوند، و غیرممکن است که آنها به سادگی توسط مدل زبان تقلید شده باشند.

در عوض، محققان حدس می زنند که وجود این اثرات شناختی در GPT-3 ممکن است نشان دهنده توانایی مدل برای اختراع یا کشف مجدد این الگوهای سیستماتیک باشد، که به طور بالقوه بر فرآیندهای شناختی زیربنایی در خود مدل زبانی روشن می شود.

پیامدها و تحقیقات آینده

یافته‌های این مطالعه پیامدهای عمیقی برای درک ما از مدل‌های زبان بزرگ و پتانسیل آنها برای نشان دادن سوگیری‌های شناختی مشابه آنچه در شناخت انسان مشاهده می‌شود، دارد. با تکرار موفقیت آمیز چندین اثر شناختی تثبیت شده در GPT-3، محققان نشان داده اند که این سیستم‌های هوش مصنوعی پیشرفته صرفاً تقلید کننده الگوهای موجود در داده های آموزشی خود نیستند، بلکه قادر به اختراع یا کشف مجدد پدیده های شناختی سیستماتیک هستند.

این مکاشفه راه های هیجان انگیزی را برای تحقیقات آینده باز می کند. به عنوان مثال، بررسی حضور و میزان این اثرات در تکرارهای جدیدتر مدل‌های زبان، مانند GPT-4 که اخیراً منتشر شده است، می‌تواند بینش‌های ارزشمندی در مورد تکامل و اصلاح ظرفیت‌های شناختی این مدل‌ها ارائه دهد.

علاوه بر این، مقایسه با سایر مدل‌های زبانی پیشرفته فراتر از خانواده GPT، تعمیم‌پذیری این یافته‌ها را بیشتر روشن می‌کند و ویژگی‌های منحصربه‌فرد معماری‌ها و روش‌های آموزشی مختلف را روشن می‌کند.

روش جدید محققان برای تبدیل آزمایش‌های دنیای واقعی به پیام‌های مبتنی بر متن، راه را برای ارزیابی جامع‌تر و سیستماتیک‌تر سوگیری‌های شناختی در LLM هموار می‌کند. پالایش و استانداردسازی چنین رویکردهایی می‌تواند توسعه معیارها و چارچوب‌هایی را برای ارزیابی قابلیت‌های شناختی این مدل‌ها، تسهیل توسعه و استقرار مسئولانه آن‌ها فراهم کند.

شاید جالب‌ترین نکته این باشد که اگر LLMها واقعاً قادر به اختراع مجدد اثرات شناختی فراتر از قلمرو شناخت انسانی باشند، پاسخ‌های آنها می‌تواند به طور بالقوه به خود حوزه روان‌شناسی شناختی کمک کند و دیدگاه‌ها و بینش‌های جدیدی را در مورد ماهیت شناخت و اصول زیربنایی آن ارائه دهد.

جمع‌بندی

یافته‌های این مطالعه در مورد وجود سوگیری‌های شناختی در GPT-3 پیامدهای مهمی برای درک ما از مدل‌های زبان بزرگ و پتانسیل آن‌ها برای نشان دادن پدیده‌های شناختی مشابه آنچه در شناخت انسان مشاهده می‌شود، دارد. با تکرار موفقیت آمیز چندین اثر شناختی تثبیت شده، محققان نشان داده اند که این سیستم های هوش مصنوعی پیشرفته صرفاً تقلید کننده الگوهای موجود در داده های آموزشی خود نیستند، بلکه قادر به اختراع یا کشف مجدد پدیده های شناختی سیستماتیک هستند.

از آنجایی که توسعه LLM ها با سرعت به پیشرفت خود ادامه می‌دهد، تحقیقات بیشتر در مورد ظرفیت‌ها و سوگیری‌های شناختی آنها بسیار مهم خواهد بود. روش جدید به کار گرفته شده در این مطالعه، چارچوبی امیدوارکننده برای ارزیابی‌های جامع و سیستماتیک ارائه می‌کند و راه را برای توسعه و پایه‌ریزی مسئولانه این سیستم‌های هوش مصنوعی قدرتمند هموار می‌کند.

در نهایت، یافته‌های این مطالعه نه تنها درک ما را از LLM عمیق‌تر می‌کند، بلکه راه‌های جدید هیجان‌انگیزی را برای همکاری بین‌رشته‌ای بین هوش مصنوعی و روان‌شناسی شناختی باز می‌کند و به طور بالقوه ماهیت اساسی خود شناخت را روشن می‌کند.

‌ on بررسی سوگیری های شناختی مدل‌های زبانی بزرگ

ارسال دیدگاه