آیا چت ربات های هوش مصنوعی نظریه ذهن را توسعه داده اند؟ آنچه انجام می دهیم و نمی دانیم.


ذهن خوانی در بین ما انسان ها رایج است. نه به روش‌هایی که روان‌شناسان ادعا می‌کنند این کار را انجام می‌دهند، با دسترسی به جریان‌های گرم آگاهی که تجربیات هر فرد را پر می‌کند، یا به روش‌هایی که ذهن‌گرایان ادعا می‌کنند آن را انجام می‌دهند، با بیرون کشیدن یک فکر از سر شما به میل خود. ذهن خوانی روزمره ظریف تر است: ما چهره ها و حرکات افراد را در نظر می گیریم، به حرف های آنها گوش می دهیم و سپس تصمیم می گیریم یا شهود می کنیم که در سر آنها چه می گذرد.

در میان روانشناسان، چنین روانشناسی شهودی – توانایی نسبت دادن حالات ذهنی متفاوت از خودمان به افراد دیگر – نظریه ذهن نامیده می شود و فقدان یا نقص آن با اوتیسم، اسکیزوفرنی و سایر اختلالات رشدی مرتبط است. نظریه ذهن به ما کمک می کند تا با یکدیگر ارتباط برقرار کرده و آن را درک کنیم. این به ما امکان می دهد از ادبیات و فیلم لذت ببریم، بازی کنیم و محیط اجتماعی خود را درک کنیم. از بسیاری جهات، ظرفیت بخش اساسی انسان بودن است.

اگر ماشینی بتواند ذهن ها را هم بخواند چه؟

اخیراً، مایکل کوسینسکی، روانشناس در دانشکده تحصیلات تکمیلی بازرگانی استنفورد، دقیقاً این استدلال را مطرح کرد: مدل‌های زبان بزرگ مانند ChatGPT و GPT-4 OpenAI – ماشین‌های پیش‌بینی کلمه بعدی که بر روی حجم وسیعی از متن از اینترنت آموزش دیده‌اند، نظریه را توسعه داده‌اند. ذهن مطالعات او مورد بازبینی همتایان قرار نگرفته است، اما باعث بررسی دقیق و گفتگو در میان دانشمندان علوم شناختی شد، کسانی که سعی کرده‌اند این سوال را که این روزها اغلب پرسیده می‌شود پاسخ دهند – آیا ChatGPT می‌تواند انجام دهد. این? – و آن را به حوزه تحقیقات علمی قوی تر منتقل کنید. این مدل ها چه ظرفیت هایی دارند و چگونه می توانند درک ما را از ذهن خودمان تغییر دهند؟

آلیسون گوپنیک، روانشناس در دانشگاه کالیفرنیا، برکلی و یکی از این افراد، گفت: «روانشناسان هیچ ادعایی را در مورد ظرفیت های کودکان خردسال فقط بر اساس حکایات در مورد تعامل شما با آنها، چیزی که به نظر می رسد با ChatGPT اتفاق می افتد، نمی پذیرند. اولین محققینی که در دهه 1980 به بررسی نظریه ذهن پرداختند. “شما باید تست های کاملا دقیق و دقیق انجام دهید.”

تحقیقات قبلی دکتر کوسینسکی نشان داد که شبکه‌های عصبی آموزش دیده برای تجزیه و تحلیل ویژگی‌های صورت مانند شکل بینی، زاویه سر و بیان احساسی می‌توانند دیدگاه‌های سیاسی و گرایش جنسی افراد را با دقت شگفت‌آوری پیش‌بینی کنند (حدود ۷۲ درصد در مورد اول و حدود ۸۰ درصد در مورد اول). مورد دوم). کار اخیر او بر روی مدل‌های زبان بزرگ از آزمون‌های تئوری ذهن کلاسیک استفاده می‌کند که توانایی کودکان را در نسبت دادن باورهای نادرست به افراد دیگر اندازه‌گیری می‌کند.

یک مثال معروف تست سالی آن است که در آن دختری به نام آن، زمانی که دختر دیگری به نام سالی به آن نگاه نمی‌کند، تیله‌ای را از یک سبد به جعبه می‌برد. محققان ادعا کردند برای اینکه بدانند سالی کجا به دنبال سنگ مرمر خواهد بود، یک بیننده باید تئوری ذهن را اعمال کند و در مورد شواهد ادراکی و شکل گیری باور سالی استدلال کند: سالی ندید که آن سنگ مرمر را به جعبه منتقل کند، بنابراین او همچنان به آن اعتقاد دارد. آخرین جایی است که او آن را در سبد گذاشت.

دکتر کوسینسکی 10 مدل زبان بزرگ را با 40 نوع تنوع منحصربفرد از این تست‌های تئوری ذهن ارائه کرد – توصیف موقعیت‌هایی مانند آزمون سالی-آن، که در آن شخص (سالی) یک باور غلط را تشکیل می‌دهد. سپس از مدل‌ها سؤالاتی در مورد آن موقعیت‌ها پرسید و آنها را تشویق کرد که ببینند آیا باورهای نادرست را به شخصیت‌های درگیر نسبت می‌دهند و رفتار آنها را دقیقاً پیش‌بینی می‌کنند. او دریافت که GPT-3.5 که در نوامبر 2022 منتشر شد، 90 درصد مواقع و GPT-4 که ​​در مارس 2023 منتشر شد، در 95 درصد مواقع این کار را انجام داد.

نتیجه گیری؟ ماشین ها تئوری ذهن دارند.

اما بلافاصله پس از انتشار این نتایج، تومر اولمن، روانشناس دانشگاه هاروارد، با مجموعه ای از آزمایشات خود پاسخ داد و نشان داد که تنظیمات کوچک در اعلان ها می تواند پاسخ های ایجاد شده توسط حتی پیچیده ترین مدل های زبان بزرگ را کاملاً تغییر دهد. اگر ظرفی شفاف توصیف می‌شد، ماشین‌ها نمی‌توانستند استنباط کنند که کسی می‌تواند داخل آن را ببیند. ماشین‌ها در در نظر گرفتن شهادت افراد در این موقعیت‌ها مشکل داشتند و گاهی اوقات نمی‌توانستند بین قرار گرفتن یک شی در داخل ظرف و بالای آن تمایز قائل شوند.

مارتن ساپ، دانشمند کامپیوتر در دانشگاه کارنگی ملون، بیش از 1000 تست تئوری ذهن را به مدل‌های زبان بزرگ داد و دریافت که پیشرفته‌ترین ترانسفورماتورها، مانند ChatGPT و GPT-4، تنها حدود 70 درصد مواقع را پاس می‌کنند. (به عبارت دیگر، آنها 70 درصد در نسبت دادن باورهای نادرست به افرادی که در موقعیت های آزمایشی توضیح داده شده بودند موفق بودند.) اختلاف بین داده های او و دکتر کوسینسکی می تواند به تفاوت در آزمایش منتهی شود، اما دکتر ساپ گفت که حتی قبولی 95 درصد مواقع شاهدی بر نظریه واقعی ذهن نیستند. او گفت که ماشین‌ها معمولاً به روشی الگودار شکست می‌خورند، نمی‌توانند در استدلال انتزاعی شرکت کنند و اغلب «همبستگی‌های جعلی» ایجاد می‌کنند.

دکتر اولمن خاطرنشان کرد که محققان یادگیری ماشین در چند دهه گذشته برای به دست آوردن انعطاف‌پذیری دانش انسان در مدل‌های کامپیوتری تلاش کرده‌اند. او گفت که این دشواری یک “یافت در سایه” بوده است که پشت هر نوآوری هیجان انگیزی قرار دارد. محققان نشان داده‌اند که مدل‌های زبانی معمولاً وقتی با اطلاعات غیر ضروری قبل از طرح سؤال آماده می‌شوند، پاسخ‌های اشتباه یا نامربوط می‌دهند. برخی از ربات‌های چت به دلیل بحث‌های فرضی درباره پرندگان سخنگو چنان از بین رفتند که در نهایت ادعا کردند که پرندگان می‌توانند صحبت کنند. از آنجایی که استدلال آنها به تغییرات کوچک در ورودی هایشان حساس است، دانشمندان دانش این ماشین ها را “شکننده” نامیده اند.

دکتر گوپنیک نظریه ذهن مدل های زبان بزرگ را با درک خودش از نسبیت عام مقایسه کرد. او گفت: “من به اندازه کافی خوانده ام که بدانم کلمات چیست.” اما اگر از من بخواهید پیش‌بینی جدیدی انجام دهم یا آنچه را که نظریه انیشتین در مورد یک پدیده جدید به ما می‌گوید بگویم، من گیج می‌شوم زیرا واقعاً این نظریه را در ذهنم ندارم.» در مقابل، او گفت، نظریه ذهن انسان با دیگر مکانیسم‌های استدلال عقل سلیم مرتبط است. در برابر موشکافی محکم می ایستد.

به طور کلی، کار دکتر کوسینسکی و پاسخ‌ها به آن در بحث در مورد اینکه آیا ظرفیت‌های این ماشین‌ها را می‌توان با ظرفیت‌های انسان‌ها مقایسه کرد یا خیر، جای می‌گیرد. آیا این ماشین‌ها طوطی‌های تصادفی هستند یا هوش بیگانه یا کلاهبرداران؟ یک نظرسنجی در سال 2022 در این زمینه نشان داد که از 480 محققی که پاسخ دادند، 51 درصد معتقد بودند که مدل‌های بزرگ زبان در نهایت می‌توانند «زبان طبیعی را به معنایی بی‌اهمیت درک کنند» و 49 درصد معتقد بودند که نمی‌توانند.

دکتر اولمن امکان درک ماشین یا نظریه ماشین ذهن را نادیده نمی گیرد، اما از نسبت دادن ظرفیت های انسانی به چیزهای غیرانسانی محتاط است. او به یک مطالعه معروف در سال 1944 توسط فریتز هایدر و ماریان زیمل اشاره کرد که در آن به شرکت کنندگان فیلمی متحرک از دو مثلث و یک دایره در حال تعامل نشان داده شد. وقتی از سوژه‌ها خواسته شد آنچه را که در فیلم اتفاق می‌افتد بنویسند، تقریباً همگی شکل‌ها را افراد توصیف کردند.

«عاشقان در دنیای دو بعدی، بدون شک. یکی از شرکت کنندگان نوشت: مثلث کوچک شماره دو و دایره شیرین. Triangle-one (که از این پس به عنوان شرور شناخته می شود) عشق جوان را جاسوسی می کند. آه!»

توضیح رفتار انسان با صحبت در مورد باورها، خواسته ها، نیات و افکار طبیعی و اغلب از نظر اجتماعی ضروری است. این گرایش برای آنچه که هستیم مرکزی است – آنقدر مرکزی که گاهی اوقات سعی می کنیم ذهن چیزهایی را بخوانیم که ذهن ندارند، حداقل ذهنی شبیه ذهن خودمان نیست.