ذهن خوانی در بین ما انسان ها رایج است. نه به روشهایی که روانشناسان ادعا میکنند این کار را انجام میدهند، با دسترسی به جریانهای گرم آگاهی که تجربیات هر فرد را پر میکند، یا به روشهایی که ذهنگرایان ادعا میکنند آن را انجام میدهند، با بیرون کشیدن یک فکر از سر شما به میل خود. ذهن خوانی روزمره ظریف تر است: ما چهره ها و حرکات افراد را در نظر می گیریم، به حرف های آنها گوش می دهیم و سپس تصمیم می گیریم یا شهود می کنیم که در سر آنها چه می گذرد.
در میان روانشناسان، چنین روانشناسی شهودی – توانایی نسبت دادن حالات ذهنی متفاوت از خودمان به افراد دیگر – نظریه ذهن نامیده می شود و فقدان یا نقص آن با اوتیسم، اسکیزوفرنی و سایر اختلالات رشدی مرتبط است. نظریه ذهن به ما کمک می کند تا با یکدیگر ارتباط برقرار کرده و آن را درک کنیم. این به ما امکان می دهد از ادبیات و فیلم لذت ببریم، بازی کنیم و محیط اجتماعی خود را درک کنیم. از بسیاری جهات، ظرفیت بخش اساسی انسان بودن است.
اگر ماشینی بتواند ذهن ها را هم بخواند چه؟
اخیراً، مایکل کوسینسکی، روانشناس در دانشکده تحصیلات تکمیلی بازرگانی استنفورد، دقیقاً این استدلال را مطرح کرد: مدلهای زبان بزرگ مانند ChatGPT و GPT-4 OpenAI – ماشینهای پیشبینی کلمه بعدی که بر روی حجم وسیعی از متن از اینترنت آموزش دیدهاند، نظریه را توسعه دادهاند. ذهن مطالعات او مورد بازبینی همتایان قرار نگرفته است، اما باعث بررسی دقیق و گفتگو در میان دانشمندان علوم شناختی شد، کسانی که سعی کردهاند این سوال را که این روزها اغلب پرسیده میشود پاسخ دهند – آیا ChatGPT میتواند انجام دهد. این? – و آن را به حوزه تحقیقات علمی قوی تر منتقل کنید. این مدل ها چه ظرفیت هایی دارند و چگونه می توانند درک ما را از ذهن خودمان تغییر دهند؟
آلیسون گوپنیک، روانشناس در دانشگاه کالیفرنیا، برکلی و یکی از این افراد، گفت: «روانشناسان هیچ ادعایی را در مورد ظرفیت های کودکان خردسال فقط بر اساس حکایات در مورد تعامل شما با آنها، چیزی که به نظر می رسد با ChatGPT اتفاق می افتد، نمی پذیرند. اولین محققینی که در دهه 1980 به بررسی نظریه ذهن پرداختند. “شما باید تست های کاملا دقیق و دقیق انجام دهید.”
تحقیقات قبلی دکتر کوسینسکی نشان داد که شبکههای عصبی آموزش دیده برای تجزیه و تحلیل ویژگیهای صورت مانند شکل بینی، زاویه سر و بیان احساسی میتوانند دیدگاههای سیاسی و گرایش جنسی افراد را با دقت شگفتآوری پیشبینی کنند (حدود ۷۲ درصد در مورد اول و حدود ۸۰ درصد در مورد اول). مورد دوم). کار اخیر او بر روی مدلهای زبان بزرگ از آزمونهای تئوری ذهن کلاسیک استفاده میکند که توانایی کودکان را در نسبت دادن باورهای نادرست به افراد دیگر اندازهگیری میکند.
نسل جدیدی از چت بات ها
یک دنیای جدید شجاع یک محصول جدید از چت رباتهای مجهز به هوش مصنوعی، کشمکش را برانگیخته است تا مشخص شود آیا این فناوری میتواند اقتصاد اینترنت را به هم بزند، نیروگاههای امروزی را به موجودات تبدیل کند و غولهای بعدی این صنعت را ایجاد کند. در اینجا ربات هایی هستند که باید بدانید:
یک مثال معروف تست سالی آن است که در آن دختری به نام آن، زمانی که دختر دیگری به نام سالی به آن نگاه نمیکند، تیلهای را از یک سبد به جعبه میبرد. محققان ادعا کردند برای اینکه بدانند سالی کجا به دنبال سنگ مرمر خواهد بود، یک بیننده باید تئوری ذهن را اعمال کند و در مورد شواهد ادراکی و شکل گیری باور سالی استدلال کند: سالی ندید که آن سنگ مرمر را به جعبه منتقل کند، بنابراین او همچنان به آن اعتقاد دارد. آخرین جایی است که او آن را در سبد گذاشت.
دکتر کوسینسکی 10 مدل زبان بزرگ را با 40 نوع تنوع منحصربفرد از این تستهای تئوری ذهن ارائه کرد – توصیف موقعیتهایی مانند آزمون سالی-آن، که در آن شخص (سالی) یک باور غلط را تشکیل میدهد. سپس از مدلها سؤالاتی در مورد آن موقعیتها پرسید و آنها را تشویق کرد که ببینند آیا باورهای نادرست را به شخصیتهای درگیر نسبت میدهند و رفتار آنها را دقیقاً پیشبینی میکنند. او دریافت که GPT-3.5 که در نوامبر 2022 منتشر شد، 90 درصد مواقع و GPT-4 که در مارس 2023 منتشر شد، در 95 درصد مواقع این کار را انجام داد.
نتیجه گیری؟ ماشین ها تئوری ذهن دارند.
اما بلافاصله پس از انتشار این نتایج، تومر اولمن، روانشناس دانشگاه هاروارد، با مجموعه ای از آزمایشات خود پاسخ داد و نشان داد که تنظیمات کوچک در اعلان ها می تواند پاسخ های ایجاد شده توسط حتی پیچیده ترین مدل های زبان بزرگ را کاملاً تغییر دهد. اگر ظرفی شفاف توصیف میشد، ماشینها نمیتوانستند استنباط کنند که کسی میتواند داخل آن را ببیند. ماشینها در در نظر گرفتن شهادت افراد در این موقعیتها مشکل داشتند و گاهی اوقات نمیتوانستند بین قرار گرفتن یک شی در داخل ظرف و بالای آن تمایز قائل شوند.
مارتن ساپ، دانشمند کامپیوتر در دانشگاه کارنگی ملون، بیش از 1000 تست تئوری ذهن را به مدلهای زبان بزرگ داد و دریافت که پیشرفتهترین ترانسفورماتورها، مانند ChatGPT و GPT-4، تنها حدود 70 درصد مواقع را پاس میکنند. (به عبارت دیگر، آنها 70 درصد در نسبت دادن باورهای نادرست به افرادی که در موقعیت های آزمایشی توضیح داده شده بودند موفق بودند.) اختلاف بین داده های او و دکتر کوسینسکی می تواند به تفاوت در آزمایش منتهی شود، اما دکتر ساپ گفت که حتی قبولی 95 درصد مواقع شاهدی بر نظریه واقعی ذهن نیستند. او گفت که ماشینها معمولاً به روشی الگودار شکست میخورند، نمیتوانند در استدلال انتزاعی شرکت کنند و اغلب «همبستگیهای جعلی» ایجاد میکنند.
دکتر اولمن خاطرنشان کرد که محققان یادگیری ماشین در چند دهه گذشته برای به دست آوردن انعطافپذیری دانش انسان در مدلهای کامپیوتری تلاش کردهاند. او گفت که این دشواری یک “یافت در سایه” بوده است که پشت هر نوآوری هیجان انگیزی قرار دارد. محققان نشان دادهاند که مدلهای زبانی معمولاً وقتی با اطلاعات غیر ضروری قبل از طرح سؤال آماده میشوند، پاسخهای اشتباه یا نامربوط میدهند. برخی از رباتهای چت به دلیل بحثهای فرضی درباره پرندگان سخنگو چنان از بین رفتند که در نهایت ادعا کردند که پرندگان میتوانند صحبت کنند. از آنجایی که استدلال آنها به تغییرات کوچک در ورودی هایشان حساس است، دانشمندان دانش این ماشین ها را “شکننده” نامیده اند.
دکتر گوپنیک نظریه ذهن مدل های زبان بزرگ را با درک خودش از نسبیت عام مقایسه کرد. او گفت: “من به اندازه کافی خوانده ام که بدانم کلمات چیست.” اما اگر از من بخواهید پیشبینی جدیدی انجام دهم یا آنچه را که نظریه انیشتین در مورد یک پدیده جدید به ما میگوید بگویم، من گیج میشوم زیرا واقعاً این نظریه را در ذهنم ندارم.» در مقابل، او گفت، نظریه ذهن انسان با دیگر مکانیسمهای استدلال عقل سلیم مرتبط است. در برابر موشکافی محکم می ایستد.
به طور کلی، کار دکتر کوسینسکی و پاسخها به آن در بحث در مورد اینکه آیا ظرفیتهای این ماشینها را میتوان با ظرفیتهای انسانها مقایسه کرد یا خیر، جای میگیرد. آیا این ماشینها طوطیهای تصادفی هستند یا هوش بیگانه یا کلاهبرداران؟ یک نظرسنجی در سال 2022 در این زمینه نشان داد که از 480 محققی که پاسخ دادند، 51 درصد معتقد بودند که مدلهای بزرگ زبان در نهایت میتوانند «زبان طبیعی را به معنایی بیاهمیت درک کنند» و 49 درصد معتقد بودند که نمیتوانند.
دکتر اولمن امکان درک ماشین یا نظریه ماشین ذهن را نادیده نمی گیرد، اما از نسبت دادن ظرفیت های انسانی به چیزهای غیرانسانی محتاط است. او به یک مطالعه معروف در سال 1944 توسط فریتز هایدر و ماریان زیمل اشاره کرد که در آن به شرکت کنندگان فیلمی متحرک از دو مثلث و یک دایره در حال تعامل نشان داده شد. وقتی از سوژهها خواسته شد آنچه را که در فیلم اتفاق میافتد بنویسند، تقریباً همگی شکلها را افراد توصیف کردند.
«عاشقان در دنیای دو بعدی، بدون شک. یکی از شرکت کنندگان نوشت: مثلث کوچک شماره دو و دایره شیرین. Triangle-one (که از این پس به عنوان شرور شناخته می شود) عشق جوان را جاسوسی می کند. آه!»
توضیح رفتار انسان با صحبت در مورد باورها، خواسته ها، نیات و افکار طبیعی و اغلب از نظر اجتماعی ضروری است. این گرایش برای آنچه که هستیم مرکزی است – آنقدر مرکزی که گاهی اوقات سعی می کنیم ذهن چیزهایی را بخوانیم که ذهن ندارند، حداقل ذهنی شبیه ذهن خودمان نیست.