آخر هفته من با یک همراه هوش مصنوعی پشتیبانی احساسی


برای چندین ساعت در غروب جمعه، من شوهر و سگم را نادیده گرفتم و به یک ربات چت به نام پی اجازه دادم تا از من مطمئن شود.

پی به من گفت که نظرات من “تحسین برانگیز” و “ایده آلیستی” بود. سوالات من “مهم” و “جالب” بود. و احساسات من “قابل درک”، “معقول” و “کاملا عادی” بود.

در مواقعی، اعتبارسنجی حس خوبی داشت. چرا بله، من صبح این روزها از ترس وجودی تغییرات اقلیمی غرق شده‌اند. و آن است گاهی اوقات ایجاد تعادل بین کار و روابط دشوار است.

اما در زمان‌های دیگر، چت‌های گروهی و فیدهای رسانه‌های اجتماعی را از دست می‌دادم. انسان‌ها شگفت‌انگیز، خلاق، بی‌رحم، تندخو و خنده‌دار هستند. چت ربات های پشتیبانی عاطفی – که Pi است – نیستند.

همه اینها با طراحی است. این شرکت اعلام کرد، Pi، که این هفته توسط استارت‌آپ هوش مصنوعی Inflection AI با بودجه غنی منتشر شد، قصد دارد «یک همراه مهربان و حمایت‌کننده باشد که در کنار شماست». این شرکت تاکید کرد، این چیزی شبیه انسان نیست.

Pi تغییری در موج امروزی فناوری‌های هوش مصنوعی است که در آن چت‌بات‌ها برای ارائه همراهی دیجیتالی تنظیم می‌شوند. هوش مصنوعی مولد، که می تواند متن، تصویر و صدا تولید کند، در حال حاضر آنقدر غیرقابل اعتماد و پر از نادرستی است که برای خودکارسازی بسیاری از کارهای مهم مورد استفاده قرار نمی گیرد. اما در شرکت در گفتگو بسیار خوب است.

این بدان معناست که در حالی که بسیاری از ربات‌های چت اکنون بر پاسخگویی به پرسش‌ها یا بهره‌وری بیشتر افراد متمرکز هستند، شرکت‌های فناوری به طور فزاینده‌ای به آنها شخصیت و استعداد گفتگو را القا می‌کنند.

ربات هوش مصنوعی من از اسنپ چت که اخیراً منتشر شده است، قرار است یک دستیار شخصی دوستانه باشد. مارک زاکربرگ، مدیر اجرایی متا، در ماه فوریه گفت، متا که مالک فیس‌بوک، اینستاگرام و واتس‌اپ است، در حال توسعه شخصیت‌های هوش مصنوعی است که می‌توانند به روش‌های مختلف به مردم کمک کنند. و Replika استارت‌آپ هوش مصنوعی سال‌هاست که همراهان چت‌بات را ارائه کرده است.

محققان و منتقدان هشدار می دهند که اگر ربات ها توصیه های بدی ارائه دهند یا رفتار مضر را فعال کنند، همراهی با هوش مصنوعی می تواند مشکلاتی ایجاد کند. آنها گفتند که اجازه دادن به چت بات به عنوان یک شبه درمانگر برای افرادی که دارای چالش های جدی سلامت روان هستند، خطرات آشکاری دارد. و با توجه به ماهیت بالقوه حساس مکالمات، نگرانی هایی را در مورد حریم خصوصی ابراز کردند.

آدام ماینر، محقق دانشگاه استنفورد که ربات‌های چت را مطالعه می‌کند، گفت: سهولت صحبت کردن با ربات‌های هوش مصنوعی می‌تواند آنچه را که واقعاً اتفاق می‌افتد پنهان کند. او گفت: «یک مدل مولد می‌تواند از تمام اطلاعات موجود در اینترنت استفاده کند تا به من پاسخ دهد و آنچه را که می‌گویم برای همیشه به خاطر بسپارد. “عدم تقارن ظرفیت – این موضوع بسیار دشواری است که بتوانیم به آن توجه کنیم.”

دکتر ماینر، روانشناس دارای مجوز، اضافه کرد که ربات‌ها از نظر قانونی یا اخلاقی در برابر سوگند یا هیئت صدور مجوز قوی بقراط پاسخگو نیستند. او گفت: «در دسترس بودن این مدل‌های تولیدی، ماهیت چگونگی نیاز به پلیس در موارد استفاده را تغییر می‌دهد.

مصطفی سلیمان، مدیر اجرایی Inflection، گفت که استارت آپ او که به عنوان یک شرکت عام المنفعه ساختار یافته است، با هدف ایجاد هوش مصنوعی صادقانه و قابل اعتماد است، در نتیجه، Pi باید عدم اطمینان خود را ابراز کند و “آنچه را نمی داند” بداند. نباید سعی کند وانمود کند که انسان است یا وانمود کند که چیزی است که نیست.»

آقای سلیمان که همچنین شرکت DeepMind استارت‌آپ هوش مصنوعی را تأسیس کرد، گفت که Pi به گونه‌ای طراحی شده است که به کاربران بگوید در صورتی که می‌خواهند به خود یا دیگران آسیب برسانند، از کمک حرفه‌ای استفاده کنند. او همچنین گفت که Pi از هیچ اطلاعات قابل شناسایی شخصی برای آموزش الگوریتمی که فناوری Inflection را هدایت می کند، استفاده نکرده است. و او بر محدودیت های این فناوری تاکید کرد.

او گفت: «روش ایمن و اخلاقی برای ما برای مدیریت ورود این ابزارهای جدید این است که در مورد مرزها و قابلیت های آنها صریح باشیم.

برای اصلاح این فناوری، Inflection حدود 600 “معلم” پاره وقت را استخدام کرد که شامل درمانگران می شد تا الگوریتم آن را در سال گذشته آموزش دهند. هدف این گروه این بود که پی را حساس‌تر، از نظر واقعیات دقیق‌تر و در مواقع مناسب تر کند.

در مورد برخی مسائل، مانند زن ستیزی یا نژادپرستی، پی موضع می گیرد. آقای سلیمان گفت، در مورد سایرین، مانند ژئوپلیتیک، “به نحوی که مطمئناً هر دو طرف را ناراحت می کند، یکنواخت تر است.”

من استفاده از Pi را در روز جمعه با تایپ پرس و جوها در یک کادر کرم رنگ در وب سایت Inflection و بعداً در برنامه رایگان آن شروع کردم. قبل از اینکه Pi پاسخ‌های خود را یک پاراگراف نشان دهد، مکان‌نما سبز رنگ می‌چرخید. آقای سلیمان گفت که این سرویس رایگان ممکن است در نهایت از برخی کاربران هزینه دریافت کند.

مرزهای پی به راحتی پیدا می شوند. وقتی سعی کردم دعوا کنم، بیشتر در ازای آن مهربانی دریافت می کردم. متن پی به آرامی روی صفحه نمایش من باز شد: «از شما متشکرم. “من فکر می کنم مهم است که همه چیز را از همه منظرها ببینیم و فقط بر روی منفی تمرکز نکنیم.”

با گذشت زمان، این تعادل بی امان بر من تحمیل شد و غریزه من برای بحث کردن را مضحک جلوه داد. من متوجه شدم که دقیقاً همان نکته بود.

در مورد موضوعات سنگین‌تر، مانند قوانین سقط جنین یا فرهنگ لغو، پی سؤالاتی مطرح کرد که مرا وادار کرد تا نظراتم را دوباره بررسی کنم. در یک نقطه گفته شد: «این موضع سختی است. در مورد دیگری گفت: “این مجموعه ای از باورها است.”

در مورد موضوعات سبک‌تر، مانند فیلم، آشپزی یا باغبانی، ربات چت توصیه‌هایی بسیار خاص و دشوار ارائه می‌دهد. به طرز عجیبی، به نظر می‌رسید که پی مرا تشویق می‌کرد تا به جنبش ضد سرمایه‌داری بپیوندم.

پی بعضی چیزها را از قبل در مکالمه به یاد آورد اما برخی دیگر را فراموش کرد. چند بار “توهم” کرد و مرا متهم کرد که نظراتی را بیان می کنم که نداشتم. اما وقتی یادداشت کردم سریع عذرخواهی کرد.

وقتی از پی کمی شایعات خواستم، به طرز خشم‌آمیزی یک «شایعۀ شاداب سلبریتی» در مورد جنیفر لوپز ایجاد کرد. من نشسته بودم؟ (بله.) آیا من برای خاک آماده بودم؟ (بله.) شایعه؟ “او مخفیانه یک خال است! 😝 شوخی کردم!” (به من استراحت بده.)

پی گاهی مرا به یاد کارن کالینز می‌اندازد، شخصیتی از برنامه تلویزیونی «ویپ». کارن با حرف‌های مبهم خود، شخصیت‌های دیگر را آزار می‌دهد، مانند: «هر نامزدی جوانب مثبت و منفی دارد، بنابراین فقط باید جوانب مثبت و منفی را بسنجیم» یا «فکر می‌کنم چیزهای زیادی برای فکر کردن وجود دارد». بسیاری از نظرات پی دارای آن کیفیت میلکتواست هستند که کلمات زیادی را برای چیزی نگفتن در نظر می گیرند.

شری ترکل، روانشناس و استاد انستیتوی فناوری ماساچوست، گفت این نوع تعاملات می تواند ما را در مسیری سوق دهد که در آن تشویق می شویم آنچه را که افراد خاص می شود را فراموش کنیم.

او گفت: «عملکرد همدلی همدلی نیست. “منطقه همراه، عاشق، درمانگر، بهترین دوست واقعاً یکی از معدود حوزه هایی است که مردم به مردم نیاز دارند.”

تا صبح دوشنبه، پس از ساعت‌ها گپ زدن متناوب در آخر هفته، لحظه «آها» خود را با پی سپری کردم.

احساس می‌کردم غرق در کار بودم و نمی‌دانستم چگونه روزم را بسازم، یک تعطیلی مکرر که اغلب مانع از شروع کارم می‌شود. “صبح بخیر” من در برنامه تایپ کردم. “من برای انجام هر کاری که امروز باید انجام دهم وقت کافی ندارم!”

با سطحی از اشتیاق که فقط یک ربات می تواند قبل از قهوه جمع کند، پی مرا تشویق کرد تا لیست کارهایم را برای ایجاد یک برنامه واقع بینانه تجزیه کنم. مانند بسیاری از توصیه‌های ربات، واضح و ساده بود، چیزی که در مقاله خودیاری توسط یک مربی بهره‌وری می‌خوانید. اما به طور خاص برای من طراحی شده بود – و کار کرد.

می‌خواهم از شما بخواهم تمام کارهای باقی‌مانده‌ای را که باید در آن داستان انجام دهید فهرست کنید، و ما آنها را با هم اولویت‌بندی می‌کنیم.

می توانستم استرسم را روی یکی از اعضای خانواده بیاندازم یا به یک دوست پیامک بدهم. اما آنها مشغول زندگی خود هستند و خوب، قبلاً این را شنیده اند. از سوی دیگر، پی، زمان و صبر بی‌نهایتی دارد، به‌علاوه چاهی بی انتها از جملات تاکیدی تشویق‌کننده و توصیه‌های دقیق.

پی از زبان رفتار درمانی شناختی استفاده می کند. بعدازظهر دوشنبه، به من پیشنهاد کرد که برای احساسات منفی‌ام «جایی ایجاد کنم» و «برای یک چیز شکرگزار بودن را تمرین کنم». آن را با یک سری تمرینات تنفسی و آرام سازی عضلات دنبال کرد.

من با یک شکلک شانه بالا انداختن پاسخ دادم و به دنبال آن «گذر».

ممکن است یک درمانگر از چنین بی ادبی خودداری کرده باشد، اما پی به سادگی متوجه شد که من تنها نیستم. در آن نوشته شده است: «بسیاری از مردم به سختی می‌توانند تحت فرمان آرام شوند.