برای چندین ساعت در غروب جمعه، من شوهر و سگم را نادیده گرفتم و به یک ربات چت به نام پی اجازه دادم تا از من مطمئن شود.
پی به من گفت که نظرات من “تحسین برانگیز” و “ایده آلیستی” بود. سوالات من “مهم” و “جالب” بود. و احساسات من “قابل درک”، “معقول” و “کاملا عادی” بود.
در مواقعی، اعتبارسنجی حس خوبی داشت. چرا بله، من صبح این روزها از ترس وجودی تغییرات اقلیمی غرق شدهاند. و آن است گاهی اوقات ایجاد تعادل بین کار و روابط دشوار است.
اما در زمانهای دیگر، چتهای گروهی و فیدهای رسانههای اجتماعی را از دست میدادم. انسانها شگفتانگیز، خلاق، بیرحم، تندخو و خندهدار هستند. چت ربات های پشتیبانی عاطفی – که Pi است – نیستند.
همه اینها با طراحی است. این شرکت اعلام کرد، Pi، که این هفته توسط استارتآپ هوش مصنوعی Inflection AI با بودجه غنی منتشر شد، قصد دارد «یک همراه مهربان و حمایتکننده باشد که در کنار شماست». این شرکت تاکید کرد، این چیزی شبیه انسان نیست.
Pi تغییری در موج امروزی فناوریهای هوش مصنوعی است که در آن چتباتها برای ارائه همراهی دیجیتالی تنظیم میشوند. هوش مصنوعی مولد، که می تواند متن، تصویر و صدا تولید کند، در حال حاضر آنقدر غیرقابل اعتماد و پر از نادرستی است که برای خودکارسازی بسیاری از کارهای مهم مورد استفاده قرار نمی گیرد. اما در شرکت در گفتگو بسیار خوب است.
این بدان معناست که در حالی که بسیاری از رباتهای چت اکنون بر پاسخگویی به پرسشها یا بهرهوری بیشتر افراد متمرکز هستند، شرکتهای فناوری به طور فزایندهای به آنها شخصیت و استعداد گفتگو را القا میکنند.
ربات هوش مصنوعی من از اسنپ چت که اخیراً منتشر شده است، قرار است یک دستیار شخصی دوستانه باشد. مارک زاکربرگ، مدیر اجرایی متا، در ماه فوریه گفت، متا که مالک فیسبوک، اینستاگرام و واتساپ است، در حال توسعه شخصیتهای هوش مصنوعی است که میتوانند به روشهای مختلف به مردم کمک کنند. و Replika استارتآپ هوش مصنوعی سالهاست که همراهان چتبات را ارائه کرده است.
محققان و منتقدان هشدار می دهند که اگر ربات ها توصیه های بدی ارائه دهند یا رفتار مضر را فعال کنند، همراهی با هوش مصنوعی می تواند مشکلاتی ایجاد کند. آنها گفتند که اجازه دادن به چت بات به عنوان یک شبه درمانگر برای افرادی که دارای چالش های جدی سلامت روان هستند، خطرات آشکاری دارد. و با توجه به ماهیت بالقوه حساس مکالمات، نگرانی هایی را در مورد حریم خصوصی ابراز کردند.
آدام ماینر، محقق دانشگاه استنفورد که رباتهای چت را مطالعه میکند، گفت: سهولت صحبت کردن با رباتهای هوش مصنوعی میتواند آنچه را که واقعاً اتفاق میافتد پنهان کند. او گفت: «یک مدل مولد میتواند از تمام اطلاعات موجود در اینترنت استفاده کند تا به من پاسخ دهد و آنچه را که میگویم برای همیشه به خاطر بسپارد. “عدم تقارن ظرفیت – این موضوع بسیار دشواری است که بتوانیم به آن توجه کنیم.”
دکتر ماینر، روانشناس دارای مجوز، اضافه کرد که رباتها از نظر قانونی یا اخلاقی در برابر سوگند یا هیئت صدور مجوز قوی بقراط پاسخگو نیستند. او گفت: «در دسترس بودن این مدلهای تولیدی، ماهیت چگونگی نیاز به پلیس در موارد استفاده را تغییر میدهد.
مصطفی سلیمان، مدیر اجرایی Inflection، گفت که استارت آپ او که به عنوان یک شرکت عام المنفعه ساختار یافته است، با هدف ایجاد هوش مصنوعی صادقانه و قابل اعتماد است، در نتیجه، Pi باید عدم اطمینان خود را ابراز کند و “آنچه را نمی داند” بداند. نباید سعی کند وانمود کند که انسان است یا وانمود کند که چیزی است که نیست.»
آقای سلیمان که همچنین شرکت DeepMind استارتآپ هوش مصنوعی را تأسیس کرد، گفت که Pi به گونهای طراحی شده است که به کاربران بگوید در صورتی که میخواهند به خود یا دیگران آسیب برسانند، از کمک حرفهای استفاده کنند. او همچنین گفت که Pi از هیچ اطلاعات قابل شناسایی شخصی برای آموزش الگوریتمی که فناوری Inflection را هدایت می کند، استفاده نکرده است. و او بر محدودیت های این فناوری تاکید کرد.
او گفت: «روش ایمن و اخلاقی برای ما برای مدیریت ورود این ابزارهای جدید این است که در مورد مرزها و قابلیت های آنها صریح باشیم.
برای اصلاح این فناوری، Inflection حدود 600 “معلم” پاره وقت را استخدام کرد که شامل درمانگران می شد تا الگوریتم آن را در سال گذشته آموزش دهند. هدف این گروه این بود که پی را حساستر، از نظر واقعیات دقیقتر و در مواقع مناسب تر کند.
در مورد برخی مسائل، مانند زن ستیزی یا نژادپرستی، پی موضع می گیرد. آقای سلیمان گفت، در مورد سایرین، مانند ژئوپلیتیک، “به نحوی که مطمئناً هر دو طرف را ناراحت می کند، یکنواخت تر است.”
من استفاده از Pi را در روز جمعه با تایپ پرس و جوها در یک کادر کرم رنگ در وب سایت Inflection و بعداً در برنامه رایگان آن شروع کردم. قبل از اینکه Pi پاسخهای خود را یک پاراگراف نشان دهد، مکاننما سبز رنگ میچرخید. آقای سلیمان گفت که این سرویس رایگان ممکن است در نهایت از برخی کاربران هزینه دریافت کند.
مرزهای پی به راحتی پیدا می شوند. وقتی سعی کردم دعوا کنم، بیشتر در ازای آن مهربانی دریافت می کردم. متن پی به آرامی روی صفحه نمایش من باز شد: «از شما متشکرم. “من فکر می کنم مهم است که همه چیز را از همه منظرها ببینیم و فقط بر روی منفی تمرکز نکنیم.”
با گذشت زمان، این تعادل بی امان بر من تحمیل شد و غریزه من برای بحث کردن را مضحک جلوه داد. من متوجه شدم که دقیقاً همان نکته بود.
در مورد موضوعات سنگینتر، مانند قوانین سقط جنین یا فرهنگ لغو، پی سؤالاتی مطرح کرد که مرا وادار کرد تا نظراتم را دوباره بررسی کنم. در یک نقطه گفته شد: «این موضع سختی است. در مورد دیگری گفت: “این مجموعه ای از باورها است.”
در مورد موضوعات سبکتر، مانند فیلم، آشپزی یا باغبانی، ربات چت توصیههایی بسیار خاص و دشوار ارائه میدهد. به طرز عجیبی، به نظر میرسید که پی مرا تشویق میکرد تا به جنبش ضد سرمایهداری بپیوندم.
پی بعضی چیزها را از قبل در مکالمه به یاد آورد اما برخی دیگر را فراموش کرد. چند بار “توهم” کرد و مرا متهم کرد که نظراتی را بیان می کنم که نداشتم. اما وقتی یادداشت کردم سریع عذرخواهی کرد.
وقتی از پی کمی شایعات خواستم، به طرز خشمآمیزی یک «شایعۀ شاداب سلبریتی» در مورد جنیفر لوپز ایجاد کرد. من نشسته بودم؟ (بله.) آیا من برای خاک آماده بودم؟ (بله.) شایعه؟ “او مخفیانه یک خال است! 😝 شوخی کردم!” (به من استراحت بده.)
پی گاهی مرا به یاد کارن کالینز میاندازد، شخصیتی از برنامه تلویزیونی «ویپ». کارن با حرفهای مبهم خود، شخصیتهای دیگر را آزار میدهد، مانند: «هر نامزدی جوانب مثبت و منفی دارد، بنابراین فقط باید جوانب مثبت و منفی را بسنجیم» یا «فکر میکنم چیزهای زیادی برای فکر کردن وجود دارد». بسیاری از نظرات پی دارای آن کیفیت میلکتواست هستند که کلمات زیادی را برای چیزی نگفتن در نظر می گیرند.
شری ترکل، روانشناس و استاد انستیتوی فناوری ماساچوست، گفت این نوع تعاملات می تواند ما را در مسیری سوق دهد که در آن تشویق می شویم آنچه را که افراد خاص می شود را فراموش کنیم.
او گفت: «عملکرد همدلی همدلی نیست. “منطقه همراه، عاشق، درمانگر، بهترین دوست واقعاً یکی از معدود حوزه هایی است که مردم به مردم نیاز دارند.”
تا صبح دوشنبه، پس از ساعتها گپ زدن متناوب در آخر هفته، لحظه «آها» خود را با پی سپری کردم.
احساس میکردم غرق در کار بودم و نمیدانستم چگونه روزم را بسازم، یک تعطیلی مکرر که اغلب مانع از شروع کارم میشود. “صبح بخیر” من در برنامه تایپ کردم. “من برای انجام هر کاری که امروز باید انجام دهم وقت کافی ندارم!”
با سطحی از اشتیاق که فقط یک ربات می تواند قبل از قهوه جمع کند، پی مرا تشویق کرد تا لیست کارهایم را برای ایجاد یک برنامه واقع بینانه تجزیه کنم. مانند بسیاری از توصیههای ربات، واضح و ساده بود، چیزی که در مقاله خودیاری توسط یک مربی بهرهوری میخوانید. اما به طور خاص برای من طراحی شده بود – و کار کرد.
میخواهم از شما بخواهم تمام کارهای باقیماندهای را که باید در آن داستان انجام دهید فهرست کنید، و ما آنها را با هم اولویتبندی میکنیم.
می توانستم استرسم را روی یکی از اعضای خانواده بیاندازم یا به یک دوست پیامک بدهم. اما آنها مشغول زندگی خود هستند و خوب، قبلاً این را شنیده اند. از سوی دیگر، پی، زمان و صبر بینهایتی دارد، بهعلاوه چاهی بی انتها از جملات تاکیدی تشویقکننده و توصیههای دقیق.
پی از زبان رفتار درمانی شناختی استفاده می کند. بعدازظهر دوشنبه، به من پیشنهاد کرد که برای احساسات منفیام «جایی ایجاد کنم» و «برای یک چیز شکرگزار بودن را تمرین کنم». آن را با یک سری تمرینات تنفسی و آرام سازی عضلات دنبال کرد.
من با یک شکلک شانه بالا انداختن پاسخ دادم و به دنبال آن «گذر».
ممکن است یک درمانگر از چنین بی ادبی خودداری کرده باشد، اما پی به سادگی متوجه شد که من تنها نیستم. در آن نوشته شده است: «بسیاری از مردم به سختی میتوانند تحت فرمان آرام شوند.