تلاش های هوش مصنوعی برای توقف خودکشی در رسانه های اجتماعی


پیام شروع می شود: “ما به طور تصادفی به پست شما رسیدیم … و به نظر می رسد که شما در زمان های چالش برانگیزی سپری می کنید.” ما اینجا هستیم تا مواد و منابعی را با شما در میان بگذاریم که ممکن است کمی برای شما راحت باشد. پیوندهایی به خطوط کمک به خودکشی، یک سرویس چت 24 ساعته، و داستان افرادی که بر بحران‌های سلامت روان غلبه کرده‌اند، دنبال می‌شوند. در پایان این پیام آمده است: “برای شما یک آغوش مجازی می فرستم.”

این یادداشت که توسط شرکت هوش مصنوعی (AI) Samurai Labs به عنوان یک پیام خصوصی در Reddit ارسال شده است، نشان‌دهنده چیزی است که برخی از محققان می‌گویند ابزاری امیدوارکننده برای مبارزه با اپیدمی خودکشی در ایالات متحده است که تقریباً 50000 قربانی در سال می‌گیرد. شرکت‌هایی مانند سامورایی از هوش مصنوعی برای تجزیه و تحلیل پست‌های رسانه‌های اجتماعی برای یافتن نشانه‌هایی از قصد خودکشی استفاده می‌کنند، سپس از طریق استراتژی‌هایی مانند پیام مستقیم مداخله می‌کنند.

استفاده از رسانه های اجتماعی برای پیشگیری از خودکشی طعنه خاصی دارد، زیرا اغلب مقصر سلامت روانی و بحران خودکشی در ایالات متحده، به ویژه در میان کودکان و نوجوانان است. پاتریچا تممسکا، یکی از بنیانگذاران سامورایی، می‌گوید، اما برخی از محققان معتقدند که می‌توان مستقیماً به منبع مراجعه کرد تا «آنهایی را که در مضطرب هستند در زمان واقعی شناسایی کرده و میلیون‌ها قطعه محتوا را بشکند».

سامورایی تنها شرکتی نیست که از هوش مصنوعی برای یافتن و دسترسی به افراد در معرض خطر استفاده می کند. شرکت Sentinet می گوید که مدل هوش مصنوعی آن هر روز بیش از 400 پست در رسانه های اجتماعی را نشان می دهد که حاکی از قصد خودکشی است. و متا، شرکت مادر فیس‌بوک و اینستاگرام، از فناوری خود برای پرچم‌گذاری پست‌ها یا مرور رفتارهایی استفاده می‌کند که نشان می‌دهد شخصی به فکر خودکشی است. اگر شخصی محتوای مرتبط با خودکشی را به اشتراک بگذارد یا جستجو کند، پلتفرم پیامی حاوی اطلاعاتی درباره نحوه دسترسی به خدمات پشتیبانی مانند خط زندگی خودکشی و بحران ارسال می‌کند – یا اگر تیم متا لازم بداند، پاسخ‌دهنده‌های اضطراری فراخوانی می‌شوند.

زیربنای این تلاش‌ها این ایده است که الگوریتم‌ها ممکن است بتوانند کاری را انجام دهند که به طور سنتی انسان‌ها را سرگردان کرده است: تعیین اینکه چه کسی در معرض خطر آسیب رساندن به خود است تا بتوانند قبل از اینکه خیلی دیر شود کمک دریافت کنند. اما برخی از کارشناسان می گویند این رویکرد – در حالی که امیدوارکننده است – برای پرایم تایم آماده نیست.

ما بسیار سپاسگزاریم که پیشگیری از خودکشی به طور کلی در آگاهی جامعه آمده است. این واقعاً مهم است. اما ابزارهای زیادی بدون مطالعه نتایج واقعی به بازار عرضه شده است.


دکتر جردن اسمولر، یکی از مدیران مرکز تحقیقات و پیشگیری از خودکشی دانشگاه هاروارد، می‌گوید پیش‌بینی اینکه چه کسی احتمالاً اقدام به خودکشی می‌کند، حتی برای آموزش‌دیده‌ترین متخصصان انسانی نیز دشوار است. اسمولر می‌گوید: عوامل خطری وجود دارد که پزشکان می‌دانند باید در بیماران خود به دنبال آن‌ها بگردند – برخی از تشخیص‌های روان‌پزشکی، گذر از یک رویداد آسیب‌زا، از دست دادن یکی از عزیزان به دلیل خودکشی – اما اسمولر می‌گوید که خودکشی «بسیار پیچیده و ناهمگن» است. “تغییرات زیادی در آنچه منجر به خودآزاری می شود وجود دارد” و تقریباً هرگز یک محرک وجود ندارد.

اسمولر می‌گوید: امید این است که هوش مصنوعی با توانایی خود در غربال کردن حجم عظیمی از داده‌ها، بتواند روندهایی را در گفتار و نوشتار که انسان‌ها هرگز متوجه آن نمی‌شوند، شناسایی کند. و علمی برای حمایت از این امید وجود دارد.

بیش از یک دهه پیش، جان پستیان، مدیر مرکز پزشکی محاسباتی در بیمارستان کودکان سینسیناتی، نشان داد که الگوریتم‌های یادگیری ماشینی می‌توانند بین یادداشت‌های خودکشی واقعی و جعلی با دقت بهتری نسبت به پزشکان انسانی تمایز قائل شوند – یافته‌ای که پتانسیل هوش مصنوعی را برای برداشتن نشان می‌دهد. در مورد قصد خودکشی در متن از آن زمان، مطالعات همچنین نشان داده است که هوش مصنوعی می تواند قصد خودکشی را در پست های رسانه های اجتماعی در پلتفرم های مختلف تشخیص دهد.

شرکت هایی مانند آزمایشگاه سامورایی این یافته ها را مورد آزمایش قرار می دهند. بر اساس داده های شرکت به اشتراک گذاشته شده با TIME، از ژانویه تا نوامبر 2023، مدل سامورایی بیش از 25000 پست احتمالی خودکشی را در Reddit شناسایی کرد. سپس انسانی که بر فرآیند نظارت می کند تصمیم می گیرد که آیا باید دستورالعمل هایی در مورد نحوه دریافت کمک به کاربر ارسال شود. حدود 10 درصد از افرادی که این پیام ها را دریافت کردند با یک خط کمک خودکشی تماس گرفتند و نمایندگان شرکت با اولین پاسخ دهندگان برای تکمیل چهار نجات حضوری همکاری کردند. (Samurai شراکت رسمی با Reddit ندارد، بلکه از فناوری خود برای تجزیه و تحلیل مستقل پست‌ها در پلتفرم استفاده می‌کند. Reddit از سایر ویژگی‌های پیشگیری از خودکشی استفاده می‌کند، مانند یکی که به کاربران امکان می‌دهد پست‌های نگران‌کننده را به صورت دستی گزارش کنند.)

میکال ورچینسکی، یکی از بنیانگذاران، اضافه می کند که مداخله سامورایی ممکن است مزایای بیشتری داشته باشد که ردیابی آنها دشوارتر است. برای مثال، برخی از افراد ممکن است بعداً با یک خط کمک تماس گرفته باشند، یا به سادگی از احساس اینکه کسی به آنها اهمیت می دهد سود برده باشند. یکی از افراد در پیامی که با TIME به اشتراک گذاشته شد، نوشت: «این اشک از چشمانم درآورد. “کسی آنقدر اهمیت می دهد که نگران من باشد؟”

موتیه می‌گوید، وقتی فردی در یک بحران حاد سلامت روانی است، حواس پرتی – مانند خواندن پیامی که روی صفحه نمایش او ظاهر می‌شود – می‌تواند نجات‌بخش باشد، زیرا او را از یک حلقه فکر مضر خارج می‌کند. اما، Pestian می‌گوید، برای شرکت‌ها بسیار مهم است که بدانند هوش مصنوعی چه کارهایی را می‌تواند انجام دهد و چه کاری نمی‌تواند در یک لحظه پریشانی انجام دهد.

پستیان می گوید، خدماتی که کاربران رسانه های اجتماعی را با حمایت انسانی مرتبط می کند، می تواند موثر باشد. او می‌گوید: «اگر دوستی داشتی، می‌گفتند: «بگذار تو را به بیمارستان برانم». هوش مصنوعی می تواند ماشینی باشد که فرد را به سمت مراقبت سوق می دهد. به عقیده او، آنچه خطرناکتر است این است که «اجازه دهید[ting] هوش مصنوعی مراقبت می کند» با آموزش آن برای تکرار جنبه های درمانی، همانطور که برخی از چت ربات های هوش مصنوعی انجام می دهند. بر اساس گزارش ها، مردی در بلژیک پس از صحبت با یک ربات چت که او را تشویق می کرد، خودکشی کرد – یک نمونه غم انگیز از محدودیت های فناوری.

اسمولر می‌گوید: همچنین مشخص نیست که آیا الگوریتم‌ها به اندازه کافی پیچیده هستند تا افراد در معرض خطر خودکشی را با دقت تشخیص دهند، در حالی که حتی انسان‌هایی که این مدل‌ها را ایجاد کرده‌اند این توانایی را ندارند. او می‌گوید: «مدل‌ها فقط به اندازه داده‌هایی هستند که روی آن‌ها آموزش داده شده‌اند. این موضوع مشکلات فنی زیادی ایجاد می کند.»

جیل هارکاوی-فریدمن، معاون ارشد تحقیقات در AFSP می‌گوید: همانطور که وجود دارد، الگوریتم‌ها ممکن است شبکه بسیار گسترده‌ای ایجاد کنند، که احتمال مصونیت افراد را در برابر پیام‌های هشداردهنده خود نشان می‌دهد. او می‌گوید: «اگر خیلی مکرر است، می‌توانید مردم را از شنیدن منصرف کنید.

پستیان موافق است که این یک احتمال واقعی است. اما تا زمانی که تعداد زیادی از مثبت های کاذب وجود نداشته باشد، او می گوید که به طور کلی بیشتر نگران موارد منفی کاذب است. بهتر است بگوییم، متاسفم، من [flagged you as at-risk when you weren’t] پستیان می‌گوید: نه اینکه به والدین خود بگویید: “متاسفم، فرزندت بر اثر خودکشی مرده است و ما آن را از دست دادیم.”

علاوه بر عدم دقت احتمالی، مسائل اخلاقی و حریم خصوصی نیز در بازی وجود دارد. اسمولر می‌گوید کاربران رسانه‌های اجتماعی ممکن است ندانند که پست‌هایشان تحلیل می‌شود یا بخواهند آن‌ها تحلیل شوند. همانطور که تیمی از محققان اخیراً برای TIME نوشتند، این ممکن است به ویژه برای اعضای جوامعی که در معرض خطر بیشتر خودکشی هستند، از جمله جوانان LGBTQ+ که به طور نامتناسبی توسط این سیستم‌های نظارتی هوش مصنوعی پرچم‌گذاری می‌شوند، مرتبط باشد.

میسون مارکس، کارشناس حقوق سلامت، در سال 2019 نوشت، احتمال افزایش نگرانی‌های خودکشی به پلیس یا سایر پرسنل اورژانس به این معنی است که کاربران «ممکن است بر خلاف میل خود بازداشت، جستجو، بستری شوند و تحت درمان قرار گیرند».

Moutier، از AFSP، می‌گوید که در هوش مصنوعی وعده‌های کافی برای پیشگیری از خودکشی برای ادامه مطالعه وجود دارد. اما در عین حال، او می‌گوید که مایل است ببیند که پلتفرم‌های رسانه‌های اجتماعی در مورد محافظت از سلامت روانی کاربران قبل از رسیدن به یک نقطه بحران جدی باشند. او می گوید که پلتفرم ها می توانند کارهای بیشتری برای جلوگیری از قرار گرفتن افراد در معرض تصاویر ناراحت کننده، ایجاد تصویر بدنی ضعیف و مقایسه خود با دیگران انجام دهند. او اضافه می‌کند که آنها همچنین می‌توانند داستان‌های امیدوارکننده‌ای را از افرادی که از بحران‌های سلامت روان بهبود یافته‌اند و منابع حمایتی برای افرادی که (یا یکی از عزیزانشان) در حال مبارزه هستند، تبلیغ کنند.

بخشی از آن کار در حال انجام است. متا از جولای تا سپتامبر سال گذشته به بیش از 12 میلیون پست مرتبط با آسیب رساندن به خود هشدارهایی را حذف یا اضافه کرد و نتایج جستجوی مضر را پنهان کرد. TikTok همچنین اقداماتی را برای ممنوع کردن پست‌هایی که خودکشی را به تصویر می‌کشند یا تجلیل می‌کنند و از دیدن کاربرانی که پست‌های مربوط به خودآزاری را جستجو می‌کنند، مسدود کرده است. اما همانطور که جلسه اخیر سنا با حضور مدیران عامل متا، تیک تاک، ایکس، اسنپ و دیسکورد نشان داد، هنوز محتوای آزاردهنده زیادی در اینترنت وجود دارد.

Moutier می‌گوید الگوریتم‌هایی که وقتی فردی را در مضیقه تشخیص می‌دهند، مداخله می‌کنند «روی پایین‌ترین لحظه خطر حاد» تمرکز می‌کنند. “در پیشگیری از خودکشی، این بخشی از آن است، اما این تمام آن نیست.” در یک دنیای ایده آل، هیچ کس اصلاً به آن لحظه نمی رسد.

اگر شما یا شخصی که می شناسید ممکن است دچار بحران سلامت روانی شده یا به خودکشی فکر می کنید، با 988 تماس بگیرید یا پیامک ارسال کنید. در مواقع اضطراری، با 911 تماس بگیرید یا از یک بیمارستان محلی یا ارائه دهنده سلامت روان مراقبت کنید.





Source link