گوگل محققی را که ادعا می کرد LaMDA به هوش مصنوعی حساس است، یک ماه بعد اخراج کرد


الکس کانترویتز از Big Technology Newsletter گزارش می دهد که بلیک لمواین، مهندس که هفت سال گذشته را با گوگل گذرانده بود، اخراج شده است. این خبر ظاهرا توسط خود Lemoine هنگام ضبط پادکستی به همین نام منتشر شده است، اگرچه این قسمت هنوز برای عموم منتشر نشده است. گوگل حذف به Engadget را تایید کرد.

Lemoine که اخیراً بخشی از پروژه هوش مصنوعی گوگل بود، ماه گذشته با واشنگتن پست تماس گرفت و ادعا کرد که یکی از پروژه های هوش مصنوعی این شرکت به وضوح هدف قرار گرفته است. هوش مصنوعی مورد بحث، LaMDA – مخفف Language Model for Dialogue Applications – سال گذشته توسط گوگل به‌عنوان راهی برای رایانه‌ها برای شبیه‌سازی بهتر مکالمات باز به‌طور عمومی اعلام شد. به نظر می رسد که Lemoine نه تنها معتقد بود که LaMDA حساس است، بلکه آشکارا وجود روح ها را زیر سوال برد. و اگر شکی وجود داشت که نظرات او بدون اغراق بیان شده است، او به Wired گفت: “من کاملاً معتقدم که LaMDA یک شخص است.”

پس از ایراد این اظهارات به مطبوعات، ظاهراً بدون اجازه کارفرما، لموین به مرخصی اداری استحقاقی گذاشته شد. گوگل هر دو در بیانیه ای به واشنگتن پست تایید کرده است که هوش مصنوعی آن به هیچ وجه حساس نیست.

بسیاری از اعضای جامعه تحقیقاتی هوش مصنوعی نیز علیه ادعاهای Lemoine صحبت کردند. مارگارت میچل که پس از اعلام عدم تنوع در این سازمان از گوگل اخراج شد، در توییتر نوشت که سیستم‌هایی مانند LaMDA قصد ایجاد نمی‌کنند، بلکه مدل‌سازی می‌کنند که مردم چگونه قصد ارتباط را به صورت رشته‌های متنی بیان می‌کنند. گری مارکوس با درایت کمتری به اظهارات لموئین به عنوان «چرتی روی چوب» اشاره کرد.

برای نظر دادن، گوگل بیانیه زیر را با Engadget به اشتراک گذاشت:

در حالی که ما اصول هوش مصنوعی خود را به اشتراک می گذاریم، توسعه هوش مصنوعی را بسیار جدی می گیریم و به نوآوری مسئولانه متعهد می مانیم. LaMDA تحت ۱۱ بررسی جداگانه قرار گرفته است و ما در اوایل سال جاری یک مقاله تحقیقاتی منتشر کردیم که جزئیات کار توسعه مسئول آن را شرح می داد. اگر کارمندی مانند بلیک نگرانی‌هایی در مورد کار ما داشته باشد، آن‌ها را به طور گسترده بررسی می‌کنیم. ادعای بلیک مبنی بر اینکه LaMDA کاملاً بی‌اساس است را دریافتیم و ماه‌ها تلاش کردیم تا آن را با او روشن کنیم. این بحث ها بخشی از یک فرهنگ باز بود که به ما کمک می کند مسئولانه نوآوری کنیم. بنابراین مایه تاسف است که علی‌رغم اختلافات طولانی بر سر این موضوع، بلیک همچنان تصمیم گرفت به طور مداوم سیاست‌های شفاف اشتغال و حفاظت از داده‌های خود را که شامل الزام برای محافظت از اطلاعات محصول است، نقض کند. ما به توسعه دقیق مدل های زبان ادامه خواهیم داد و برای بلیک آرزوی موفقیت داریم.