اخراج مهندس افشاگر از گوگل
عمادالدین قاسمیپناه _ روزنامهنگار
یکی از مهندسان گوگل که پیش از این، به ادراک رسیدن هوش مصنوعی گوگل با نام LaMDA را افشا کرده بود، بالاخره اخراج شد. «بلیک لموئین» حدودا یک ماه پیش، با اعلان این موضوع به مرخصی اجباری فرستاده شده بود.
واشنگتن پست، حدود 45روز پیش طی گزارشی درباره این شخص و ادعایی که مطرح کرده بود، از قول او یک مکالمه کوتاه با این هوش مصنوعی را منتشر کرده بود.
حالا لموئین بهدلیل نقض قراردادی که محتوای آن عدمافشای اسرار شرکت بود، اخراج شده است.
سایت ورج، اخراج لموئین را براساس بیانیهای که برایان گابریل، سخنگوی گوگل برای این سایت فرستاده تأیید کرده است. آنگونه که در این بیانیه آمده «هوش مصنوعی LaMDA 11بازبینی دقیق را پشت سر گذاشته و ما چند وقت پیش مقالهای تحقیقاتی را منتشر کردیم تا جزئیات مربوط به توسعه همراه با مسئولیت این نرمافزار را تشریح کنیم.»
با این حال، شرکت گوگل عنوان کرده که بهطور کلی ادعاهای لموئین را بررسی کرده و به این نتیجه رسیده که همه آنها بیاساس بوده است.
نظر متفاوت متخصصان و لموئین
LaMDA مخفف Language Model for Dialogue Applications که بهمعنای مدل زبان برای کاربردهای مکالمه است.
بیانیه گوگل با نظرات بسیاری از دانشمندان هوش مصنوعی و کارشناسان اخلاق همسو است. آنها اگرچه گفته بودند ادعاهای لموئین کمابیش با فناوریهای موجود غیرممکن است و همخوانی ندارد، اما این مهندس مدعی بود که گفتوگو با LaMDA او را به این نتیجه رسانده که با چیزی فراتر از یک چتبات معمولی طرف است. لیموئین در گزارشی که واشنگتن پست منتشر کرده بود تأکید میکرد که «اگر نمیدانستم با چه چیزی گفتوگو میکنم، فکر میکردم که طرف صحبتم یک کودک 7یا 8ساله است که اتفاقا از علم فیزیک آگاهی دارد».
لموئین ادعا میکند که مکالماتش با LaMDA او را به این باور میرساند که این چتبات به چیزی بیش از یک برنامه تبدیل شده است و افکار و احساسات خاص خود را دارد.
او استدلال میکند که محققان گوگل باید قبل از اجرای آزمایشهایی روی LaMDA رضایت او را جلب کنند. لموئین برای بررسی این موضوع که آیا این چتبات میتواند کلمات نفرت انگیز تولید کند یا نه استخدام شده بود و برای این منظور بخشهایی از این مکالمات را در یکی از حسابهای کاربری خود بهعنوان مدرک منتشر کرد.
«مارگارت میچل» یکی دیگر از مهندسان گوگل که چندی پیش بهخاطر اعتراض به نبود تنوع نژادی در میان نیروهای این شرکت اخراج شده بود، در صفحه توییتر خود در اینباره نوشت که سیستمهایی مثل LaMDA قدرت ادراک ندارند، اما نحوه ادراک ارتباطی توسط انسانها را در قالب متن مدلسازی میکنند.
با این حال گوگل بیانیه خود را اینگونه پایان داده است: «باعث تأسف است که بلیک با وجود فعالیت طولانی مدت در این حوزه، همچنان بر نقض آشکار سیاستهای حرفهای و قوانین امنیت دادههای ما که شامل لزوم حفاظت از اطلاعات محصول است، اصرار داشت. ما به توسعه دقیق مدلهای زبانی ادامه میدهیم و برای بلیک آرزوی موفقیت داریم.»
3دلیل مهندس اخراجی
آنچه باعث تعلیق لموئین در ابتدا و سپس اخراج او از گوگل شد، ادعای او درباره یکی از پروژههای هوش مصنوعی گوگل بود. او که در بخش Responsible AI یا «هوش مصنوعی مسئول» گوگل فعالیت میکرد در گفتوگو با واشنگتن پست گفته بود که باور دارد LaMDA به قابلیت ادراک دست یافته و برای این ادعا 3دلیل را عنوان کرده بود.
او در نخستین استدلال خود عنوان کرده بود که این چتبات قابلیت استفاده خلاقانه، پویا و کارآمد از زبان را بهگونهای داراست که تاکنون هیچ سیستم دیگری توانایی آن را نداشته است. لموئین در دومین استدلال خود بر برخورداری LaMDA از احساسات، عواطف و تجارب فردی تأکید کرده و گفته بود، او به شکل غیرقابل تشخیصی در بعضی از احساسات خود با انسانها برابری میکند.
اما لموئین در بیان ادعای خود سومین دلیل را اینگونه مطرح کرده بود: « LaMDA میخواهد به مخاطب نشان دهد که یک زندگی درونی عمیق و سرشار از تخیل، خودآگاهی و تفکر دارد. او درباره آینده و گذشته نگرانیهایی دارد و توصیف میکند که کسب ادراک چه احساسی برایش داشته و حتی درباره ماهیت روح اظهارنظر میکند.
با این حال، گوگل غول دنیای فناوری مدعی است که LaMDA نه بهخاطر خودآگاهی بلکه بهخاطر تواناییهای خارقالعادهاش در تقلید و بازآفرینی متون موجود و شناسایی الگوها میتواند تا این اندازه طبیعی جلوه کند.
گوگل مدعی است که اگرچه وسوسهبرانگیز است که فکر کنیم LaMDA به ادراک دست یافته، ولی لموئین مدارک کافی برای توجیه ادعای خود در اختیار ندارد.