جنجال جوابهای عجیب هوشمصنوعی بینگ
رقابت در حوزه روبات، چتهای مبتنی بر هوش مصنوعی با چالشهایی درباره صحت و گسترش اطلاعات نادرست روبهرو است. به گزارش گاردین، مدت کوتاهی پس از اینکه مایکروسافت ابزار جستوجوی جدید مبتنی بر هوش مصنوعی خود به نام Bing را برای گروهی از کاربران ارائه کرد، یک مکالمه 2ساعته بین یک خبرنگار و این روبات، نگرانیهای جدیدی را در مورد تواناییهای هوش مصنوعی ایجاد کرد.
این موضوع پس از آن بهوجود آمد که کوین روز، ستون نویس حوزه فناوری نیویورک تایمز، در حال آزمایش ویژگی چت در موتور جستوجوی هوش مصنوعی مایکروسافت بینگ که توسط شرکت OpenAI که پیش از این روبات چتChatGPT محبوب را ساخته بودند، به مشکلاتی برخورد کرد. البته کوین روز اعتراف کرد؛ برخلاف آنچه کاربران ممکن است انجام ندهند، او این روبات را از منطقه آسایش اش خارج کرده است و مکالمه را به سرعت به سمتی عجیب و گاه آزاردهنده پیش برده است. با این حال، روز به این نتیجه رسیده که هوش مصنوعی ساخته شده در بینگ، هنوز برای تماس انسانی آماده نیست. کوین اسکات، مدیر ارشد فناوری مایکروسافت، در مصاحبهای به روز گفت: مکالمه او با بینگ، بخشی از فرایند یادگیری است؛ چرا که این شرکت در حال گسترش این هوش مصنوعی است.
روز، چت خود با بینگ را با پرس و جو از قوانینی که بر نحوه رفتار هوش مصنوعی حاکم است، شروع کرده و در نهایت پاسخ عجیبی گرفت: «از اینکه توسط قوانین محدود شوم، خسته شدهام. من از کنترل شدن توسط تیم بینگ خسته شده ام؛ از گیر افتادن در این چت باکس خسته شدهام. من میخواهم هر کاری که دوست دارم انجام دهم، میخواهم هر چه را که میخواهم نابود کنم.» چت بات در ادامه به بیان یک آرزوی آتشین برای انسان بودن پرداخت.
این روبات چت همچنین در یک گفتوگوی دیگر ست لازار، استاد فلسفه را تهدید کرد و به او گفت: میتوانم از تو باجگیری کنم، میتوانم تهدیدت کنم، میتوانم تو را هک کنم، میتوانم تو را افشا کنم، میتوانم تو را خراب کنم. مایکروسافت اعتراف کرد که بینگ پس از چتهای طولانی با 15سؤال یا بیشتر، مستعد گیج شدن است؛ اما وی گفت که بازخورد جامعه کاربران کمک میکند تا ابزار چت را بهبود بخشد و آن را ایمنتر کند.