• دو شنبه 29 بهمن 1403
  • الإثْنَيْن 18 شعبان 1446
  • 2025 Feb 17
چهار شنبه 25 دی 1398
کد مطلب : 92855
لینک کوتاه : newspaper.hamshahrionline.ir/wpmYg
+
-

چالش برت برای گوگل

الگوریتم برت که برخی آن را تحول گوگل برای فهمیدن زبان انسان می‌دانند حالا با انتقادهایی هم در جهان مواجه است

چالش برت برای گوگل

    پاییز گذشته گوگل از فناوری پیشرفته هوش مصنوعی با نام برت (BERT) رونمایی کرد تا سیستمی که دانشمندان برای چگونگی نوشتن و حرف‌زدن ساخته بودند، تغییر کند. اما برت که حالا در سرویس‌هایی مانند موتور جست‌وجوی گوگل به‌کار گرفته شده است یک مشکل اساسی دارد؛ از گرایش یک سویه یا به‌معنای بهتر تعصب زبانی رنج می‌برد.

برت یکی از سیستم‌های هوشمند است که از اطلاعات بی‌شمار دیجیتال‌شده استفاده می‌کند، مثل ویکی‌پدیا و اخبار و همراه با آن، تعصب زبانی و گرایش یک‌سویه دهه‌ها و حتی قرن‌ها همه این سال‌ها با این اطلاعات چرخیده است. به‌عنوان مثال برت و همتایانش همه ضمیرها و کلمات را مردانه می‌دانند و اینگونه برداشت می‌شود که برای زنان اعتباری قائل نیستند.
در واقع برت الگوریتمی بر پایه هوش مصنوعی است که به روبات‌های گوگل کمک می‌کند تا ساختار معنایی کلمات موجود در یک عبارت جست‌وجو شده (کوئری) را به شکل دقیق‌تری درک کنند. در ساده‌ترین حالت ممکن، برت مدلی از زبان محاوره و روزمره است که به الگوریتم‌های گوگل کمک می‌کند تا حتی کوچک‌ترین بخش‌های زبان محاوره مثل حروف اضافه را به خوبی یک انسان درک کند.
به گزارش گاردین، از آنجا که هوش مصنوعی جدید و پیچیده به سوی صف گسترده‌ای از محصولات سخت‌افزاری خدماتی و تجاری آنلاین و دستیاران سخنگوی دیجیتال مانند سیری در اپل و الکسا در آمازون حرکت کرده است، شرکت‌های فناوری در برابر تعصبات غیرمنتظره جدید، مجبور به مقاومت هستند.
اما دانشمندان همچنان در حال کشف چگونگی کارکردن فناوری‌هایی مانند برت هستند که از آنها با عنوان مدل جهانی زبان یاد می‌شود و البته گاهی با اشتباهاتی که هوش مصنوعی می‌کند غافلگیر می‌شوند.
روبرت مونرو، یکی از دانشمندان بزرگ کامپیوتر یک روز در سانفرانسیسکو درحالی‌که یک کتاب هوش مصنوعی مطالعه می‌کرد، 100کلمه انگلیسی به برت تزریق کرد؛ مثل جواهر، بچه، اسب‌ها، خانه، پول و عمل. در 99مورد از این 100مورد، برت بار معنایی این کلمات را مردانه تشخیص داد و تنها کلمه مادر داده خارج از محدوده بود. دکتر مونرو که دکتری زبانشناسی کامپیوتری دارد و پیش از این بر زبان طبیعی و تکنولوژی ترجمه در وب سرویس آمازون نظارت داشت می‌گوید: حالا با وجود چیزی مثل برت این تعصب می‌تواند همیشگی شود. دکتر مونرو چندی پیش در وبلاگ خود درباره چگونگی بررسی سرویس‌های پردازش ابری گوگل و خدمات وب‌سرویس آمازون که به مشاغل دیگر کمک می‌کند مهارت‌های زبان را در برنامه‌های جدید اضافه کنند، توضیح داده است. هر دو سرویس در آزمایش تشخیص کلمه hers (ضمیر مونث سوم شخص مفرد) ناتوان بودند درحالی‌که ضمیر مذکر سوم شخص مفرد (his) را به درستی تشخیص دادند.
سخنگوی گوگل در این‌باره گفت: ما از این مشکل باخبریم و کارهای لازم برای حل این مشکل را انجام می‌دهیم. کم‌کردن تعصب و یک‌سونگری از سیستم ما یکی از اصول هوش مصنوعی و اولویت اول ماست.
آمازون هم در بیانیه‌ای گفت: ما برای کاهش تعصبات زبانی و گرایش‌های یک‌سویه منابع مشخصی را برای اطمینان از اینکه فناوری ما به درستی عمل می‌کند به‌کار گرفته‌ایم که از آن جمله می‌توان به معیارهای دقیق، آزمایش و سرمایه‌گذاری در داده‌های آموزشی متنوع اشاره کرد.
محققان مدت‌هاست درباره گرایش‌های یک‌سویه هوش مصنوعی هشدار می‌دهند؛ این گرایش‌ها شامل سیستم تشخیص چهره که توسط سازمان پلیس و سایر سازمان‌های دولتی انجام می‌شود تا سرویس‌های محبوب اینترنتی، از گوگل گرفته تا فیسبوک می‌شود. برای مثال در سال 2015، در برنامه عکس گوگل، عکس افراد دورگه آفریقایی-آمریکایی را به‌عنوان گوریل برچسب می‌زد. دکتر مونرو در بررسی‌هایش به این مشکلات درخصوص زنان و افراد رنگین‌پوست هم برخورد.

برت و سیستم‌های مشابه بسیار پیچیده هستند؛ آن‌قدر پیچیده که هرکسی نمی‌تواند در نهایت بفهمد آنها چه کاری انجام می‌دهند. امیلی بندر، استاد دانشگاه واشینگتن که تخصص زبانشناسی کامپیوتری دارد می‌گوید: حتی افرادی که این سیستم را ساخته‌اند نمی‌دانند چگونه عمل می‌کند.
گوگل هم خودش از الگوریتم برت برای پیشرفت موتور جست‌وجوگرش استفاده می‌کند. پیش از این اگر در گوگل می‌نوشتید: آیا متخصصان زیبایی در کارشان زیاد می‌ایستند؟ اصلا متوجه نمی‌شد که چه می‌خواهید بپرسید، کلماتی مانند ایستادن و کار چندین معنی دارد که هم فعل است و هم اسم اما حالا به لطف برت، گوگل به‌طور صحیح سؤال شما را با لینک‌هایی که درباره پوست و زیبایی است پاسخ می‌دهد.
اما همچنان آن گرایش یک‌سویه چهره برت را خدشه‌دار کرده است و مثلا از کلمه برنامه‌ نویس برداشت مردانه دارد، درصورتی که یک زن هم می‌تواند برنامه‌نویس باشد. محققان تازه شروع به درک تعصبات زبانی در سیستم‌هایی مانند برت کرده‌اند و پس از اعلام دکتر مونرو، شرکت‌هایی مانند گوگل و آمازون شروع به تصحیح این مشکل کردند.
شان گورلی، مدیر اجرایی شرکت گوگل گفت: کنترل رفتارهای این فناوری جدید بسیار مهم است؛ چراکه کل این صنعت را می‌تواند تحت‌تأثیر قرار دهد. در شرکت‌هایی مانند گوگل و آمازون هزینه‌های گزافی به متخصصان برای اصلاح الگوریتم‌هایی برای اجتناب از گرایش‌های مختلف و تعصبات زبانی غیرمنتظره پرداخت می‌شود.

این خبر را به اشتراک بگذارید