گوگل در تعدادی از مطالعات سوگیری AI نقش داشته است

[ad_1]

روز پنجشنبه ، گوگل تلاش کرد تا عواقب ترک یک محقق برجسته در زمینه هوش مصنوعی را پس از تصمیم خود برای جلوگیری از انتشار مقاله ای در مورد یک موضوع مهم اخلاق هوش مصنوعی محدود کند.

تیمیت گبرو ، که به عنوان رئیس اخلاق هوش مصنوعی در این گروه اینترنتی همکاری می کرد ، در توییتر گفت که پس از رد روزنامه اخراج شده است.

جف دین ، ​​رئیس هوش مصنوعی گوگل ، روز پنجشنبه در یک ایمیل داخلی به کارمندان خود از این تصمیم دفاع کرد و گفت این روزنامه “شرایط انتشار را ندارد”. وی همچنین خروج خانم گبرو را پس از امتناع گوگل از موافقت با شرایط نامشخص وی برای ماندن در این شرکت ، استعفا عنوان کرد.

این جنجال تهدید می کند با تحقیقات داخلی در مورد هوش مصنوعی که می تواند به تجارت آن آسیب برساند ، و همچنین دشواری طولانی مدت این شرکت در تلاش برای ایجاد تنوع در نیروی کار ، فعالیت گوگل را روشن کند.

قبل از عزیمت ، خانم گبرو در نامه ای به همکارانش شکایت کرد که گوگل در برابر ادعاهای این شرکت مبنی بر اینکه می خواهد نسبت زنان در صفوف خود را افزایش دهد “پاسخگویی صفر” ندارد. در نامه الکترونیکی که برای اولین بار در Platformer منتشر شد ، همچنین تصمیم برای مسدود کردن مقاله وی به عنوان بخشی از روند “خاموش کردن صداهای حاشیه ای” توصیف شده است.

یک نفر که از نزدیک با آقای Gebru همکاری کرد گفت که در گذشته مدیریت گوگل به دلیل فعالیت آن در ایجاد تنوع بیشتر تنش هایی داشته است. این مرد افزود ، اما دلیل فوری خروج وی تصمیم این شرکت بود که اجازه انتشار مقاله علمی را نمی دهد که وی با همکاری هم نویسنده است.

این مقاله تعصبات بالقوه را در مدلهای زبان در مقیاس بزرگ ، یکی از داغترین زمینه های جدید تحقیقات زبان طبیعی بررسی می کند. سیستم هایی مانند OpenAI GPT-3 و سیستم خود گوگل ، Bert ، سعی می کنند کلمه بعدی را در هر عبارت یا جمله پیش بینی کنند ، روشی که برای تایپ شگفت آور کارآمد اتوماتیک استفاده می شود و گوگل برای درک بهتر سوالات پیچیده از آن استفاده می کند. جستجو کردن.

مدلهای زبان در مورد مقادیر زیادی از متن که معمولاً از اینترنت بارگیری می شود ، آموزش داده می شود و منجر به هشدارهایی می شود که ممکن است تعصبات نژادی و سایر تعصبات موجود در مطالب اصلی را بدست آورند.

امیلی بندر ، استاد زبانشناسی محاسبات در دانشگاه واشنگتن که یکی از نویسندگان این مقاله است ، گفت: “از خارج ، به نظر می رسد شخصی از گوگل به نفع منافع آنها است.”

“آزادی علمی بسیار مهم است – در صورت وجود خطرات [research] در مکانهایی اتفاق می افتد که از این آزادی علمی برخوردار نیستند “، به شرکتها یا دولتها این قدرت را می دهد تا تحقیقاتی را که تأیید نمی کنند” ببندند “.

خانم بندر گفت که نویسندگان امیدوارند مقاله را با تحقیقات جدیدتر به موقع برای تصویب در کنفرانسی که قبلاً در آن ارائه شده است ، به روز کنند. اما وی افزود که معمول است که با توجه به پیشرفت سریع کار در چنین زمینه هایی ، تحقیقات جدیدتر جایگزین چنین کارهایی شوند. “هیچ مقاله ای در ادبیات تحقیق کامل نیست.”

جولین کورنبیزه ، محقق سابق هوش مصنوعی در DeepMind ، یک گروه هوش مصنوعی مستقر در لندن و متعلق به والدین گوگل ، آلفابت ، گفت که این اختلاف “نشان می دهد خطرات تحقیقات هوش مصنوعی و یادگیری ماشین در دست افراد کمی متمرکز شده است.” بازیگران قدرتمند صنعتی ، زیرا اجازه می دهد تا سانسور این حوزه را با تصمیم گیری درباره انتشار یا عدم انتشار “.

وی افزود که خانم گبرو “بسیار با استعداد است – ما در این زمینه به محققانی از كالیبر وی ، بدون فیلتر نیاز داریم.” خانم گبرو بلافاصله به درخواست ها برای اظهار نظر پاسخ نداد.

آقای دین گفت این مقاله که با سه محقق Google دیگر و همچنین همکاران خارجی آن نوشته شده است ، “تحقیقات اخیر را برای کاهش خطر سوگیری در نظر نگرفته است”. وی افزود که این مقاله “در مورد تأثیر مدل های بزرگ بر محیط زیست صحبت می کند ، اما تحقیقات بیشتر را که نشان دهنده کارایی بسیار بیشتری است ، نادیده می گیرد.”

[ad_2]

منبع: blue-news.ir