مایکروسافت تیم اخلاق و جامعه هوش مصنوعی را اخراج می کند

به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،

مایکروسافت کل تیم اخلاقی و اجتماعی خود را در سازمان هوش مصنوعی به عنوان بخشی از اخراج های اخیر که بر 10000 کارمند در سراسر شرکت تأثیر گذاشت، اخراج کرد. پلتفرمر آموخته است.

کارمندان فعلی و سابق گفتند، این اقدام مایکروسافت را بدون تیم اختصاصی می‌گذارد تا اطمینان حاصل شود که اصول هوش مصنوعی آن با طراحی محصول مرتبط است، در زمانی که این شرکت مسئولیت در دسترس قرار دادن ابزارهای هوش مصنوعی برای جریان اصلی را بر عهده دارد.

مایکروسافت هنوز یک Office of Responsible AI فعال دارد که وظیفه ایجاد قوانین و اصولی را برای کنترل ابتکارات هوش مصنوعی شرکت دارد. این شرکت می‌گوید که سرمایه‌گذاری کلی آن در مسئولیت‌پذیری علیرغم اخراج‌های اخیر در حال افزایش است.

این شرکت در بیانیه‌ای اعلام کرد: «مایکروسافت متعهد به توسعه محصولات و تجربیات هوش مصنوعی به صورت ایمن و مسئولانه است و این کار را با سرمایه‌گذاری بر روی افراد، فرآیندها و مشارکت‌هایی انجام می‌دهد که این را در اولویت قرار می‌دهند.» طی شش سال گذشته، تعداد افرادی را در تیم‌های محصول خود و در دفتر هوش مصنوعی مسئول افزایش داده‌ایم که همراه با همه ما در مایکروسافت، مسئول اطمینان از اجرای اصول هوش مصنوعی خود هستیم. […] ما از کار بی‌نظیری که Ethics & Society برای کمک به ما در سفر مسئولانه هوش مصنوعی مداوم انجام داد، قدردانی می‌کنیم.»

اما کارمندان گفتند که تیم اخلاق و جامعه نقش مهمی در حصول اطمینان از اینکه اصول هوش مصنوعی مسئول شرکت واقعاً در طراحی محصولاتی که ارسال می‌شود منعکس می‌شود، ایفا کردند.

کار ما این بود که… قوانینی را در مناطقی که وجود نداشت ایجاد کنیم.»

یکی از کارمندان سابق می‌گوید: «مردم به اصولی که از دفتر هوش مصنوعی مسئول بیرون می‌آیند نگاه می‌کنند و می‌گویند، من نمی‌دانم این چگونه اعمال می‌شود». کار ما نشان دادن آنها و ایجاد قوانین در مناطقی بود که هیچ قوانینی وجود نداشت.»

در سال‌های اخیر، تیم یک بازی نقش‌آفرینی به نام Judgment Call طراحی کرد که به طراحان کمک کرد آسیب‌های احتمالی ناشی از هوش مصنوعی را تصور کنند و در طول توسعه محصول درباره آن‌ها بحث کنند. این بخشی از یک “مجموعه ابزار نوآوری مسئولانه” بزرگتر بود که تیم به صورت عمومی پست کرد.

اخیراً، این تیم برای شناسایی خطرات ناشی از پذیرش فناوری OpenAI توسط مایکروسافت در سراسر مجموعه محصولات خود کار کرده است.

تیم اخلاق و جامعه در سال 2020، زمانی که تقریباً 30 کارمند از جمله مهندسان، طراحان و فیلسوفان داشت، به بزرگترین تیم خود رسید. در ماه اکتبر، به عنوان بخشی از یک سازماندهی مجدد، تیم تقریباً به هفت نفر کاهش یافت.

جان مونتگومری، معاون شرکت هوش مصنوعی، در جلسه ای با تیم پس از سازماندهی مجدد، به کارمندان گفت که رهبران شرکت به آنها دستور داده اند که سریع حرکت کنند. «فشار از [CTO] کوین [Scott] و [CEO] ساتیا [Nadella] با توجه به صدای جلسه به دست آمده توسط او گفت: بسیار بسیار زیاد است که این مدل‌های اخیر OpenAI و مدل‌هایی که بعد از آنها می‌آیند و با سرعت بسیار بالا به دست مشتریان منتقل می‌شوند، بالاست. پلتفرمر.

مونتگومری گفت به دلیل آن فشار، بسیاری از تیم قرار بود به مناطق دیگر سازمان منتقل شوند.

برخی از اعضای تیم عقب رانده شدند. یکی از کارمندان در این تماس گفت: “من آنقدر جسارت خواهم داشت که از شما بخواهم در این تصمیم تجدید نظر کنید.” «در حالی که می‌دانم مسائل تجاری در بازی وجود دارد… چیزی که این تیم همیشه عمیقاً نگران آن بوده است این است که چگونه بر جامعه تأثیر می‌گذاریم و تأثیرات منفی که داشته‌ایم. و قابل توجه هستند.»

مونتگومری رد کرد. «آیا می توانم تجدید نظر کنم؟ من فکر نمی کنم این کار را انجام دهم. زیرا متأسفانه فشارها ثابت می ماند. شما دیدگاهی را که من دارم ندارید و احتمالاً می توانید بابت آن سپاسگزار باشید. چیزهای زیادی در سوسیس آسیاب می شود.»

با این حال، مونتگومری در پاسخ به سوالات گفت که تیم حذف نخواهد شد.

او گفت: «به این معنا نیست که در حال از بین رفتن است – بلکه این است که در حال تکامل است. “این به سمت قرار دادن انرژی بیشتر در تیم های محصول فردی است که خدمات و نرم افزار را ایجاد می کنند، که به این معنی است که مرکز مرکزی که برخی از کارها را انجام می دهد، توانایی ها و مسئولیت های خود را واگذار می کند.”

اکثر اعضای تیم به جای دیگری در مایکروسافت منتقل شدند. پس از آن، اعضای تیم اخلاق باقی مانده و جامعه گفتند که خدمه کوچکتر اجرای برنامه های بلندپروازانه آنها را دشوار کرده است.

یکی از کارمندان می گوید این حرکت یک شکاف اساسی در طراحی جامع محصولات هوش مصنوعی ایجاد می کند

حدود پنج ماه بعد، در 6 مارس، به کارمندان باقی مانده گفته شد که در ساعت 11:30 صبح به وقت محلی به تماس زوم بپیوندند تا “به روز رسانی مهم تجاری” را از مونتگومری بشنوند. در جلسه به آنها گفته شد که بالاخره تیمشان در حال حذف شدن است.

یکی از کارمندان می گوید که این حرکت یک شکاف اساسی در تجربه کاربر و طراحی جامع محصولات هوش مصنوعی ایجاد می کند. آنها توضیح دادند: “بدترین چیز این است که ما کسب و کار را در معرض خطر و انسان ها را در معرض خطر قرار داده ایم.”

این درگیری بر تنش مداوم برای غول‌های فناوری تاکید می‌کند که بخش‌هایی را برای مسئولیت‌پذیری بیشتر محصولات خود از نظر اجتماعی ایجاد می‌کنند. در بهترین حالت، آن‌ها به تیم‌های محصول کمک می‌کنند تا سوءاستفاده‌های احتمالی از فناوری را پیش‌بینی کنند و هر مشکلی را قبل از ارسال برطرف کنند.

اما آنها همچنین وظیفه دارند در سازمان‌هایی که اغلب نمی‌خواهند آن را بشنوند، «نه» یا «آهسته‌تر» بگویند – یا خطراتی را بیان کنند که در صورت کشف قانونی می‌تواند منجر به دردسرهای قانونی برای شرکت شود. و اصطکاک ناشی از آن گاهی اوقات در معرض دید عموم قرار می گیرد.

در سال 2020، گوگل، تیمنیت گبرو، محقق اخلاقی هوش مصنوعی را پس از انتشار مقاله‌ای در انتقاد از مدل‌های زبانی بزرگ که دو سال بعد به شهرت رسید، اخراج کرد. خشم ناشی از آن منجر به خروج چندین رهبر ارشد دیگر در این بخش شد و اعتبار شرکت را در مورد مسائل مربوط به هوش مصنوعی کاهش داد.

مایکروسافت بر روی ارسال ابزارهای هوش مصنوعی سریعتر از رقبای خود متمرکز شد

اعضای تیم اخلاق و جامعه گفتند که به طور کلی سعی می کنند از توسعه محصول حمایت کنند. اما آنها گفتند که از آنجایی که مایکروسافت روی ارسال ابزارهای هوش مصنوعی سریعتر از رقبای خود متمرکز شد، رهبری شرکت به نوع تفکر بلندمدتی که تیم در آن تخصص داشت کمتر علاقه مند شد.

این یک پویایی است که باید به دقت بررسی شود. از یک طرف، مایکروسافت اکنون ممکن است یک بار در یک نسل شانسی برای به دست آوردن جذابیت قابل توجهی در برابر گوگل در جستجو، نرم افزار بهره وری، رایانش ابری و سایر زمینه هایی که غول ها در آن رقابت می کنند، داشته باشد. زمانی که بینگ را با هوش مصنوعی راه اندازی کرد، این شرکت به سرمایه گذاران گفت که هر 1 درصد از سهم بازاری که می تواند در جستجو از گوگل بگیرد، 2 میلیارد دلار درآمد سالانه دارد.

این پتانسیل توضیح می‌دهد که چرا مایکروسافت تاکنون ۱۱ میلیارد دلار در OpenAI سرمایه‌گذاری کرده است و در حال حاضر برای ادغام فناوری این استارت‌آپ در هر گوشه از امپراطوری خود رقابت می‌کند. به نظر می رسد موفقیت اولیه ای داشته باشد: این شرکت هفته گذشته اعلام کرد Bing اکنون 100 میلیون کاربر فعال روزانه دارد که یک سوم آنها از زمان راه اندازی مجدد موتور جستجو با فناوری OpenAI جدید هستند.

از سوی دیگر، همه کسانی که در توسعه هوش مصنوعی نقش دارند موافق هستند که این فناوری خطرات قوی و احتمالاً وجودی، شناخته شده و ناشناخته را به همراه دارد. غول‌های فناوری تلاش کرده‌اند نشان دهند که این خطرات را جدی می‌گیرند – مایکروسافت به تنهایی سه گروه مختلف دارد که روی این موضوع کار می‌کنند، حتی پس از حذف تیم اخلاق و جامعه. اما با توجه به خطرات، هر گونه کاهش در تیم های متمرکز بر کار مسئولانه قابل توجه به نظر می رسد.

حذف تیم اخلاق و جامعه درست زمانی اتفاق افتاد که کارمندان باقیمانده گروه تمرکز خود را بر روی بزرگترین چالش خود آموزش داده بودند: پیش بینی اینکه چه اتفاقی می افتد زمانی که مایکروسافت ابزارهای مجهز به OpenAI را برای مخاطبان جهانی منتشر کند.

سال گذشته، تیم یادداشتی نوشت که خطرات برند مرتبط با Bing Image Creator را که از سیستم DALL-E OpenAI برای ایجاد تصاویر بر اساس درخواست‌های متنی استفاده می‌کند، نوشت. ابزار تصویر در ماه اکتبر در تعداد معدودی از کشورها راه اندازی شد و آن را به یکی از اولین همکاری های عمومی مایکروسافت با OpenAI تبدیل کرد.

در حالی که فناوری تبدیل متن به تصویر بسیار محبوب شده است، محققان مایکروسافت به درستی پیش‌بینی کردند که می‌تواند معیشت هنرمندان را نیز تهدید کند و به هر کسی اجازه می‌دهد به راحتی از سبک آنها کپی کند.

محققان در این مقاله نوشتند: «در آزمایش Bing Image Creator، مشخص شد که با یک فرمان ساده که فقط نام هنرمند و یک رسانه (نقاشی، چاپ، عکاسی یا مجسمه) را شامل می‌شود، تمایز تصاویر ایجاد شده از آثار اصلی تقریباً غیرممکن است. یادداشت

“خطر آسیب به برند … آنقدر واقعی و قابل توجه است که نیاز به جبران دارد.”

آنها افزودند: “خطر آسیب به برند، هم برای هنرمند و هم برای ذینفعان مالی آنها، و هم روابط عمومی منفی مایکروسافت ناشی از شکایات هنرمندان و واکنش منفی عمومی به اندازه کافی واقعی و قابل توجه است که قبل از آسیب رساندن به برند مایکروسافت، نیاز به جبران دارد.”

علاوه بر این، سال گذشته OpenAI شرایط خدمات خود را به‌روزرسانی کرد تا به کاربران «حق مالکیت کامل تصاویری که با DALL-E ایجاد می‌کنید» بدهد. این اقدام تیم اخلاق و جامعه مایکروسافت را نگران کرد.

آنها در این یادداشت نوشتند: «اگر یک تولیدکننده تصویر هوش مصنوعی به صورت ریاضی تصاویر آثار را تکرار کند، از نظر اخلاقی مشکوک است که پیشنهاد کنیم شخصی که درخواست را ارسال کرده است، حقوق مالکیت کامل تصویر حاصل را دارد.

محققان مایکروسافت فهرستی از استراتژی‌های کاهش را ایجاد کردند، از جمله ممانعت کاربران بینگ Image Creator از استفاده از نام هنرمندان زنده به عنوان درخواست و ایجاد بازاری برای فروش آثار یک هنرمند که اگر کسی نام آنها را جستجو کند، ظاهر می‌شود.

کارمندان می گویند هیچ یک از این استراتژی ها اجرا نشدند و به هر حال Bing Image Creator در کشورهای مورد آزمایش راه اندازی شد.

مایکروسافت می‌گوید این ابزار قبل از راه‌اندازی برای رفع نگرانی‌های مطرح‌شده در سند اصلاح شد و باعث شد تیم مسئول هوش مصنوعی خود کار بیشتری کند.

اما سؤالات حقوقی در مورد این فناوری حل نشده باقی مانده است. در فوریه 2023، Getty Images شکایتی علیه Stability AI، سازندگان مولد هنر هوش مصنوعی Stable Diffusion تنظیم کرد. گتی استارتاپ هوش مصنوعی را به استفاده نادرست از بیش از 12 میلیون تصویر برای آموزش سیستم خود متهم کرد.

این اتهامات بازتاب نگرانی های مطرح شده توسط اخلاق نویسان هوش مصنوعی خود مایکروسافت بود. کارمندان سال گذشته نوشتند: «احتمالاً تعداد کمی از هنرمندان موافقت کرده‌اند که اجازه دهند آثارشان به‌عنوان داده‌های آموزشی مورد استفاده قرار گیرد، و احتمالاً بسیاری هنوز نمی‌دانند که چگونه فناوری مولد اجازه می‌دهد تا تغییراتی از تصاویر آنلاین کارشان در چند ثانیه تولید شود».

این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.

منبع

درباره ی asrf_admin

مطلب پیشنهادی

ارزش سهام ایلان ماسک در توییتر 20 میلیارد دلار است

به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ، ایلان ماسک در توییتر 20 …