به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،
مایکروسافت کل تیم اخلاقی و اجتماعی خود را در سازمان هوش مصنوعی به عنوان بخشی از اخراج های اخیر که بر 10000 کارمند در سراسر شرکت تأثیر گذاشت، اخراج کرد. پلتفرمر آموخته است.
کارمندان فعلی و سابق گفتند، این اقدام مایکروسافت را بدون تیم اختصاصی میگذارد تا اطمینان حاصل شود که اصول هوش مصنوعی آن با طراحی محصول مرتبط است، در زمانی که این شرکت مسئولیت در دسترس قرار دادن ابزارهای هوش مصنوعی برای جریان اصلی را بر عهده دارد.
مایکروسافت هنوز یک Office of Responsible AI فعال دارد که وظیفه ایجاد قوانین و اصولی را برای کنترل ابتکارات هوش مصنوعی شرکت دارد. این شرکت میگوید که سرمایهگذاری کلی آن در مسئولیتپذیری علیرغم اخراجهای اخیر در حال افزایش است.
این شرکت در بیانیهای اعلام کرد: «مایکروسافت متعهد به توسعه محصولات و تجربیات هوش مصنوعی به صورت ایمن و مسئولانه است و این کار را با سرمایهگذاری بر روی افراد، فرآیندها و مشارکتهایی انجام میدهد که این را در اولویت قرار میدهند.» طی شش سال گذشته، تعداد افرادی را در تیمهای محصول خود و در دفتر هوش مصنوعی مسئول افزایش دادهایم که همراه با همه ما در مایکروسافت، مسئول اطمینان از اجرای اصول هوش مصنوعی خود هستیم. […] ما از کار بینظیری که Ethics & Society برای کمک به ما در سفر مسئولانه هوش مصنوعی مداوم انجام داد، قدردانی میکنیم.»
اما کارمندان گفتند که تیم اخلاق و جامعه نقش مهمی در حصول اطمینان از اینکه اصول هوش مصنوعی مسئول شرکت واقعاً در طراحی محصولاتی که ارسال میشود منعکس میشود، ایفا کردند.
کار ما این بود که… قوانینی را در مناطقی که وجود نداشت ایجاد کنیم.»
یکی از کارمندان سابق میگوید: «مردم به اصولی که از دفتر هوش مصنوعی مسئول بیرون میآیند نگاه میکنند و میگویند، من نمیدانم این چگونه اعمال میشود». کار ما نشان دادن آنها و ایجاد قوانین در مناطقی بود که هیچ قوانینی وجود نداشت.»
در سالهای اخیر، تیم یک بازی نقشآفرینی به نام Judgment Call طراحی کرد که به طراحان کمک کرد آسیبهای احتمالی ناشی از هوش مصنوعی را تصور کنند و در طول توسعه محصول درباره آنها بحث کنند. این بخشی از یک “مجموعه ابزار نوآوری مسئولانه” بزرگتر بود که تیم به صورت عمومی پست کرد.
اخیراً، این تیم برای شناسایی خطرات ناشی از پذیرش فناوری OpenAI توسط مایکروسافت در سراسر مجموعه محصولات خود کار کرده است.
تیم اخلاق و جامعه در سال 2020، زمانی که تقریباً 30 کارمند از جمله مهندسان، طراحان و فیلسوفان داشت، به بزرگترین تیم خود رسید. در ماه اکتبر، به عنوان بخشی از یک سازماندهی مجدد، تیم تقریباً به هفت نفر کاهش یافت.
جان مونتگومری، معاون شرکت هوش مصنوعی، در جلسه ای با تیم پس از سازماندهی مجدد، به کارمندان گفت که رهبران شرکت به آنها دستور داده اند که سریع حرکت کنند. «فشار از [CTO] کوین [Scott] و [CEO] ساتیا [Nadella] با توجه به صدای جلسه به دست آمده توسط او گفت: بسیار بسیار زیاد است که این مدلهای اخیر OpenAI و مدلهایی که بعد از آنها میآیند و با سرعت بسیار بالا به دست مشتریان منتقل میشوند، بالاست. پلتفرمر.
مونتگومری گفت به دلیل آن فشار، بسیاری از تیم قرار بود به مناطق دیگر سازمان منتقل شوند.
برخی از اعضای تیم عقب رانده شدند. یکی از کارمندان در این تماس گفت: “من آنقدر جسارت خواهم داشت که از شما بخواهم در این تصمیم تجدید نظر کنید.” «در حالی که میدانم مسائل تجاری در بازی وجود دارد… چیزی که این تیم همیشه عمیقاً نگران آن بوده است این است که چگونه بر جامعه تأثیر میگذاریم و تأثیرات منفی که داشتهایم. و قابل توجه هستند.»
مونتگومری رد کرد. «آیا می توانم تجدید نظر کنم؟ من فکر نمی کنم این کار را انجام دهم. زیرا متأسفانه فشارها ثابت می ماند. شما دیدگاهی را که من دارم ندارید و احتمالاً می توانید بابت آن سپاسگزار باشید. چیزهای زیادی در سوسیس آسیاب می شود.»
با این حال، مونتگومری در پاسخ به سوالات گفت که تیم حذف نخواهد شد.
او گفت: «به این معنا نیست که در حال از بین رفتن است – بلکه این است که در حال تکامل است. “این به سمت قرار دادن انرژی بیشتر در تیم های محصول فردی است که خدمات و نرم افزار را ایجاد می کنند، که به این معنی است که مرکز مرکزی که برخی از کارها را انجام می دهد، توانایی ها و مسئولیت های خود را واگذار می کند.”
اکثر اعضای تیم به جای دیگری در مایکروسافت منتقل شدند. پس از آن، اعضای تیم اخلاق باقی مانده و جامعه گفتند که خدمه کوچکتر اجرای برنامه های بلندپروازانه آنها را دشوار کرده است.
یکی از کارمندان می گوید این حرکت یک شکاف اساسی در طراحی جامع محصولات هوش مصنوعی ایجاد می کند
حدود پنج ماه بعد، در 6 مارس، به کارمندان باقی مانده گفته شد که در ساعت 11:30 صبح به وقت محلی به تماس زوم بپیوندند تا “به روز رسانی مهم تجاری” را از مونتگومری بشنوند. در جلسه به آنها گفته شد که بالاخره تیمشان در حال حذف شدن است.
یکی از کارمندان می گوید که این حرکت یک شکاف اساسی در تجربه کاربر و طراحی جامع محصولات هوش مصنوعی ایجاد می کند. آنها توضیح دادند: “بدترین چیز این است که ما کسب و کار را در معرض خطر و انسان ها را در معرض خطر قرار داده ایم.”
این درگیری بر تنش مداوم برای غولهای فناوری تاکید میکند که بخشهایی را برای مسئولیتپذیری بیشتر محصولات خود از نظر اجتماعی ایجاد میکنند. در بهترین حالت، آنها به تیمهای محصول کمک میکنند تا سوءاستفادههای احتمالی از فناوری را پیشبینی کنند و هر مشکلی را قبل از ارسال برطرف کنند.
اما آنها همچنین وظیفه دارند در سازمانهایی که اغلب نمیخواهند آن را بشنوند، «نه» یا «آهستهتر» بگویند – یا خطراتی را بیان کنند که در صورت کشف قانونی میتواند منجر به دردسرهای قانونی برای شرکت شود. و اصطکاک ناشی از آن گاهی اوقات در معرض دید عموم قرار می گیرد.
در سال 2020، گوگل، تیمنیت گبرو، محقق اخلاقی هوش مصنوعی را پس از انتشار مقالهای در انتقاد از مدلهای زبانی بزرگ که دو سال بعد به شهرت رسید، اخراج کرد. خشم ناشی از آن منجر به خروج چندین رهبر ارشد دیگر در این بخش شد و اعتبار شرکت را در مورد مسائل مربوط به هوش مصنوعی کاهش داد.
مایکروسافت بر روی ارسال ابزارهای هوش مصنوعی سریعتر از رقبای خود متمرکز شد
اعضای تیم اخلاق و جامعه گفتند که به طور کلی سعی می کنند از توسعه محصول حمایت کنند. اما آنها گفتند که از آنجایی که مایکروسافت روی ارسال ابزارهای هوش مصنوعی سریعتر از رقبای خود متمرکز شد، رهبری شرکت به نوع تفکر بلندمدتی که تیم در آن تخصص داشت کمتر علاقه مند شد.
این یک پویایی است که باید به دقت بررسی شود. از یک طرف، مایکروسافت اکنون ممکن است یک بار در یک نسل شانسی برای به دست آوردن جذابیت قابل توجهی در برابر گوگل در جستجو، نرم افزار بهره وری، رایانش ابری و سایر زمینه هایی که غول ها در آن رقابت می کنند، داشته باشد. زمانی که بینگ را با هوش مصنوعی راه اندازی کرد، این شرکت به سرمایه گذاران گفت که هر 1 درصد از سهم بازاری که می تواند در جستجو از گوگل بگیرد، 2 میلیارد دلار درآمد سالانه دارد.
این پتانسیل توضیح میدهد که چرا مایکروسافت تاکنون ۱۱ میلیارد دلار در OpenAI سرمایهگذاری کرده است و در حال حاضر برای ادغام فناوری این استارتآپ در هر گوشه از امپراطوری خود رقابت میکند. به نظر می رسد موفقیت اولیه ای داشته باشد: این شرکت هفته گذشته اعلام کرد Bing اکنون 100 میلیون کاربر فعال روزانه دارد که یک سوم آنها از زمان راه اندازی مجدد موتور جستجو با فناوری OpenAI جدید هستند.
از سوی دیگر، همه کسانی که در توسعه هوش مصنوعی نقش دارند موافق هستند که این فناوری خطرات قوی و احتمالاً وجودی، شناخته شده و ناشناخته را به همراه دارد. غولهای فناوری تلاش کردهاند نشان دهند که این خطرات را جدی میگیرند – مایکروسافت به تنهایی سه گروه مختلف دارد که روی این موضوع کار میکنند، حتی پس از حذف تیم اخلاق و جامعه. اما با توجه به خطرات، هر گونه کاهش در تیم های متمرکز بر کار مسئولانه قابل توجه به نظر می رسد.
حذف تیم اخلاق و جامعه درست زمانی اتفاق افتاد که کارمندان باقیمانده گروه تمرکز خود را بر روی بزرگترین چالش خود آموزش داده بودند: پیش بینی اینکه چه اتفاقی می افتد زمانی که مایکروسافت ابزارهای مجهز به OpenAI را برای مخاطبان جهانی منتشر کند.
سال گذشته، تیم یادداشتی نوشت که خطرات برند مرتبط با Bing Image Creator را که از سیستم DALL-E OpenAI برای ایجاد تصاویر بر اساس درخواستهای متنی استفاده میکند، نوشت. ابزار تصویر در ماه اکتبر در تعداد معدودی از کشورها راه اندازی شد و آن را به یکی از اولین همکاری های عمومی مایکروسافت با OpenAI تبدیل کرد.
در حالی که فناوری تبدیل متن به تصویر بسیار محبوب شده است، محققان مایکروسافت به درستی پیشبینی کردند که میتواند معیشت هنرمندان را نیز تهدید کند و به هر کسی اجازه میدهد به راحتی از سبک آنها کپی کند.
محققان در این مقاله نوشتند: «در آزمایش Bing Image Creator، مشخص شد که با یک فرمان ساده که فقط نام هنرمند و یک رسانه (نقاشی، چاپ، عکاسی یا مجسمه) را شامل میشود، تمایز تصاویر ایجاد شده از آثار اصلی تقریباً غیرممکن است. یادداشت
“خطر آسیب به برند … آنقدر واقعی و قابل توجه است که نیاز به جبران دارد.”
آنها افزودند: “خطر آسیب به برند، هم برای هنرمند و هم برای ذینفعان مالی آنها، و هم روابط عمومی منفی مایکروسافت ناشی از شکایات هنرمندان و واکنش منفی عمومی به اندازه کافی واقعی و قابل توجه است که قبل از آسیب رساندن به برند مایکروسافت، نیاز به جبران دارد.”
علاوه بر این، سال گذشته OpenAI شرایط خدمات خود را بهروزرسانی کرد تا به کاربران «حق مالکیت کامل تصاویری که با DALL-E ایجاد میکنید» بدهد. این اقدام تیم اخلاق و جامعه مایکروسافت را نگران کرد.
آنها در این یادداشت نوشتند: «اگر یک تولیدکننده تصویر هوش مصنوعی به صورت ریاضی تصاویر آثار را تکرار کند، از نظر اخلاقی مشکوک است که پیشنهاد کنیم شخصی که درخواست را ارسال کرده است، حقوق مالکیت کامل تصویر حاصل را دارد.
محققان مایکروسافت فهرستی از استراتژیهای کاهش را ایجاد کردند، از جمله ممانعت کاربران بینگ Image Creator از استفاده از نام هنرمندان زنده به عنوان درخواست و ایجاد بازاری برای فروش آثار یک هنرمند که اگر کسی نام آنها را جستجو کند، ظاهر میشود.
کارمندان می گویند هیچ یک از این استراتژی ها اجرا نشدند و به هر حال Bing Image Creator در کشورهای مورد آزمایش راه اندازی شد.
مایکروسافت میگوید این ابزار قبل از راهاندازی برای رفع نگرانیهای مطرحشده در سند اصلاح شد و باعث شد تیم مسئول هوش مصنوعی خود کار بیشتری کند.
اما سؤالات حقوقی در مورد این فناوری حل نشده باقی مانده است. در فوریه 2023، Getty Images شکایتی علیه Stability AI، سازندگان مولد هنر هوش مصنوعی Stable Diffusion تنظیم کرد. گتی استارتاپ هوش مصنوعی را به استفاده نادرست از بیش از 12 میلیون تصویر برای آموزش سیستم خود متهم کرد.
این اتهامات بازتاب نگرانی های مطرح شده توسط اخلاق نویسان هوش مصنوعی خود مایکروسافت بود. کارمندان سال گذشته نوشتند: «احتمالاً تعداد کمی از هنرمندان موافقت کردهاند که اجازه دهند آثارشان بهعنوان دادههای آموزشی مورد استفاده قرار گیرد، و احتمالاً بسیاری هنوز نمیدانند که چگونه فناوری مولد اجازه میدهد تا تغییراتی از تصاویر آنلاین کارشان در چند ثانیه تولید شود».
این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.