به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،
مایکل اسکات، شخصیت اصلی نسخه آمریکایی The Office، از یک استخدام کننده هوش مصنوعی برای استخدام یک پذیرش استفاده می کند.
گاردین استرالیا اعمال می شود.
سیستم مبتنی بر متن از متقاضیان پنج سوال می پرسد که به چگونگی پاسخ آنها به موقعیت های کاری گذشته، از جمله برخورد با همکاران دشوار و تقلب در خواسته های کاری رقیب، می پردازد.
کارمندان بالقوه پاسخ های خود را در یک برنامه به سبک چت تایپ می کنند که شبیه به یک میز کمک پاسخگو است. سپس قدرت واقعی – و آزاردهنده – هوش مصنوعی شروع میشود، و یک امتیاز و مشخصات ویژگیها را برای کارفرما ارسال میکند و یک گزارش شخصیتی برای متقاضی ارسال میکند. (اطلاعات بیشتر در مورد نتایج ما بعداً.)
این نمایش توسط استارتآپ Sapia.ai مستقر در ملبورن، شبیه فرآیند مصاحبه ساختار یافته اولیه است که توسط مشتریان آنها استفاده میشود، که شامل برخی از بزرگترین شرکتهای استرالیا مانند کانتاس، مدیبانک، سانکورپ و وولورث میشود.
این فرآیند معمولاً فهرست کوتاهی را ایجاد می کند که کارفرما می تواند آن را دنبال کند، با بینش هایی در مورد نشانگرهای شخصیتی از جمله فروتنی، برون گرایی و وظیفه شناسی.
برای نقش های خدمات مشتری، برای کمک به کارفرما طراحی شده است که بداند آیا فردی دوست داشتنی است یا خیر. برای یک نقش دستی، یک کارفرما ممکن است بخواهد بداند که آیا متقاضی به موقع حاضر می شود یا خیر.
شما اساساً با دنیا مصاحبه می کنید. بارب هیمن، بنیانگذار و مدیر اجرایی ساپیا می گوید: همه با هم مصاحبه می کنند.
نکات فروش استخدام هوش مصنوعی واضح است: آنها می توانند فرآیندهای پرهزینه و وقت گیر را برای مشاغل و سازمان های دولتی، به ویژه برای انگیزه های استخدام بزرگ برای نقش های غیر مدیریتی، خودکار کنند.
با این حال، بزرگترین ادعای ساپیا ممکن است این باشد که این تنها راه برای مصاحبه منصفانه است.
هیمن میگوید: «تنها راه برای حذف تعصب در استخدام، استفاده نکردن از افراد درست در اولین دروازه است. اینجاست که فناوری ما وارد می شود: کور است. بدون زمان است، از داده های رزومه یا داده های رسانه های اجتماعی یا داده های جمعیتی شما استفاده نمی کند. تنها چیزی که استفاده می کند نتایج متنی است.

یک سابقه ناهموار
ساپیا تنها شرکت هوش مصنوعی نیست که ادعا می کند فناوری آنها باعث کاهش تعصب در فرآیند استخدام می شود. مجموعهای از شرکتها در سراسر استرالیا ابزارهای استخدامی تقویتشده با هوش مصنوعی را ارائه میکنند، از جمله نه تنها مدلهای مبتنی بر چت، بلکه مصاحبههای ویدئویی یک طرفه، بررسیهای مرجع خودکار، تحلیلگرهای رسانههای اجتماعی و موارد دیگر.
در سال 2022، یک نظرسنجی از آژانسهای بخش دولتی استرالیا نشان داد که حداقل یک چهارم آنها از فناوری با کمک هوش مصنوعی در استخدام در آن سال استفاده کردهاند. تحقیقات جداگانه ای از شورای تنوع استرالیا و دانشگاه موناش نشان می دهد که یک سوم سازمان های استرالیایی در مرحله ای از فرآیند استخدام از آن استفاده می کنند.
با این حال، متقاضیان اغلب نمی دانند که تحت یک فرآیند خودکار قرار می گیرند یا بر اساس چه مبنایی در آن ارزیابی می شوند.
دفتر کمیسر حفاظت از شایستگی به آژانسهای خدمات عمومی توصیه میکند که وقتی از ابزارهای هوش مصنوعی برای استخدام استفاده میکنند، باید «ارتباط واضح و آشکاری بین کیفیتهای داوطلب ارزیابیشده و کیفیتهای مورد نیاز برای انجام وظایف شغلی وجود داشته باشد».
دفتر کمیسر همچنین هشدار میدهد که هوش مصنوعی ممکن است نامزدها را بر اساس چیزی غیر از شایستگی ارزیابی کند، نگرانیهای اخلاقی و قانونی را در مورد شفافیت و سوگیری دادهها مطرح کند، نتایج مغرضانهای ایجاد کند یا با تفسیر اشتباه نشانگرهای اجتماعی-اقتصادی به عنوان نشانههای موفقیت، باعث “سوگیری آماری” شود.
دلیل خوبی برای این هشدار وجود دارد. سابقه هوش مصنوعی در زمینه تعصب نگران کننده بوده است.
در سال 2017، آمازون بی سر و صدا ابزار آزمایشی رتبه بندی نامزدها را که بر روی رزومه هایی از صنعت فناوری عمدتاً مرد آموزش داده شده بود، کنار گذاشت و به طور مؤثر به خود آموخت که کاندیداهای مرد ترجیح داده می شوند. این ابزار بهطور سیستماتیک رزومههای زنان را تنزل داد، آنهایی را که شامل عباراتی مانند «کاپیتان باشگاه شطرنج زنان» بودند، جریمه کرد و آنهایی را که از افعالی که بیشتر در رزومههای مهندسان مرد یافت میشوند، مانند «اجرا شده» و «اسیر» استفاده میکردند.
تحقیقات انجام شده در ایالات متحده در سال 2020 نشان داد که فناوری تجزیه و تحلیل چهره ایجاد شده توسط مایکروسافت و IBM، در میان سایرین، در افراد با پوست روشنتر و مردان عملکرد بهتری داشته است، در حالی که زنان با پوست تیرهتر اغلب توسط این برنامهها به اشتباه جنسیت داده میشوند.
سال گذشته مطالعهای در دانشگاه کمبریج نشان داد که هوش مصنوعی واسطهای خوشخیم نیست، اما «با ایجاد ارتباط بین کلمات و بدن افراد» به جای مشاهده یا شناسایی صرف، به تولید «نامزد ایدهآل» کمک میکند.
ناتالی شیرد، وکیل و کاندیدای دکترا در دانشگاه لاتروب که دکترایش مقررات و تبعیض در سیستمهای استخدام مبتنی بر هوش مصنوعی را بررسی میکند، میگوید این عدم شفافیت مشکل بزرگی برای عدالت است.

Sheard میگوید: «برنامههای به سبک مسنجر مبتنی بر پردازش زبان طبیعی، مشابه ChatGPT هستند، بنابراین دادههای آموزشی برای آن سیستمها معمولاً کلمات یا صداهای صوتی افرادی است که انگلیسی استاندارد صحبت میکنند.
«بنابراین اگر شما یک زبان مادری نیستید، چگونه با شما برخورد میکند؟ ممکن است بگوید اگر از دستور زبان استاندارد انگلیسی استفاده نکنید، مهارت های ارتباطی خوبی ندارید، یا ممکن است ویژگی های فرهنگی متفاوتی داشته باشید که سیستم ممکن است آنها را تشخیص ندهد، زیرا بر روی افراد بومی آموزش دیده است.
نگرانی دیگر این است که چگونه ناتوانی جسمی در چیزی مانند چت یا مصاحبه ویدیویی به حساب می آید. و با فقدان شفافیت در مورد اینکه آیا ارزیابیها با هوش مصنوعی انجام میشوند و بر چه اساسی، اغلب غیرممکن است که نامزدها بدانند که ممکن است نیاز به تعدیلهای معقولی داشته باشند که از نظر قانونی مستحق آن هستند.
«شرایط قانونی برای سازمانها وجود دارد که در فرآیند استخدام، ناتوانی را تنظیم کنند. اما این امر مستلزم آن است که افراد ناتوانی خود را مستقیماً در زمانی که به این کارفرما اعتماد ندارند، افشا کنند. و این سیستمها شیوههای استخدام سنتی را تغییر میدهند، بنابراین شما نمیدانید که ارزیابی چیست، نمیدانید که یک الگوریتم قرار است شما را ارزیابی کند یا چگونه. ممکن است ندانید که به یک تنظیم معقول نیاز دارید.»
پس از ارتقاء خبرنامه
استرالیا هیچ قانونی ندارد که به طور خاص بر ابزارهای استخدام هوش مصنوعی حاکم باشد. در حالی که دپارتمان صنعت یک چارچوب اخلاقی هوش مصنوعی را توسعه داده است که شامل اصول شفافیت، توضیح پذیری، پاسخگویی و حریم خصوصی است، این کد داوطلبانه است.
درک پایینی در جامعه در مورد سیستم های هوش مصنوعی وجود دارد و از آنجایی که کارفرمایان بسیار به این فروشندگان متکی هستند، آنها را به کار می گیرند. [the tools] شِرد میگوید بدون هیچ گونه سیستم حکومتی.
کارفرمایان قصد بدی ندارند، آنها میخواهند کارهای درست را انجام دهند، اما نمیدانند چه کاری باید انجام دهند. هیچ مکانیزم نظارت داخلی راه اندازی نشده است، هیچ سیستم حسابرسی مستقلی وجود ندارد تا اطمینان حاصل شود که سوگیری وجود ندارد.»
مسئله تنوع
هیمن می گوید بازخورد مشتری و تحقیقات مستقل نشان می دهد که جامعه گسترده تر با استخدام کنندگانی که از هوش مصنوعی استفاده می کنند راحت هستند.
هیمن می گوید: «آنها باید تجربه ای داشته باشند که دعوت کننده، فراگیر باشد و تنوع بیشتری را به خود جلب کند. او می گوید که سیستم متنی بدون زمان، کم استرس و متن ساپیا با این معیارها مطابقت دارد.
زمانی که از هوش مصنوعی استفاده می کنید، احتمال اینکه زنان را جذب کنید و زنان را در فرآیند استخدام نگه دارید، دو برابر بیشتر است. این یک داستان تخیلی کامل است که مردم آن را نمی خواهند و به آن اعتماد ندارند. ما در داده های خود کاملاً برعکس را می بینیم.”

تحقیقات شورای تنوع استرالیا و دانشگاه موناش چندان مشتاقانه نیست و نشان میدهد که بین کارفرمایان و نامزدهایی که در مورد ابزارهای استخدام هوش مصنوعی «تبدیل شدهاند» یا «احتیاط کردهاند» یک «شکاف واضح» وجود دارد، بهطوریکه ۵۰ درصد از کارفرمایان به تکنولوژی اما تنها یک سوم از متقاضیان کار. متقاضیان کار در کشورهای اول از جمله کسانی بودند که بیشتر نگران بودند.
DCA توصیه میکند که استخدامکنندگان در مورد پروتکلهای بررسی دقیقی که در اختیار دارند شفاف باشند تا مطمئن شوند ابزارهای استخدام با پشتیبانی هوش مصنوعی «بدون تعصب، فراگیر و در دسترس هستند».
در نمایش ساپیا، هوش مصنوعی به سرعت یادداشت های مختصری از بازخورد شخصیتی در پایان برنامه برای مصاحبه شونده ایجاد می کند.
این بر اساس این است که چگونه افراد بر اساس نشانگرهای مختلف، از جمله وظیفه شناسی و موافق بودن، که هوش مصنوعی با عبارات از پیش نوشته شده ای که شبیه چیزی است که یک مربی زندگی می گوید مطابقت می دهد، رتبه بندی می کند.
یک ارزیابی دقیق تر – که برای متقاضی قابل مشاهده نیست – برای استخدام کننده ارسال می شود.
ساپیا میگوید که نرمافزار چت-مصاحبهاش مهارت زبان را تجزیه و تحلیل میکند و یک آشکارساز ناسزا نیز در آن گنجانده شده است، و شرکت میگوید اینها ملاحظات مهمی برای نقشهای رو به رو مشتری هستند.
هیمن میگوید که تجزیه و تحلیل زبان مبتنی بر «میلیارد کلمه داده» است که از پاسخها در سالهای پس از تأسیس شرکت فناوری در سال 2013 جمعآوری شده است. این دادهها خود اختصاصی هستند.
شما (نه) استخدام شده اید!
بنابراین، آیا گاردین استرالیایی میتواند برای مایکل اسکات در شرکت کاغذی تخیلی Dunder Mifflin کار کند؟
بازخورد شخصیتی در پاسخ به درخواست گاردین استرالیا در نمایش هوش مصنوعی می گوید: «شما مطمئن هستید اما بیش از حد مطمئن نیستید».
این با یک پیشنهاد ظریف دنبال می شود که این متقاضی ممکن است برای نقش پذیرش مناسب نباشد، که نیاز به “تکرار، روال و پیروی از یک فرآیند تعریف شده” دارد.
اما توصیه های مفیدی دارد: “به طور بالقوه آن را با تنوع خارج از کار متعادل کنید.”
به نظر می رسد ما برای این کار مناسب نیستیم.
این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.