“نوشتن ربات کامل”: چالش هوش مصنوعی پیش روی دانشگاه ها | دانشگاه های استرالیا

به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،

“در مقابل سالن سخنرانی منتظر شروع کلاس بعدی من هستم و در کنار من دو دانشجو در حال بحث و گفتگو هستند که کدام برنامه هوش مصنوعی برای نوشتن مقالات آنها بهتر عمل می کند. آیا این چیزی است که من علامت گذاری می کنم؟ مقاله های هوش مصنوعی؟

این توییت کارلا یونسکو مورخ اواخر ماه گذشته نگرانی فزاینده ای در مورد آنچه هوش مصنوعی برای ارزیابی سنتی دانشگاه به تصویر می کشد را به تصویر می کشد. «نه. به هیچ وجه،» او در توییتی نوشت. “به من بگو ما هنوز آنجا نیستیم.”

ولی هوش مصنوعی مدتی است که دروازه دانشگاه را می کوبد.

در سال 2012، بن گورتزل، نظریه‌پرداز رایانه، آنچه را «آزمون دانشجویی دانشگاه روبات» می‌نامید، پیشنهاد کرد و استدلال کرد که هوش مصنوعی که بتواند به همان روش‌هایی که یک انسان مدرک بگیرد، باید آگاه در نظر گرفته شود.

ایده گورتزل – جایگزینی برای تست تورینگ مشهورتر – اگر موفقیت‌های هوش مصنوعی در به کارگیری پردازش زبان طبیعی (NLP) نبود، ممکن بود یک آزمایش فکری باقی بماند: معروف‌ترین آن، GPT-3، مدل زبان ایجاد شده توسط OpenAi است. آزمایشگاه تحقیقاتی

دو سال پیش، نسیم دهوش، دانشمند کامپیوتر، مقاله‌ای منتشر کرد که نشان می‌داد GPT-3 می‌تواند نوشته‌های آکادمیک معتبری را تولید کند که توسط نرم‌افزار ضد سرقت ادبی معمول غیرقابل تشخیص است.

“[I] دهوش به گاردین استرالیا گفت که خروجی آن از یک مقاله عالی در مقطع کارشناسی قابل تشخیص نیست، هم از نظر صحت و هم اصالت. [My article] در ابتدا با عنوان فرعی “بهترین زمان برای بازیگری دیروز بود، دومین زمان بهترین زمان اکنون است”. هدف آن دعوت به نیاز فوری برای حداقل به روز رسانی مفاهیم سرقت ادبی بود.»

بن گورتزل
بن گورتزل آنچه را «آزمون دانشجویی دانشگاه روبات» می نامید، پیشنهاد داد و استدلال کرد که هوش مصنوعی که بتواند به همان روش های یک انسان مدرک بگیرد، باید آگاه تلقی شود. عکس: هوراسیو ویلالوبوس/کوربیس/گتی ایماژ

او اکنون فکر می‌کند که از زمانی که دانش‌آموزان می‌توانستند مقالات کامل (و سایر اشکال نوشتاری) را با استفاده از روش‌های الگوریتمی تولید کنند، به خوبی گذشته‌ایم.

او می‌گوید: «یک تمرین خوب برای نویسندگان مشتاق، نوعی آزمون تورینگ معکوس خواهد بود: «آیا می‌توانید صفحه‌ای از متن بنویسید که توسط هوش مصنوعی تولید نشده باشد، و توضیح دهید که چرا؟ تا جایی که من می بینم، مگر اینکه کسی یک قضیه ریاضی اصلی و اثبات آن را گزارش کند، ممکن نیست. اما دوست دارم ثابت شود که اشتباه می کنم.»

زیاد دیگران اکنون به اشتراک می گذارند فوریت او در مقالات خبری و نظری، GPT-3 به طور قانع‌کننده‌ای در مورد اینکه آیا تهدیدی برای بشریت محسوب می‌شود (می‌گوید که چنین نیست) و در مورد ظلم به حیوانات به سبک باب دیلن و ویلیام شکسپیر نوشته است.

مقاله فوربس در سال 2021 در مورد مقاله نویسی با هوش مصنوعی با یک میکروفون دراماتیک به اوج خود رسید: “این پست در مورد استفاده از هوش مصنوعی برای نوشتن مقاله در مدرسه” توضیح داد که “با استفاده از یک ابزار نوشتن محتوای هوش مصنوعی نوشته شده است”.

البته، صنعت فناوری با تبلیغات بی‌دلیل رشد می‌کند. ماه گذشته اسکات گراهام در مقاله ای برای Inside Higher Education توضیح داد که دانشجویان را تشویق می کند تا از این فناوری برای تکالیف خود با نتایج کاملاً متفاوت استفاده کنند. او گفت که بهترین ها حداقل الزامات را برآورده می کردند اما کمی بیشتر. دانش‌آموزان ضعیف‌تر با مشکل مواجه شدند، زیرا دادن اعلان‌های مؤثر به سیستم (و سپس ویرایش خروجی آن) به مهارت‌های نوشتاری در سطح بالایی نیاز داشت تا هوش مصنوعی را زائد کند.

او در پایان گفت: «به شدت مشکوک هستم که نوشتن ربات کامل همیشه و برای همیشه «در گوشه و کنار» باشد.

این ممکن است درست باشد، اگرچه فقط یک ماه قبل، آکی پریتز از اسلیت دقیقاً برعکس نتیجه گرفت و اعلام کرد که “با کمی تمرین، دانش آموز می تواند از هوش مصنوعی برای نوشتن مقاله خود در کسری از زمانی که معمولاً طول می کشد استفاده کند.”

با این وجود، چالش آموزش عالی را نمی توان صرفاً به «نوشتن ربات کامل» تقلیل داد.

دانشگاه‌ها صرفاً با مقالات یا تکالیفی که کاملاً توسط الگوریتم‌ها تولید می‌شوند مواجه نمی‌شوند، بلکه باید تعداد بی‌شماری از مشکلات ظریف‌تر را نیز مورد قضاوت قرار دهند. برای مثال، واژه‌پردازهای مبتنی بر هوش مصنوعی معمولاً جایگزین‌هایی را برای عبارات غیر دستوری ما پیشنهاد می‌کنند. اما اگر نرم افزار می تواند به صورت الگوریتمی جمله دانش آموز را بازنویسی کند، چرا نباید همین کار را با یک پاراگراف – و اگر یک پاراگراف، چرا یک صفحه انجام نمی دهد؟

نفوذ هوش مصنوعی در چه مرحله ای تقلب است؟

پروفسور فیلیپ داوسون از دانشگاه دیکین در امنیت ارزیابی دیجیتال تخصص دارد.

او AI را صرفاً به عنوان شکل جدیدی از تکنیکی به نام بارگذاری شناختی در نظر می‌گیرد.

او توضیح می دهد: «تخلیه شناختی زمانی است که از ابزاری برای کاهش بار ذهنی یک کار استفاده می کنید. این می تواند به سادگی نوشتن چیزی باشد، بنابراین لازم نیست سعی کنید آن را برای بعد به خاطر بسپارید. مدت‌هاست که وحشت اخلاقی در مورد ابزارهای تخلیه شناختی وجود داشته است، از شکایت سقراط از افرادی که از نوشتن استفاده می‌کنند تا وانمود کنند چیزی می‌دانند، تا اولین ظهور ماشین‌حساب‌های جیبی.

داوسون استدلال می کند که دانشگاه ها باید اشکال و درجه تخلیه شناختی مجاز برای ارزیابی های خاص را برای دانشجویان روشن کنند، و هوش مصنوعی به طور فزاینده ای در وظایف سطوح بالاتر گنجانده می شود.

“من فکر می کنم ما در واقع به دانش آموزان یاد می دهیم که چگونه از این ابزارها استفاده کنند. من فکر نمی‌کنم که ما لزوماً آنها را منع کنیم.»

مشاغلی که دانشگاه ها دانشجویان را برای آنها آماده می کنند، به زودی به هوش مصنوعی نیز تکیه خواهند کرد، که به ویژه علوم انسانی آسیب دیده است. به عنوان مثال روزنامه نگاری را در نظر بگیرید. یک نظرسنجی در سال 2019 از 71 سازمان رسانه‌ای از 32 کشور نشان داد که هوش مصنوعی در حال حاضر «بخش مهمی از روزنامه‌نگاری» است که برای جمع‌آوری اخبار (مثلاً منبع‌یابی اطلاعات یا شناسایی روندها)، تولید اخبار (هر چیزی از حقیقت‌سنجی خودکار گرفته تا تغییر الگوریتمی گزارش‌های مالی استفاده می‌شود. به مقالات) و توزیع اخبار (شخصی‌سازی وب‌سایت‌ها، مدیریت اشتراک‌ها، یافتن مخاطبان جدید و غیره). پس چرا مربیان روزنامه‌نگاری باید دانش‌آموزان را به دلیل استفاده از فناوری که احتمالاً در آینده شغلی آنها محور است، مجازات کنند؟

دانشجویان دانشگاه
مشاغلی که دانشگاه‌ها برای آن‌ها دانشجویان را آماده می‌کنند، به‌زودی به هوش مصنوعی نیز تکیه خواهند کرد که به‌ویژه علوم انسانی متاثر می‌شوند.» عکس: دین لوینز/AAP

داوسون می‌گوید: «من فکر می‌کنم ما نگاهی واقعاً خوب به کارهایی که حرفه‌ها در رابطه با این ابزارها انجام می‌دهند در حال حاضر خواهیم داشت، و احتمالاً در آینده چه کاری با آنها انجام می‌دهند، و ما سعی خواهیم کرد آن‌ها را ترسیم کنیم. توانایی ها به دوره های ما برمی گردند. این بدان معناست که نحوه ارجاع به آنها را بیابید، بنابراین دانش‌آموز می‌تواند بگوید: من هوش مصنوعی را برای انجام این کار دریافت کردم و سپس این چیزی است که خودم انجام دادم.

با این حال، تدوین سیاست‌ها در مورد زمان و مکان استفاده قانونی از هوش مصنوعی یک چیز است – و اجرای آنها کاملاً چیز دیگری است.

دکتر هلن گنیل واحد یکپارچگی آموزش عالی آژانس کیفیت و استانداردهای آموزش عالی (TEQSA)، تنظیم کننده مستقل آموزش عالی استرالیا را اداره می کند.

مانند داوسون، او مسائل پیرامون هوش مصنوعی را از برخی جهات، فرصتی می‌داند – فرصتی برای مؤسسات تا «درباره آنچه آموزش می‌دهند و مناسب‌ترین روش‌ها برای ارزیابی یادگیری در آن زمینه فکر کنند».

شفافیت کلیدی است.

ما از مؤسسات انتظار داریم که قوانین خود را در مورد استفاده از هوش مصنوعی تعریف کنند و اطمینان حاصل کنند که انتظارات به طور واضح و منظم به دانش‌آموزان منتقل می‌شوند.»

او به ICHM، موسسه مدیریت سلامت و Flinders Uni به عنوان سه ارائه‌دهنده در حال حاضر با خط‌مشی‌های صریح اشاره می‌کند و Flinders ارسال کار را «تولید شده توسط یک الگوریتم، ژنراتور رایانه یا سایر هوش مصنوعی» به عنوان نوعی «تقلب قراردادی» عنوان می‌کند.

اما این مقایسه مسائل دیگری را مطرح می کند.

در ماه اوت، TEQSA حدود 40 وب سایت مرتبط با شکل سنتی تر تقلب در قرارداد را مسدود کرد – فروش مقالات از پیش نوشته شده به دانش آموزان. 450000 بازدیدی که هر ماه از آن سایت‌ها دریافت می‌شود، بازار بالقوه عظیمی را برای نوشتن هوش مصنوعی نشان می‌دهد، زیرا کسانی که زمانی به انسان‌ها پول می‌دادند تا برایشان بنویسند، در عوض به جایگزین‌های دیجیتالی روی می‌آورند.

تحقیقات دکتر گای کورتیس از دانشگاه استرالیای غربی نشان داد که پاسخ دهندگان غیرانگلیسی زبان سه برابر بیشتر از کسانی که زبان انگلیسی را به عنوان زبان اول دارند، تمایل به خرید مقاله دارند. این رقم بدون شک منعکس کننده فشارهایی است که بر روی نزدیک به 500000 دانشجوی بین المللی که دوره های آموزشی را در موسسات استرالیا می گذرانند، که ممکن است با کار ناامن، هزینه های زندگی، انزوای اجتماعی و دشواری ذاتی ارزیابی در یک زبان خارجی دست و پنجه نرم کنند.

اما می توان به رابطه گسترده تر بین گسترش تقلب در قرارداد و تبدیل آموزش عالی به یک صنعت صادراتی پرسود نیز اشاره کرد. اگر مدرک دانشگاهی صرفاً به یک محصول برای خرید و فروش تبدیل شود، تصمیم یک دانشجوی شکست خورده برای فراخوانی از یک پیمانکار خارجی (خواه انسانی یا الگوریتمی) ممکن است صرفاً یک انتخاب بازار منطقی به نظر برسد.

این تصویر دیگری از این است که چگونه هوش مصنوعی سوالات ناراحت کننده ای را در مورد ماهیت آموزش مطرح می کند.

بن گورتزل “آزمون روبات دانشجویی دانشگاه” خود را به عنوان نمایشی از “هوش عمومی مصنوعی” تصور کرد: یک تکرار دیجیتالی از عقل انسان. اما این چیزی نیست که NLP شامل می شود. برعکس، همانطور که لوچیانو فلوریدی و ماسیمو چیریاتی می گویند، با هوش مصنوعی، “ما به طور فزاینده ای توانایی حل یک مشکل را به طور موثر … از هرگونه نیاز به هوشمند بودن برای انجام این کار جدا می کنیم”.

باب دیلن
GPT-3 به طور قانع‌کننده‌ای در مورد اینکه آیا تهدیدی برای بشریت محسوب می‌شود یا خیر، نوشته است و در مورد ظلم به حیوانات به سبک باب دیلن و ویلیام شکسپیر. عکس: خبرگزاری تی تی/علمی

هوش مصنوعی‌های جدید بر روی مجموعه‌های داده‌ای عظیم آموزش می‌دهند و مقادیر زیادی از اطلاعات را بررسی می‌کنند تا بتوانند پاسخ‌های قابل قبولی را به درخواست‌های متنی و دیگر تعبیر کنند. امیلی ام بندر و همکارانش یک مدل زبان را به عنوان یک “طوطی تصادفی” توصیف می کنند، چیزی که “به طور تصادفی” [stitches] توالی‌هایی از اشکال زبانی را با توجه به اطلاعات احتمالی در مورد نحوه ترکیب آنها، اما بدون هیچ اشاره‌ای به معنا، در داده‌های آموزشی گسترده‌اش مشاهده کرده است».

بنابراین، اگر بتوان تکالیف ارزیابی را بدون درک معنای آنها پاس کرد، وظایف دقیقاً چه چیزی را ارزیابی می کنند؟

توماس دوچرتی از دانشگاه وارویک در کتاب خود برای دانشگاه: دموکراسی و آینده مؤسسه در سال 2011 پیشنهاد می‌کند که آموزش شرکتی جایگزین «دانش» بی‌پایان و بی‌ثبات‌کننده با «مدیریت کارآمد و کنترل‌شده اطلاعات» می‌شود، و ارزیابی به دانشجویان نیاز دارد. صرفاً نشان دهند که به پایگاه داده «دانش» دسترسی پیدا کرده‌اند… و سپس آن دانش را در سازماندهی بخش‌های برش و چسبانده شده به یک کل جدید دستکاری یا «مدیریت» کرده‌اند.

مهارت بالقوه «طوطی‌های تصادفی» در ارزیابی عالی، نور جدیدی بر استدلال دوچرتی می‌افکند و تأیید می‌کند که چنین وظایفی در واقع دانش (که هوش مصنوعی ذاتاً فاقد آن هستند) به اندازه انتقال اطلاعات (که هوش مصنوعی در آن برتری دارد) اندازه‌گیری نمی‌کند.

به بیان دیگر، هوش مصنوعی مسائلی را برای بخش آموزش مطرح می‌کند که فراتر از هر اقدام فوری برای کنترل استفاده دانش‌آموزان از چنین سیستم‌هایی است. برای مثال، می‌توان تصور کرد که فناوری یک «دیستوپی خسته‌کننده» را تسهیل می‌کند، و آن جنبه‌هایی از دانشگاه را که قبلاً بیش از همه توسط الزامات شرکت‌ها فرسوده شده‌اند، تخریب می‌کند. به هر حال، آموزش عالی سرمایه گذاری زیادی روی سیستم های هوش مصنوعی برای درجه بندی کرده است، به طوری که، از نظر تئوری، الگوریتم ها ممکن است خروجی الگوریتم های دیگر را مشخص کنند، در یک فرآیند بی نهایت که در آن هیچ چیز یاد نمی شود.

اما شاید، فقط شاید، چالش هوش مصنوعی ممکن است چیز دیگری را تشویق کند. شاید بتوان گفت وگویی را در مورد اینکه آموزش چیست و مهمتر از همه اینکه ما می خواهیم چه باشد، ایجاد کند. هوش مصنوعی ممکن است ما را ترغیب کند که دانش واقعی را بشناسیم، به طوری که، همانطور که دانشگاه آینده فناوری را پذیرفته است، از آنچه ما را انسان می سازد، دوباره قدردانی کند.

این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.

منبع

درباره ی asrf_admin

مطلب پیشنهادی

در مریخ، یک برخورد عظیم سیارکی ممکن است باعث “مگاسونامی” شده باشد

به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ، اگر شما به اندازه ما …