به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،
من شش هفته مرخصی گرفتم تا بچه ای بزرگ کنم و همه تصمیم گرفتند که زمان آن رسیده است که انقلاب هوش مصنوعی را قریب الوقوع اعلام کنند. سخت است که آن را شخصی نگیرید.
تیک تاک پیشرفتهای جدید که هرکدام از گذشته چشمگیرتر هستند – و هر کدام سریعتر از گذشته به صحنه میرسند – هفته گذشته با اعلام تقریباً همزمان Google Bard و Bing Chat مایکروسافت به اوج خود رسید. از آن زمان، امکان جابجایی گفتمان وجود داشته است، از ادعاهای هزاره ای مبنی بر انشاتون قریب الوقوع هوش مصنوعی تا رد کل زمینه به عنوان تکمیل خودکار جلال یافته.
من اینجا نیستم که این بحث را حل کنم. در عوض، اگر سال 2023 سالی است که هوش مصنوعی همه چیز را تغییر میدهد، در اوایل آن سال زمان آن است که کمی عمیقتر به این موضوع بپردازیم که چیست، چگونه کار میکند و چرا آن چیزی است که هست. و بهترین راه برای انجام این کار این است که شروع به صحبت در مورد همه آن اصطلاحات کوچکی کنید که از پوشش جریان اصلی حذف می شوند زیرا “بیش از حد تکنیکی” هستند.
کلمات اختصاری و اصطلاحات تخصصی هوش مصنوعی واقعاً به چه معنا هستند
عصبی شبکه
شبکه های عصبی فناوری اساسی در قلب رونق هوش مصنوعی هستند. آنها را معادل موتور بخار در اولین انقلاب صنعتی در نظر بگیرید: یک فناوری همه منظوره که می تواند به صنایع مختلف و استفاده از موارد مختلف دست یابد و آنها را متحول کند.
اولین بار در دهه 1940، شبکه های عصبی به عنوان تلاش هایی برای مدل سازی مغز حیوانات، که از میلیون ها نورون ساده که هر کدام به چند نورون دیگر متصل هستند، ساخته شده اند، آغاز شد. هر نورون منفرد بسیار ساده است، اما کمیت باعث کیفیت می شود و تعداد کافی از آنها با هم می توانند انجام وظایف پیچیده را بیاموزند. و همین امر در مورد شبکه های عصبی مصنوعی نیز صدق می کند، اگرچه این نورون ها به جای اتصالات فیزیکی، ایده های الگوریتمی محض هستند.
مانند موتور بخار، دهه ها طول کشید تا قدرت واقعی اختراع درک شود. یک شبکه عصبی فقط با مقادیر عظیمی از قدرت محاسباتی و داده کار می کند، بنابراین آنها در بیشتر 70 سال گذشته کنجکاو بوده اند. این در آغاز هزاره تغییر کرد و عصر هوش مصنوعی شروع به کند شدن کرد و به وجود آمد.
LLM
“مدل زبان بزرگ” یا LLM یکی از دو رویکرد اصلی هوش مصنوعی است که منجر به آخرین پیشرفت در این بخش شده است. این شبکههای عصبی را توصیف میکند که با استفاده از مجموعههای عظیمی از دادههای متنی آموزش داده میشوند، مانند سری GPT OpenAI، Google’s Palm یا LLaMa متا. به عنوان مثال، PALM از “اسناد وب با کیفیت بالا، کتاب ها، ویکی پدیا، مکالمات و کد GitHub” برای توسعه درک زبان استفاده می کند.
سوالی که یک LLM سعی می کند به آن پاسخ دهد ساده است: با توجه به بخش کوتاهی از متن، بعد چه می شود؟ اما انجام این وظیفه به خوبی فوق العاده قدرتمند است. برای یک چیز، بازگشتی است. هنگامی که پیشبینی کردید چه چیزی در آینده خواهد آمد، یک بخش جدید و کمی طولانیتر از متن خواهید داشت که میتوانید آن را به LLM بازگردانید و سؤال را تکرار کنید و جملات، پاراگرافها، مقالات یا کتابهای کامل را ایجاد کنید.
سوال نیز هدف کلی است. پیشبینی آنچه بعداً برای یک تکه کوتاه از متن واقعی انگلیسی میآید با پیشبینی آنچه بعداً برای یک تکه کد کوتاه، یا یک سؤال، یا یک شعر، یا یک جفت جملات ترجمهشده یا یک معمای منطقی میآید متفاوت است – اما رویکرد یکسان است. به نظر می رسد برای همه آن وظایف کاملاً خوب عمل می کند. هرچه مدل زبان بزرگتر باشد، نتیجه بهتر است: GPT-3 1500 برابر بزرگتر از GPT-1 است، و به نظر نمی رسد که ما به کشف محدودیت نزدیک باشیم.

GAN
کاری که LLM ها برای متن انجام داده اند، «شبکه های متخاصم مولد» برای تصاویر، فیلم ها، موسیقی و موارد دیگر انجام داده اند. به بیان دقیق، GAN دو شبکه عصبی است: یکی برای برچسبگذاری، دستهبندی و رتبهبندی و دیگری برای ایجاد از ابتدا ساخته شده است. با جفت کردن آنها با یکدیگر، می توانید یک هوش مصنوعی ایجاد کنید که می تواند محتوا را بر اساس دستور تولید کند.
بگویید که یک هوش مصنوعی می خواهید که بتواند عکس بسازد. ابتدا، کار سخت ایجاد هوش مصنوعی برچسبگذاری را انجام میدهید، هوش مصنوعی که میتواند تصویری را ببیند و به شما بگوید که چه چیزی در آن است، با نشان دادن میلیونها تصویری که قبلاً برچسبگذاری شدهاند، تا زمانی که یاد بگیرد “یک سگ” را تشخیص دهد و توصیف کند. “یک پرنده” یا “عکسی از یک پرتقال که از وسط نصف شده است، که نشان می دهد داخل آن شبیه یک سیب است”. سپس، آن برنامه را می گیرید و از آن برای آموزش هوش مصنوعی دوم برای فریب دادن آن استفاده می کنید. اگر هوش مصنوعی دوم بتواند تصویری را ایجاد کند که اولین هوش مصنوعی برچسب مورد نظر را به آن بدهد، “برنده” می شود.
هنگامی که هوش مصنوعی دوم را آموزش دادید، آنچه را که قصد ساختن آن را داشتید دارید: هوش مصنوعی که می توانید برچسبی به آن بدهید و عکسی بگیرید که فکر می کند با برچسب مطابقت دارد. یا یک آهنگ یا یک ویدیو یا یک مدل سه بعدی.
محاسبه کنید
آموزش یک مدل جدید هوش مصنوعی می تواند گران باشد. بر اساس مقالات تحقیقاتی OpenAI، ساخت نهایی GPT-3 حدود 10 میلیون دلار زمان محاسباتی را به خود اختصاص داد، و ناگفته نماند که قبل از اجرای نهایی آنطور که در نظر گرفته شده بود، تلاشهای بیثمری انجام شد. این مانع – دسترسی به “محاسبات” یا قدرت محاسباتی – به این معنی است که ابزارهای همه منظوره بزرگ مانند LLM ها در اختیار شرکت های بزرگ هستند. در سال 2018، OpenAI هشدار می داد که میزان محاسبات مورد استفاده در آموزش های هوش مصنوعی هر سه ماه و نیم دو برابر می شود. یک سال بعد، به همین دلیل، این شرکت اعلام کرد که به دلیل نیاز به “سرمایه گذاری میلیاردها دلار در سال های آینده در محاسبات ابری در مقیاس بزرگ” از یک مدل غیرانتفاعی تغییر خواهد کرد.
بریتانیا به لطف «مثلث طلایی» آکسفورد، کمبریج و لندن، پیشرو در تحقیقات هوش مصنوعی است. اما دانشگاهیان اغلب در دسترسی خود به مقدار محاسباتی که برای کار در لبه های پیشرفته نیاز دارند محدود هستند، که منجر به کسب سودهای تجاری توسط غول های شرکتی آمریکایی و چینی با میلیاردها دلار سرمایه گذاری شده است. این منجر به درخواستهایی برای «BritGPT» دولتی شده است که با بودجه عمومی ساخته شده است تا محاسباتی را که محققان بریتانیایی فاقد آن هستند فراهم کند.

جعبه سیاه
شبکههای عصبی اغلب بهعنوان یک «جعبه سیاه» توصیف میشوند. GPT-3 حاوی 175 میلیارد «پارامتر» است که هر کدام از آنها توضیح میدهد که یک نورون به شدت یا ضعیف بر دیگری تأثیر میگذارد. اما تقریباً غیرممکن است که بگوییم هر پارامتر معین برای LLM به عنوان یک کل چه می کند.
پس از ارتقاء خبرنامه
حتی ساختار کلی شبکه های عصبی چیزی شبیه به یک رمز و راز است. گاهی اوقات، ما می توانیم یک نگاه اجمالی به نظم داشته باشیم. “T” در GPT مخفف “Transformer” است، راهی برای اتصال شبکه عصبی به منظور تقلید از حافظه کوتاه مدت، که واضح است برای چیزی که شامل خواندن یک جمله در یک کلمه در یک زمان است، منطقی است. اما جنبههای دیگر طراحی شبکه عصبی بیشتر آزمون و خطا است: برای مثال، به نظر میرسد که مجبور کردن یک شبکه عصبی برای «فشار دادن» تفکر خود از طریق تنگنای تنها چند نورون میتواند کیفیت خروجی را بهبود بخشد. چرا؟ ما واقعا نمی دانیم. فقط… انجام می دهد.
تنظیم دقیق
همه چیز به آموزش یک مدل هوش مصنوعی از ابتدا نیاز ندارد. می توانید 10 میلیون دلاری را که برای GPT-3 خرج شده است به عنوان هزینه آموزش یک هوش مصنوعی برای خواندن و نوشتن انگلیسی کامل در نظر بگیرید. اما اگر تنها کاری که می خواهید انجام دهید این است که یک هوش مصنوعی بسازید که بتواند مثلاً مقالات علمی خوبی بنویسد، نیازی نیست از صفر شروع کنید، وقتی هوش مصنوعی هایی که می توانند انگلیسی بخوانند در حال حاضر وجود داشته باشند: در عوض، می توانید آن هوش مصنوعی ها را به خوبی تنظیم کنید. دادههای خاصی که میخواهید از آنها بیاموزند، با کسری از هزینه، مهارتهای فوقالعاده خاص را به آنها آموزش دهید. اما انجام این کار خطری دارد: چنین تنظیم دقیقی ناگزیر به آموزش اولیه متکی است، که ممکن است تحت کنترل شما نبوده باشد.
هم ترازی
در یک سطح، «همسویی» هوش مصنوعی یک سوال ساده است: آیا ما واقعاً هوش مصنوعی را آموزش داده ایم تا آنچه را که می خواهیم انجام دهد؟ اگر ما هوش مصنوعی میخواهیم که بتواند پیشبینی کند که چه زندانیها احتمالاً دوباره مرتکب جرم میشوند، اما هوش مصنوعی از پروفایل نژادی به عنوان بخش اصلی تصمیماش استفاده میکند، ممکن است آن را بهعنوان «غیر همسو با خواستههایمان» توصیف کنیم.
گاهی اوقات هوش مصنوعی میتواند به دلیل دادههای آموزشی بد، که سوگیریها و نادرستیها را در خود جای میدهد، ناهمسو باشد. به عنوان مثال، اگر یک هوش مصنوعی برای شناسایی مجرمان مجدد بر اساس مجموعه داده ای از زندانیان آموزش ببیند، هرگز درباره کسانی که به زندان فرستاده نشده اند، آگاه نخواهد شد. اگر به زبان انگلیسی با مجموعه داده ای که شامل تمام توییتر است آموزش دیده باشد، ممکن است شروع به انتشار باورهای عجیب و غریب در مورد پیوند بین واکسن های بیل گیتس، 5G و کووید کند.
مواقع دیگر، هوش مصنوعی میتواند ناهمسو باشد، زیرا ما سؤال اشتباهی از آن پرسیدهایم. یک LLM برای پیش بینی متن بعدی طراحی شده است، اما گاهی اوقات اینطور نیست واقعا آنچه میخواهیم: گاهی اوقات ترجیح میدهیم پاسخهای «درست» به جای پاسخهای «محتمل» داشته باشیم. گاهی اوقات ترجیح میدهیم پاسخهایی داشته باشیم که توهینهای نژادی را تکرار نکنند، کاربر را تهدید نکنند، یا دستورالعملهایی برای ساخت بمب ارائه نکنند. اما این سوالی نیست که ما از هوش مصنوعی پرسیدیم.
و گاهی هم تراز به معنای وجودی تر به کار می رود. فرض کنید از یک هوش مصنوعی میخواهید که کف کارخانه شما را برای به حداکثر رساندن تولید ساعتی بهینه کند، و تصمیم میگیرد که مهمترین کاری که باید انجام دهد این است که اطمینان حاصل شود که هیچکس تولید را برای میلیاردها سال آینده قطع نمیکند، بنابراین در برنامههای خود فناوریای را پنهان میکند که هر گونه حیات ارگانیک را از بین میبرد. در این سیاره – این نیز یک هوش مصنوعی غیر همسو خواهد بود.
TechScape گسترده تر

آیا از رونوشت مکالمات با bing و ChatGPT می ترسید؟ در نظر بگیرید که آیا ممکن است در آزمون آینه هوش مصنوعی مردود شوید یا خیر.
مجلات علمی تخیلی اولین تجارتی هستند که واقعاً شروع به مبارزه با هجوم آینده نثرهای تولید شده کردند.
سادهسازی فناوری مصرفکننده باعث شده است که جوانترین کارگران متوجه شوند که ممکن است آنطور که همکاران جدیدشان تصور میکردند، از فناوری آگاه نباشند.
طرفدار بزرگ این بافتنی های نفرین شده ایجاد شده توسط ChatGPT.
این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.