به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،
قبل از اینکه خیلی دیر شود باید کاری در مورد هوش مصنوعی انجام دهیم.
احتمالاً در سالهای قبل، دهها بار تغییراتی از آن جمله شنیدهاید ChatGPT. احتمالاً در این ماه ها صد بار شنیده اید از آنجا که ChatGPT.
باید کاری در مورد هوش مصنوعی انجام شود یا چیز دیگر. اگر توسعه هوش مصنوعی با سرعت فعلی خود ادامه یابد، نگرانی وجود دارد، فاجعه ای در پی خواهد داشت. انقلاب هوش مصنوعی چه سونامی اطلاعات نادرست باشد، چه میلیونها شغل از دست رفته یا خود آخرالزمان، خطرات عظیمی به همراه دارد.
در ماه مارس، نامه ای سرگشاده از همه آزمایشگاه ها خواست تا توسعه هوش مصنوعی را به مدت شش ماه متوقف کنند و در این مدت دولت می تواند روی مقررات معقول کار کند. امضای الون ماسک، استیو وزنیاک، یکی از بنیانگذاران اپل، و در میان دیگر افراد برجسته فناوری و دانشگاهی، یووال نوح هراری، نویسنده کتاب Sapiens بود.
هراری ماه گذشته نوشت: «طی چند سال گذشته، ابزارهای هوش مصنوعی جدیدی ظهور کرده اند که بقای تمدن بشری را تهدید می کند. هوش مصنوعی توانایی های قابل توجهی برای دستکاری و تولید زبان به دست آورده است… هوش مصنوعی بدین وسیله سیستم عامل تمدن ما را هک کرده است.
چند کلمه هشدار دهنده از مردی که به معنای واقعی کلمه کتاب را در مورد نژاد بشر نوشت.
این نامه سرگشاده استدلال می کند که اکنون زمان نصب نرده های محافظ است زیرا هوش مصنوعی به زودی برای محدود کردن آن بسیار هوشمند خواهد بود. یا به قول ماسک، اگر ما “فقط پس از وقوع یک اتفاق وحشتناک، مقرراتی را وضع کنیم، ممکن است برای وضع قوانین خیلی دیر باشد. ممکن است هوش مصنوعی در آن نقطه کنترل داشته باشد.”
اما دلیل دیگری وجود دارد که چرا قانونگذاران اکنون باید از هوش مصنوعی استفاده کنند. تاریخ به ما می گوید که زمان محدودی وجود دارد از نظر سیاسی امکان تنظیم هوش مصنوعی
مشکل مثل همیشه جنگ فرهنگی است. روشی که در آن بسیاری از موضوعات مهم توسط سیاستمداران و جنایتکاران آنلاین به اشتراک گذاشته میشوند و به جهنمی تبدیل میشوند که به سلاح قبیلهگرایی تمایل دارند که هر روز در پلتفرمهای رسانههای اجتماعی مانند توییتر قابل مشاهده است. اگر هوش مصنوعی بخشی از جنگ فرهنگی شود، دستیابی به مقررات متفکرانه و گسترده بسیار دشوارتر خواهد بود.
ممکن است روند سیاسی شدن از قبل آغاز شده باشد. آن نقل قول ماسک در بالا؟ او آن را در حین حضور در برنامه تاکر کارلسون ارائه کرد، زمانی که کارلسون هنوز برنامه داشت. مجری سابق فاکس یکی از بخش های ماسک را اینگونه معرفی کرد:
در بلندمدت، هوش مصنوعی ممکن است خودمختار شود و جهان را تسخیر کند. اما در کوتاه مدت، سیاستمداران از آن برای کنترل افکار شما، پایان دادن به قضاوت مستقل و پایان دادن به دموکراسی در آستانه انتخابات ریاست جمهوری استفاده می کنند.
ایلان ماسک یکی از بسیاری از افراد برجسته فناوری است که درخواست توقف توسعه هوش مصنوعی به مدت ۶ ماه را دارد.
بلومبرگ/گتی
پیشینه های بد
گسترش کنترل نشده هوش مصنوعی می تواند مقدمه فاجعه باشد. اما اگر قانونگذاران ایالات متحده در مورد چیزی مهارت خود را ثابت کرده اند، آن فاجعه برای منافع سیاسی است. این اغلب از طریق ایجاد ترس انجام می شود. نشان دادن هوش مصنوعی به عنوان نقشه ای برای پایان دادن به دموکراسی، همانطور که کارلسون انجام داد، یکی از راه هایی است که می تواند این اتفاق بیفتد. هنگامی که نقاط گفتگوی خون جوش ابداع شد، آرام شدن خلق و خوی دشوار است.
برای دیدن مصادیق جناح گرایی بیمارگونه، لازم نیست دور را نگاه کنید. همانطور که من این کلمات را می نویسم، کنگره بر سر افزایش سقف بدهی جوجه بازی می کند. رهبران جمهوری خواه از دادن مجوز به دولت برای استقراض پول برای پرداخت قبوض خودداری می کنند، مگر اینکه کاخ سفید با کاهش مشوق های انرژی سبز، لغو طرح بخشش وام دانشجویی بایدن و کاهش هزینه های تامین اجتماعی موافقت کند.
این نمونه ای از سیاست است که فرآیندی ساده را خراب می کند. افزایش سقف بدهی ها معمولا یک رسم اداری است، اما در دهه های اخیر به یک فوتبال سیاسی تبدیل شده است. اما خطرات واقعی وجود دارد: اگر هیچ یک از طرفین پلک نزنند و سقف بالا نرود، میلیونها نفر دسترسی به مدیکر را از دست بدهند، ارتش پولی دریافت نکند و بازارهای جهانی به دلیل عدم پرداخت تعهدات بدهی ایالات متحده مختل شود.
باز هم، این باید آسان باشد – بسیار ساده تر از تنظیم هوش مصنوعی. اما نشان می دهد که چگونه حتی واضح ترین اهداف را می توان توسط سیاست فاسد کرد.
تغییرات اقلیمی، و مقاومت مداوم دولتهای سراسر جهان برای مقابله مناسب با آن، شاید بهترین نمونه از اقدامات متوقفکننده جنگ فرهنگی باشد. سازش زمانی دشوار می شود که یک طرف بگوید تغییرات آب و هوایی آخرالزمانی است در حالی که طرف دیگر معتقد است که این تغییرات بیش از حد است یا واقعی نیست. یک شکاف مشابه تنظیم هوش مصنوعی را غیرممکن یا در بهترین حالت کند می کند. خیلی کند.
حتی در مورد مسائلی که اجماع دو حزبی وجود دارد چیزی باید انجام شود، دموکراتها و جمهوریخواهان اغلب در جهتهای متضاد رقابت میکنند. عملاً همه موافق هستند که Big Tech باید تنظیم شود. دموکراتها از اینکه شرکتهای فناوری بسیار سودآور به اندازه کافی از دادهها محافظت نمیکنند و رقبای کوچکتر را مورد آزار و اذیت قرار میدهند، ناراحت هستند. جمهوری خواهان بر سر سانسور فریاد می زنند و مدعی هستند که نخبگان سیلیکون ولی آزادی بیان را از بین می برند. هیچ لایحه مهمی برای سرکوب فناوری بزرگ تصویب نشده است.
در صورتی که طرفین، علیرغم موافقت با آن، مقررات مربوط به هوش مصنوعی را دچار مشکل کند چیزی باید انجام شود، راه حل های مختلف تجویز شود.
اولین پاسخ برای مقررات هوش مصنوعی
تدوین مقررات جامع برای مقابله با اثرات خارجی احتمالی هوش مصنوعی سالها طول خواهد کشید. اما برخی از قوانین سریع و آسان وجود دارد که می تواند و باید در حال حاضر اعمال شود. نزدیک به 28000 نفری که نامه سرگشاده مورد حمایت ماسک را امضا کردند، خواستار این درخواست شدند.
اول، مقررات باید شفافیت بیشتری را از سوی توسعه دهندگان هوش مصنوعی اعمال کند. این به معنای شفافیت در مورد زمانی است که از هوش مصنوعی استفاده می شود، به عنوان مثال در مورد شرکت هایی که از الگوریتم های هوش مصنوعی برای مرتب سازی برنامه های شغلی یا اجاره ای استفاده می کنند. کالیفرنیا در حال حل مشکل قبلی است، با لایحه ای که به دنبال آن است که شرکت ها را ملزم کند در صورت استفاده از الگوریتم های مبتنی بر هوش مصنوعی برای تصمیم گیری از طرف یک شرکت، مردم را مطلع کنند.
ما همچنین به شرکتهایی مانند OpenAI که پشت ChatGPT است نیاز داریم تا دادههایی را که رباتهای چت در آن آموزش میدهند در اختیار محققان قرار دهند. ادعاهای حق چاپ احتمالاً در عصر هوش مصنوعی فراوان است (چگونه به نشریات خبری برای داستان ها پرداخت کنیم؟ رباتهای چت مانند GPT پاسخهای خود را بر اساس یا عکسهایی که تولیدکنندگان هنر هوش مصنوعی بهعنوان ورودی استفاده میکنند، قرار میدهند. شفافیت بیشتر در مورد داده هایی که سیستم های هوش مصنوعی آموزش دیده اند به منسجم شدن این اختلافات کمک می کند.
شاید مهمتر از همه، هوش مصنوعی باید اعلام کند که هوش مصنوعی است.
یکی از نگرانی های بزرگ در مورد هوش مصنوعی توانایی آن در قانع کننده و متقاعد کننده به نظر می رسد. ویژگی های خطرناک در دستان نادرست. قبل از انتخابات 2016، روسیه از حسابهای جعلی رسانههای اجتماعی در تلاش برای ایجاد اختلاف در مورد موضوعات بحثانگیز مانند مهاجرت و تنشهای نژادی استفاده میکرد. اگر از هوش مصنوعی پیشرفته استفاده شود، چنین تلاشهایی برای برانگیختن خروارها مؤثرتر و تشخیص آن دشوارتر خواهد بود.
همانطور که اینستاگرام اینفلوئنسرها را مجبور میکند وقتی برای یک پست پول دریافت میکنند، #تبلیغ کنند، فیسبوک و توییتر نیز باید خود را هوش مصنوعی اعلام کنند. ویدیوهای دیپ فیک باید به گونه ای برچسب گذاری شوند که محصولات هوش مصنوعی قابل تشخیص باشند.
ایوت کلارک، یک نماینده دموکرات کنگره از نیویورک، در لایحهای که اوایل ماه جاری ارائه شد، چنین اقداماتی را پیشنهاد کرد. اما این در واکنش به انتشار یک تبلیغ ضد جو بایدن توسط کمیته ملی جمهوری خواه بود که با تصاویر هوش مصنوعی ایجاد شده بود و با نزدیک شدن به انتخابات سال 2024، خطرات هوش مصنوعی بیشتری پیش بینی می شد.
هوش مصنوعی هنوز در جنگ فرهنگی مانند تغییرات آب و هوایی یا حتی شرکت های بزرگ فناوری نیست. اما تا کی چنین خواهد بود؟
یادداشت ویراستاران: CNET از یک موتور هوش مصنوعی برای ایجاد برخی توضیحدهندههای مالی شخصی استفاده میکند که توسط ویراستاران ما ویرایش و بررسی میشوند. برای اطلاعات بیشتر، این پست را ببینید.
این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.