به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،
ذره ذره، متن تولید شده توسط هوش مصنوعی در حال ورود به جریان اصلی است. این هفته اخباری را به ارمغان آورد که سایت فناوری مصرف کننده محترم CNET، جایی که من از سال 2012 تا 2013 کار می کردم، از “فناوری اتوماسیون” برای انتشار حداقل 73 توضیح دهنده در مورد موضوعات مالی از نوامبر استفاده کرده است. در حالی که این سایت از پاسخ دادن به هر سوالی خودداری کرده است، به سختی اولین سازمان خبری است که جایگزینی نیروی انسانی با روبات ها را بررسی می کند: آسوشیتدپرس از سال 2014 داستان های خودکار منتشر می کند.
این هفته نیویورک تایمز«Cade Metz Character AI»، وبسایتی که به شما امکان میدهد با رباتهای گفتگو که افراد واقعی و شخصیتهای خیالی بیشماری را تقلید میکنند، تعامل داشته باشید. این سایت تابستان گذشته راه اندازی شد و در حال حاضر به شدت به کاربردهای سرگرمی متکی است – ارائه چرخ فلک هایی از مکالمات با ستاره های انیمیشن، شخصیت های بازی های ویدیویی و دنیای My Little Pony. اما نکاتی درباره تجارت جدیتر وجود دارد، با روباتهایی که به شما زبانهای جدید آموزش میدهند، در پروژههای نوشتن خلاقانه به شما کمک میکنند و تاریخ را به شما یاد میدهند.
همه این پروژه ها بر تعلیق کفر تکیه دارند. وقتی مقالهای مانند «Zelle چیست و چگونه کار میکند؟» را میخوانید، متن هیچ مدرک واضحی مبنی بر ایجاد آن با استفاده از متن پیشبینی ارائه نمیدهد. (نسخه ریز زیر خط ضمیمه CNET Money فقط می گوید که “این مقاله توسط یک موتور هوش مصنوعی کمک شده است و توسط کادر تحریریه ما بررسی، بررسی و ویرایش شده است”؛ خط جانبی سردبیر نیز ظاهر می شود.) و در این مورد، احتمالاً آن مهم نیست: این مقاله نه به دلایل سردبیری سنتی، بلکه به این دلیل ایجاد شده است که یک جستجوی محبوب گوگل را برآورده می کند. CNET تبلیغات را در صفحه ای که با سکه تولید می کند می فروشد و تفاوت را به جیب می زند.
چه می شود اگر آن را انجام داد با این حال، انگیزه های پنهانی دارید؟
با گذشت زمان، باید انتظار داشته باشیم که وبسایتهای مصرفکننده بیشتری از این نوع مواد «خاکستری» استفاده کنند: نوشتن هوش مصنوعی به اندازه کافی خوب، که به آرامی (اما نه همیشه) توسط ویراستاران انسانی بررسی میشود، به همان اندازه که خوانندگان آن را تحمل میکنند، انتشارات دیجیتالی را در اختیار خواهند گرفت. گاهی اوقات نویسنده واقعی فاش می شود. مواقع دیگر پنهان خواهد شد.
گسترش آرام درختان انگور کودزو هوش مصنوعی در سراسر CNET پیشرفتی تلخ برای روزنامهنگاری است، زیرا بیشتر کارهایی که زمانی برای نویسندگان سطح ابتدایی که رزومهشان را میسازند محفوظ میشد، به سرعت از بین میرود. با این حال، محتوا اساساً خوشخیم است: به سؤالات خواننده به طور دقیق و کارآمد پاسخ میدهد، بدون هیچ انگیزه پنهانی فراتر از ارائه چند پیوند وابسته.
چه می شود اگر آن را انجام داد با این حال، انگیزه های پنهانی دارید؟ این سؤالی است که در قلب مقاله جدید و جذابی است که این هفته خواندم، که تجزیه و تحلیل جامعی را ارائه می دهد که چگونه متن تولید شده توسط هوش مصنوعی می تواند و تقریباً مطمئناً برای گسترش تبلیغات و سایر عملیات های تأثیرگذاری استفاده می شود – و ایده های متفکرانه ای در مورد دولت ها ارائه می دهد. ، توسعه دهندگان هوش مصنوعی و پلتفرم های فناوری ممکن است در این مورد انجام دهند.
این مقاله «مدلهای زبان مولد و عملیات نفوذ خودکار: تهدیدات نوظهور و کاهشهای بالقوه» است و با همکاری مرکز امنیت و فناوریهای نوظهور دانشگاه جورج تاون و رصدخانه اینترنت استانفورد و هوش مصنوعی نوشته شده است.
ظهور شبکه های اجتماعی در مقیاس جهانی در طول دهه گذشته به بازیگران دولتی یک بوم غنی جدید ارائه داد که بر اساس آن می توانستند افکار عمومی را شکل دهند. معروفتر از همه، روسیه از ارتش ترولهای خود برای ایجاد هزاران آمریکایی تقلبی در فیسبوک، اینستاگرام و سایر پلتفرمها و قرار دادن آنها در مقابل پلتفرمهای واقعی استفاده کرد تا انتخابات 2016 را به سمت دونالد ترامپ سوق دهد. یک بحث واقعی در مورد اینکه این کمپین – و به طور کلی بر عملیات ها تأثیر می گذارد – واقعاً چقدر مؤثر است وجود دارد. اما برای سالها، من این داستان را دنبال میکنم که چگونه فناوری این نوع حملات را تقویت میکند.
این مقاله نشان می دهد که هوش مصنوعی این پتانسیل را دارد که این حملات را بسیار مؤثرتر کند – تا حدی با نامرئی کردن آنها. در اینجا جاش آ. گلدشتاین، گیریش ساستری، میکا موسر، رنه دی رستا، متیو جنتزل و کاترینا سدووا هستند:
پتانسیل مدلهای زبان برای رقابت با محتوای نوشتهشده توسط انسان با هزینه کم نشان میدهد که این مدلها – مانند هر فناوری قدرتمندی – ممکن است مزایای مشخصی را برای تبلیغکنندگانی که استفاده از آنها را انتخاب میکنند، ارائه دهند. این مزایا میتواند دسترسی به تعداد بیشتری از بازیگران را افزایش دهد، تاکتیکهای جدید نفوذ را امکانپذیر کند، و پیامهای یک کمپین را بسیار مناسبتر و بالقوه مؤثرتر کند.
عملیات نفوذ می تواند اشکال مختلفی داشته باشد. اکثر این عملیات توسط دولت ها بر روی شهروندان خود انجام می شود. آنها معمولاً به دنبال منحرف کردن انتقادها و نشان دادن دیدگاه مثبت به حزب حاکم هستند. آنها همچنین میتوانند از سیاستها یا مخالفتهایشان دفاع کنند، یا تلاش کنند نظرشان را درباره متحدان یا رقبا تغییر دهند. در موارد دیگر، مانند روسیه، عملیات نفوذ به دنبال بی ثبات کردن دشمنان است.
و حتی در بهترین زمان ها، تشخیص آنها دشوار است. همانطور که نویسندگان خاطرنشان می کنند، “شناسایی این گزارش های غیر معتبر اغلب به نشانه های ظریف متکی است: یک اصطلاح استفاده نادرست، یک خطای گرامری مکرر، یا حتی استفاده از یک بک تیک (`) که در آن یک گوینده معتبر از آپستروف (‘) استفاده می کند.
این امر احتمالاً دشمنان بیشتری را جذب خواهد کرد تا از هوش مصنوعی برای اعمال نفوذ بر عملیات استفاده کنند
انتظار میرود در ماهها و سالهای آینده، ابزارهایی مانند ChatGPT OpenAI به طور گستردهتری در دسترس باشند، وظایف خود را بهتر انجام دهند و استفاده از آن ارزانتر شوند. نویسندگان مقاله می گویند که احتمالاً دشمنان بیشتری را جذب می کند تا از هوش مصنوعی برای اعمال نفوذ استفاده کنند، که از بازیگران سطح دولتی شروع می شود، اما به زودی به افراد ثروتمند و در نهایت شهروندان متوسط می رسد.
آنها به دنبال چه نوع حملات هوش مصنوعی هستند؟ در اینجا برخی از پیشنهادات نویسندگان آورده شده است:
- کمپینهای خودکار «فیشینگ نیزهای»، شخصیسازی شده با هوش مصنوعی، طراحی شدهاند تا شما را وادار به افشای اطلاعات محرمانه کنند.
- دیپ فیک برای حمله به شهرت شما.
- استقرار ربات ها در شبکه های اجتماعی برای ایجاد موضوعات شخصی و اعمال فشار اجتماعی.
- استفاده از هوش مصنوعی برای ایجاد ادعاهای نادرست و گمراهکننده، و اصلاح هوش مصنوعی برای موثرتر شدن در طول زمان بر اساس آن دروغها بیشترین تعامل را در پلتفرمهای اجتماعی ایجاد میکنند.
بدترین سناریو ممکن است چیزی شبیه به آن چیزی باشد که محقق آویو اوادیا آنفوکالیپس نامیده است: اینترنتی که در آن رسانه های مصنوعی همه جا، اعتماد جامعه را نزدیک به صفر می کند، زیرا هیچ کس هرگز مطمئن نیست که چه کسی آنچه را که به آن نگاه می کند یا چرا ایجاد کرده است.
پس در مورد آن چه باید کرد؟ نویسندگان می گویند چهار مکان وجود دارد که احزاب مختلف می توانند در آن دخالت کنند.
ما می توانیم نحوه طراحی مدل های هوش مصنوعی را تنظیم کنیم و چه کسی به سخت افزار لازم برای ساخت آنها دسترسی دارد. ما می توانیم تنظیم کنیم که چه کسی به مدل ها دسترسی پیدا می کند. پلتفرمها میتوانند ابزارهایی را برای شناسایی عملیات تأثیرگذاری هوش مصنوعی و جلوگیری از گسترش آنها ایجاد کنند. و صنعت، جامعه مدنی و روزنامهنگاران میتوانند سواد رسانهای را ارتقا دهند و ابزارهای ضد هوش مصنوعی بسازند تا متن هوش مصنوعی را شناسایی کنند.
همه این راه حل ها با معاوضه های مهمی همراه هستند که نویسندگان به تفصیل آن را توضیح می دهند. این مقاله 71 صفحه دارد و برای کسانی که به هوش مصنوعی یا یکپارچگی پلتفرم علاقه دارند ارزش خواندن کامل را دارد.
یکی چون خیلی ساده و ضروری است. دیگری چون به نوعی ذهنم را منفجر کرد
اما من می خواهم دو راه حل پیشنهادی برای نسل بعدی عملیات نفوذ را برجسته کنم: یکی به این دلیل که بسیار ساده و ضروری است. دیگری چون به نوعی ذهنم را منفجر کرد.
با ساده شروع کنید. یک جنبه وجود دارد که در آن عملیات نفوذ 2022 مشابه سال 2016 به نظر می رسد: افراد بد هنوز به پلتفرم هایی برای انتشار پیام خود نیاز دارند. و پلتفرمها از آن زمان در شناسایی و حذف شبکههای نفوذ بسیار پیچیدهتر شدهاند.
با این حال، هوش مصنوعی برخی از سؤالات خط مشی جدید دشوار را برای پلتفرم های اجتماعی معرفی می کند. بعید است که آنها ارسال متن تولید شده توسط هوش مصنوعی را ممنوع کنند، زیرا کاربردهای معتبر و خلاقانه زیادی برای آن وجود دارد. اما نویسندگان مقاله خاطرنشان میکنند که سؤالات پیچیدهتری نیز وجود دارد: «آیا پستهایی که مشخص میشود توسط هوش مصنوعی نوشته شدهاند باید پرچمگذاری شوند؟ اگر پلتفرمها بدانند که سایتهای خارجی خاصی میزبان محتوای تولید شده توسط هوش مصنوعی – بهویژه محتوای سیاسی – بدون افشای آن هستند، ممکن است به خودی خود دلیل کافی برای مسدود کردن لینکها به آن سایتها باشد؟»
اگر من روی یکپارچگی پلتفرم کار میکردم، یک گروه کاری راهاندازی میکردم تا از هماکنون درباره این سؤالات صحبت کنم.
اما همانطور که نویسندگان خاطرنشان می کنند، شناسایی متنی که توسط یک هوش مصنوعی تولید شده است، اغلب دشوار یا حتی غیرممکن است. (به نظر می رسد این به ویژه در مورد متون کوتاه تر صادق است.) و بنابراین نویسندگان پیشنهاد می کنند که پلتفرم هایی مانند فیس بوک با توسعه دهندگان هوش مصنوعی مانند OpenAI همکاری کنند. تصور کنید که OpenAI تمام خروجیهای ChatGPT را برای مدتی ذخیره میکند و به فیسبوک اجازه میدهد تا محتوای مشکوک غیر معتبر را پرچمگذاری کند و آن را در پایگاه داده OpenAI بررسی کند.
نویسندگان می نویسند: “این نوع همکاری می تواند مزایای بعدی داشته باشد.” هنگامی که یک شرکت هوش مصنوعی مطمئن شد که یک کاربر در حال ارسال مجدد خروجیها به رسانههای اجتماعی است، میتواند با پلتفرمها کار کند تا مشخص کند که آیا محتوای دیگری که توسط آن کاربر تولید شده است به دیگر پلتفرمهای رسانههای اجتماعی ارسال شده است یا خیر، بهطور بالقوه سایر حسابهای غیراصولی هماهنگشده را که پلتفرمها در ابتدا ممکن است به دست آورند. فراموش شده.”
این برای من هوشمندانه به نظر می رسد – و امیدوارم چنین مکالماتی در حال حاضر انجام شده باشد.
نویسندگان می نویسند، اما ما به ابزارهای بیشتری نیاز خواهیم داشت تا بفهمیم متن کجا تولید شده است. و این ما را به اصطلاح مورد علاقه من در سال می رساند: «داده های رادیواکتیو».
در حوزه فرعی بینایی کامپیوتر، محققان متا نشان دادهاند که تصاویر تولید شده توسط مدلهای هوش مصنوعی را میتوان در صورتی که بر روی «دادههای رادیواکتیو» آموزش دیده باشند، بهعنوان تصاویری که بهطور نامحسوس تغییر دادهاند تا روند آموزش را کمی تغییر داده باشند، بهعنوان تولیدشده توسط هوش مصنوعی شناسایی کرد. . این تشخیص حتی زمانی که کمتر از 1 درصد از داده های آموزشی یک مدل رادیواکتیو است و حتی زمانی که خروجی های بصری مدل تقریباً شبیه به تصاویر معمولی به نظر می رسند، امکان پذیر است. ممکن است بتوان مدلهای زبانی ساخت که خروجیهای قابل تشخیص بیشتری را با آموزش مشابه آنها بر روی دادههای رادیواکتیو تولید کنند. با این حال، این امکان به طور گسترده مورد بررسی قرار نگرفته است، و این رویکرد ممکن است در نهایت کارساز نباشد.
هیچ کس مطمئن نیست که این دقیقا چگونه (یا اگر) کار کند. تغییر نامحسوس یک تصویر بسیار ساده تر از متن است. آنها می نویسند، اما ایده اصلی این خواهد بود که «از تکثیرکنندگان بخواهیم در ارسال مخفیانه حجم زیادی از محتوای آنلاین شرکت کنند»، به این امید که مدل هایی که بر روی آن آموزش دیده اند، متنی تولید کنند که بتوان آن را به پست های «رادیواکتیو» ردیابی کرد.
این طرح هستهای «نگرانیهای اخلاقی قوی را ایجاد میکند»
اگر تا به حال به این فکر میکنید که “این کار سخت است”، تنها نیستید. در میان چیزهای دیگر، نویسندگان خاطرنشان میکنند، این طرح هستهای وب «نگرانیهای اخلاقی قوی را در رابطه با اختیارات هر دولت یا شرکتی برای تغییر شکل عمدی اینترنت به این شدت ایجاد میکند». و حتی اگر کسی انجام داد آنها می نویسند: “معلوم نیست که آیا این بازآموزی منجر به خروجی های قابل تشخیص بیشتر و در نتیجه عملیات نفوذ قابل تشخیص می شود یا خیر.”
با این حال، زمان انجام این گفتگوها اکنون است. حتی اگر فکر میکنید که تهدید نهایی ناشی از اطلاعات نادرست برای جامعه در طول نیم دهه گذشته یا بیشتر، بیشازحد بیان شده است، هیچ تضمینی وجود ندارد که نسخه مجهز به هوش مصنوعی آن تهدیدی واقعی ایجاد نکند. امیدواریم که مجبور نباشیم وب را “رادیواکتیو” کنیم تا بتوانیم آن را ذخیره کنیم. اما همانطور که این مقاله روشن می کند، برخی اقدامات سنگین ممکن است به خوبی لازم باشد.
این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.