چگونه «داده‌های رادیواکتیو» می‌توانند به کشف هوش مصنوعی مخرب کمک کنند

به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،

ذره ذره، متن تولید شده توسط هوش مصنوعی در حال ورود به جریان اصلی است. این هفته اخباری را به ارمغان آورد که سایت فناوری مصرف کننده محترم CNET، جایی که من از سال 2012 تا 2013 کار می کردم، از “فناوری اتوماسیون” برای انتشار حداقل 73 توضیح دهنده در مورد موضوعات مالی از نوامبر استفاده کرده است. در حالی که این سایت از پاسخ دادن به هر سوالی خودداری کرده است، به سختی اولین سازمان خبری است که جایگزینی نیروی انسانی با روبات ها را بررسی می کند: آسوشیتدپرس از سال 2014 داستان های خودکار منتشر می کند.

این هفته نیویورک تایمز«Cade Metz Character AI»، وب‌سایتی که به شما امکان می‌دهد با ربات‌های گفتگو که افراد واقعی و شخصیت‌های خیالی بی‌شماری را تقلید می‌کنند، تعامل داشته باشید. این سایت تابستان گذشته راه اندازی شد و در حال حاضر به شدت به کاربردهای سرگرمی متکی است – ارائه چرخ فلک هایی از مکالمات با ستاره های انیمیشن، شخصیت های بازی های ویدیویی و دنیای My Little Pony. اما نکاتی درباره تجارت جدی‌تر وجود دارد، با روبات‌هایی که به شما زبان‌های جدید آموزش می‌دهند، در پروژه‌های نوشتن خلاقانه به شما کمک می‌کنند و تاریخ را به شما یاد می‌دهند.

همه این پروژه ها بر تعلیق کفر تکیه دارند. وقتی مقاله‌ای مانند «Zelle چیست و چگونه کار می‌کند؟» را می‌خوانید، متن هیچ مدرک واضحی مبنی بر ایجاد آن با استفاده از متن پیش‌بینی ارائه نمی‌دهد. (نسخه ریز زیر خط ضمیمه CNET Money فقط می گوید که “این مقاله توسط یک موتور هوش مصنوعی کمک شده است و توسط کادر تحریریه ما بررسی، بررسی و ویرایش شده است”؛ خط جانبی سردبیر نیز ظاهر می شود.) و در این مورد، احتمالاً آن مهم نیست: این مقاله نه به دلایل سردبیری سنتی، بلکه به این دلیل ایجاد شده است که یک جستجوی محبوب گوگل را برآورده می کند. CNET تبلیغات را در صفحه ای که با سکه تولید می کند می فروشد و تفاوت را به جیب می زند.

چه می شود اگر آن را انجام داد با این حال، انگیزه های پنهانی دارید؟

با گذشت زمان، باید انتظار داشته باشیم که وب‌سایت‌های مصرف‌کننده بیشتری از این نوع مواد «خاکستری» استفاده کنند: نوشتن هوش مصنوعی به اندازه کافی خوب، که به آرامی (اما نه همیشه) توسط ویراستاران انسانی بررسی می‌شود، به همان اندازه که خوانندگان آن را تحمل می‌کنند، انتشارات دیجیتالی را در اختیار خواهند گرفت. گاهی اوقات نویسنده واقعی فاش می شود. مواقع دیگر پنهان خواهد شد.

گسترش آرام درختان انگور کودزو هوش مصنوعی در سراسر CNET پیشرفتی تلخ برای روزنامه‌نگاری است، زیرا بیشتر کارهایی که زمانی برای نویسندگان سطح ابتدایی که رزومه‌شان را می‌سازند محفوظ می‌شد، به سرعت از بین می‌رود. با این حال، محتوا اساساً خوش‌خیم است: به سؤالات خواننده به طور دقیق و کارآمد پاسخ می‌دهد، بدون هیچ انگیزه پنهانی فراتر از ارائه چند پیوند وابسته.

چه می شود اگر آن را انجام داد با این حال، انگیزه های پنهانی دارید؟ این سؤالی است که در قلب مقاله جدید و جذابی است که این هفته خواندم، که تجزیه و تحلیل جامعی را ارائه می دهد که چگونه متن تولید شده توسط هوش مصنوعی می تواند و تقریباً مطمئناً برای گسترش تبلیغات و سایر عملیات های تأثیرگذاری استفاده می شود – و ایده های متفکرانه ای در مورد دولت ها ارائه می دهد. ، توسعه دهندگان هوش مصنوعی و پلتفرم های فناوری ممکن است در این مورد انجام دهند.

این مقاله «مدل‌های زبان مولد و عملیات نفوذ خودکار: تهدیدات نوظهور و کاهش‌های بالقوه» است و با همکاری مرکز امنیت و فناوری‌های نوظهور دانشگاه جورج تاون و رصدخانه اینترنت استانفورد و هوش مصنوعی نوشته شده است.

ظهور شبکه های اجتماعی در مقیاس جهانی در طول دهه گذشته به بازیگران دولتی یک بوم غنی جدید ارائه داد که بر اساس آن می توانستند افکار عمومی را شکل دهند. معروف‌تر از همه، روسیه از ارتش ترول‌های خود برای ایجاد هزاران آمریکایی تقلبی در فیس‌بوک، اینستاگرام و سایر پلت‌فرم‌ها و قرار دادن آن‌ها در مقابل پلتفرم‌های واقعی استفاده کرد تا انتخابات 2016 را به سمت دونالد ترامپ سوق دهد. یک بحث واقعی در مورد اینکه این کمپین – و به طور کلی بر عملیات ها تأثیر می گذارد – واقعاً چقدر مؤثر است وجود دارد. اما برای سال‌ها، من این داستان را دنبال می‌کنم که چگونه فناوری این نوع حملات را تقویت می‌کند.

این مقاله نشان می دهد که هوش مصنوعی این پتانسیل را دارد که این حملات را بسیار مؤثرتر کند – تا حدی با نامرئی کردن آنها. در اینجا جاش آ. گلدشتاین، گیریش ساستری، میکا موسر، رنه دی رستا، متیو جنتزل و کاترینا سدووا هستند:

پتانسیل مدل‌های زبان برای رقابت با محتوای نوشته‌شده توسط انسان با هزینه کم نشان می‌دهد که این مدل‌ها – مانند هر فناوری قدرتمندی – ممکن است مزایای مشخصی را برای تبلیغ‌کنندگانی که استفاده از آنها را انتخاب می‌کنند، ارائه دهند. این مزایا می‌تواند دسترسی به تعداد بیشتری از بازیگران را افزایش دهد، تاکتیک‌های جدید نفوذ را امکان‌پذیر کند، و پیام‌های یک کمپین را بسیار مناسب‌تر و بالقوه مؤثرتر کند.

عملیات نفوذ می تواند اشکال مختلفی داشته باشد. اکثر این عملیات توسط دولت ها بر روی شهروندان خود انجام می شود. آنها معمولاً به دنبال منحرف کردن انتقادها و نشان دادن دیدگاه مثبت به حزب حاکم هستند. آن‌ها همچنین می‌توانند از سیاست‌ها یا مخالفت‌هایشان دفاع کنند، یا تلاش کنند نظرشان را درباره متحدان یا رقبا تغییر دهند. در موارد دیگر، مانند روسیه، عملیات نفوذ به دنبال بی ثبات کردن دشمنان است.

و حتی در بهترین زمان ها، تشخیص آنها دشوار است. همانطور که نویسندگان خاطرنشان می کنند، “شناسایی این گزارش های غیر معتبر اغلب به نشانه های ظریف متکی است: یک اصطلاح استفاده نادرست، یک خطای گرامری مکرر، یا حتی استفاده از یک بک تیک (`) که در آن یک گوینده معتبر از آپستروف (‘) استفاده می کند.

این امر احتمالاً دشمنان بیشتری را جذب خواهد کرد تا از هوش مصنوعی برای اعمال نفوذ بر عملیات استفاده کنند

انتظار می‌رود در ماه‌ها و سال‌های آینده، ابزارهایی مانند ChatGPT OpenAI به طور گسترده‌تری در دسترس باشند، وظایف خود را بهتر انجام دهند و استفاده از آن ارزان‌تر شوند. نویسندگان مقاله می گویند که احتمالاً دشمنان بیشتری را جذب می کند تا از هوش مصنوعی برای اعمال نفوذ استفاده کنند، که از بازیگران سطح دولتی شروع می شود، اما به زودی به افراد ثروتمند و در نهایت شهروندان متوسط ​​می رسد.

آنها به دنبال چه نوع حملات هوش مصنوعی هستند؟ در اینجا برخی از پیشنهادات نویسندگان آورده شده است:

  • کمپین‌های خودکار «فیشینگ نیزه‌ای»، شخصی‌سازی شده با هوش مصنوعی، طراحی شده‌اند تا شما را وادار به افشای اطلاعات محرمانه کنند.
  • دیپ فیک برای حمله به شهرت شما.
  • استقرار ربات ها در شبکه های اجتماعی برای ایجاد موضوعات شخصی و اعمال فشار اجتماعی.
  • استفاده از هوش مصنوعی برای ایجاد ادعاهای نادرست و گمراه‌کننده، و اصلاح هوش مصنوعی برای موثرتر شدن در طول زمان بر اساس آن دروغ‌ها بیشترین تعامل را در پلتفرم‌های اجتماعی ایجاد می‌کنند.

بدترین سناریو ممکن است چیزی شبیه به آن چیزی باشد که محقق آویو اوادیا آنفوکالیپس نامیده است: اینترنتی که در آن رسانه های مصنوعی همه جا، اعتماد جامعه را نزدیک به صفر می کند، زیرا هیچ کس هرگز مطمئن نیست که چه کسی آنچه را که به آن نگاه می کند یا چرا ایجاد کرده است.

پس در مورد آن چه باید کرد؟ نویسندگان می گویند چهار مکان وجود دارد که احزاب مختلف می توانند در آن دخالت کنند.

ما می توانیم نحوه طراحی مدل های هوش مصنوعی را تنظیم کنیم و چه کسی به سخت افزار لازم برای ساخت آنها دسترسی دارد. ما می توانیم تنظیم کنیم که چه کسی به مدل ها دسترسی پیدا می کند. پلتفرم‌ها می‌توانند ابزارهایی را برای شناسایی عملیات تأثیرگذاری هوش مصنوعی و جلوگیری از گسترش آنها ایجاد کنند. و صنعت، جامعه مدنی و روزنامه‌نگاران می‌توانند سواد رسانه‌ای را ارتقا دهند و ابزارهای ضد هوش مصنوعی بسازند تا متن هوش مصنوعی را شناسایی کنند.

همه این راه حل ها با معاوضه های مهمی همراه هستند که نویسندگان به تفصیل آن را توضیح می دهند. این مقاله 71 صفحه دارد و برای کسانی که به هوش مصنوعی یا یکپارچگی پلتفرم علاقه دارند ارزش خواندن کامل را دارد.

یکی چون خیلی ساده و ضروری است. دیگری چون به نوعی ذهنم را منفجر کرد

اما من می خواهم دو راه حل پیشنهادی برای نسل بعدی عملیات نفوذ را برجسته کنم: یکی به این دلیل که بسیار ساده و ضروری است. دیگری چون به نوعی ذهنم را منفجر کرد.

با ساده شروع کنید. یک جنبه وجود دارد که در آن عملیات نفوذ 2022 مشابه سال 2016 به نظر می رسد: افراد بد هنوز به پلتفرم هایی برای انتشار پیام خود نیاز دارند. و پلتفرم‌ها از آن زمان در شناسایی و حذف شبکه‌های نفوذ بسیار پیچیده‌تر شده‌اند.

با این حال، هوش مصنوعی برخی از سؤالات خط مشی جدید دشوار را برای پلتفرم های اجتماعی معرفی می کند. بعید است که آنها ارسال متن تولید شده توسط هوش مصنوعی را ممنوع کنند، زیرا کاربردهای معتبر و خلاقانه زیادی برای آن وجود دارد. اما نویسندگان مقاله خاطرنشان می‌کنند که سؤالات پیچیده‌تری نیز وجود دارد: «آیا پست‌هایی که مشخص می‌شود توسط هوش مصنوعی نوشته شده‌اند باید پرچم‌گذاری شوند؟ اگر پلتفرم‌ها بدانند که سایت‌های خارجی خاصی میزبان محتوای تولید شده توسط هوش مصنوعی – به‌ویژه محتوای سیاسی – بدون افشای آن هستند، ممکن است به خودی خود دلیل کافی برای مسدود کردن لینک‌ها به آن سایت‌ها باشد؟»

اگر من روی یکپارچگی پلتفرم کار می‌کردم، یک گروه کاری راه‌اندازی می‌کردم تا از هم‌اکنون درباره این سؤالات صحبت کنم.

اما همانطور که نویسندگان خاطرنشان می کنند، شناسایی متنی که توسط یک هوش مصنوعی تولید شده است، اغلب دشوار یا حتی غیرممکن است. (به نظر می رسد این به ویژه در مورد متون کوتاه تر صادق است.) و بنابراین نویسندگان پیشنهاد می کنند که پلتفرم هایی مانند فیس بوک با توسعه دهندگان هوش مصنوعی مانند OpenAI همکاری کنند. تصور کنید که OpenAI تمام خروجی‌های ChatGPT را برای مدتی ذخیره می‌کند و به فیس‌بوک اجازه می‌دهد تا محتوای مشکوک غیر معتبر را پرچم‌گذاری کند و آن را در پایگاه داده OpenAI بررسی کند.

نویسندگان می نویسند: “این نوع همکاری می تواند مزایای بعدی داشته باشد.” هنگامی که یک شرکت هوش مصنوعی مطمئن شد که یک کاربر در حال ارسال مجدد خروجی‌ها به رسانه‌های اجتماعی است، می‌تواند با پلتفرم‌ها کار کند تا مشخص کند که آیا محتوای دیگری که توسط آن کاربر تولید شده است به دیگر پلت‌فرم‌های رسانه‌های اجتماعی ارسال شده است یا خیر، به‌طور بالقوه سایر حساب‌های غیراصولی هماهنگ‌شده را که پلتفرم‌ها در ابتدا ممکن است به دست آورند. فراموش شده.”

این برای من هوشمندانه به نظر می رسد – و امیدوارم چنین مکالماتی در حال حاضر انجام شده باشد.

نویسندگان می نویسند، اما ما به ابزارهای بیشتری نیاز خواهیم داشت تا بفهمیم متن کجا تولید شده است. و این ما را به اصطلاح مورد علاقه من در سال می رساند: «داده های رادیواکتیو».

در حوزه فرعی بینایی کامپیوتر، محققان متا نشان داده‌اند که تصاویر تولید شده توسط مدل‌های هوش مصنوعی را می‌توان در صورتی که بر روی «داده‌های رادیواکتیو» آموزش دیده باشند، به‌عنوان تصاویری که به‌طور نامحسوس تغییر داده‌اند تا روند آموزش را کمی تغییر داده باشند، به‌عنوان تولیدشده توسط هوش مصنوعی شناسایی کرد. . این تشخیص حتی زمانی که کمتر از 1 درصد از داده های آموزشی یک مدل رادیواکتیو است و حتی زمانی که خروجی های بصری مدل تقریباً شبیه به تصاویر معمولی به نظر می رسند، امکان پذیر است. ممکن است بتوان مدل‌های زبانی ساخت که خروجی‌های قابل تشخیص بیشتری را با آموزش مشابه آن‌ها بر روی داده‌های رادیواکتیو تولید کنند. با این حال، این امکان به طور گسترده مورد بررسی قرار نگرفته است، و این رویکرد ممکن است در نهایت کارساز نباشد.

هیچ کس مطمئن نیست که این دقیقا چگونه (یا اگر) کار کند. تغییر نامحسوس یک تصویر بسیار ساده تر از متن است. آنها می نویسند، اما ایده اصلی این خواهد بود که «از تکثیرکنندگان بخواهیم در ارسال مخفیانه حجم زیادی از محتوای آنلاین شرکت کنند»، به این امید که مدل هایی که بر روی آن آموزش دیده اند، متنی تولید کنند که بتوان آن را به پست های «رادیواکتیو» ردیابی کرد.

این طرح هسته‌ای «نگرانی‌های اخلاقی قوی را ایجاد می‌کند»

اگر تا به حال به این فکر می‌کنید که “این کار سخت است”، تنها نیستید. در میان چیزهای دیگر، نویسندگان خاطرنشان می‌کنند، این طرح هسته‌ای وب «نگرانی‌های اخلاقی قوی را در رابطه با اختیارات هر دولت یا شرکتی برای تغییر شکل عمدی اینترنت به این شدت ایجاد می‌کند». و حتی اگر کسی انجام داد آنها می نویسند: “معلوم نیست که آیا این بازآموزی منجر به خروجی های قابل تشخیص بیشتر و در نتیجه عملیات نفوذ قابل تشخیص می شود یا خیر.”

با این حال، زمان انجام این گفتگوها اکنون است. حتی اگر فکر می‌کنید که تهدید نهایی ناشی از اطلاعات نادرست برای جامعه در طول نیم دهه گذشته یا بیشتر، بیش‌ازحد بیان شده است، هیچ تضمینی وجود ندارد که نسخه مجهز به هوش مصنوعی آن تهدیدی واقعی ایجاد نکند. امیدواریم که مجبور نباشیم وب را “رادیواکتیو” کنیم تا بتوانیم آن را ذخیره کنیم. اما همانطور که این مقاله روشن می کند، برخی اقدامات سنگین ممکن است به خوبی لازم باشد.

این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.

منبع

درباره ی asrf_admin

مطلب پیشنهادی

اخراج دیزنی 7000 شغل را کاهش می دهد

به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ، دیزنی روز چهارشنبه اعلام کرد …