مشکلات نظارتی OpenAI تازه شروع شده است

به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،

OpenAI موفق شد مقامات داده ایتالیایی را راضی کند و ممنوعیت مؤثر ChatGPT را در هفته گذشته لغو کند، اما مبارزه آن با تنظیم‌کننده‌های اروپایی هنوز به پایان نرسیده است.

در اوایل سال جاری، چت ربات محبوب و بحث برانگیز ChatGPT OpenAI با یک مشکل قانونی بزرگ روبرو شد: ممنوعیت مؤثر در ایتالیا. سازمان حفاظت از داده های ایتالیا (GPDP) OpenAI را به نقض قوانین حفاظت از داده اتحادیه اروپا متهم کرد و این شرکت موافقت کرد که دسترسی به این سرویس در ایتالیا را در حالی که تلاش می کرد مشکل را برطرف کند، محدود کند. در 28 آوریل، ChatGPT به کشور بازگشت، با OpenAI به آرامی به نگرانی های GPDP بدون ایجاد تغییرات عمده در سرویس خود پرداخت – یک پیروزی آشکار.

GPDP گفته است که از تغییرات ChatGPT استقبال می کند. با این حال، مسائل حقوقی شرکت – و مشکلات شرکت‌هایی که چت‌بات‌های مشابه را می‌سازند – احتمالاً تازه شروع شده‌اند. تنظیم‌کننده‌ها در چندین کشور در حال بررسی نحوه جمع‌آوری و تولید اطلاعات این ابزارهای هوش مصنوعی هستند و به مجموعه‌ای از نگرانی‌ها از جمع‌آوری داده‌های آموزشی بدون مجوز شرکت‌ها تا تمایل چت‌بات‌ها به انتشار اطلاعات نادرست اشاره می‌کنند. در اتحادیه اروپا، آنها از مقررات حفاظت از داده های عمومی (GDPR) استفاده می کنند، که یکی از قوی ترین چارچوب های حقوقی حریم خصوصی در جهان است، که اثرات آن احتمالاً به خارج از اروپا خواهد رسید. در همین حال، قانونگذاران در بلوک در حال تدوین قانونی هستند که به طور خاص به هوش مصنوعی می پردازد – احتمالاً دوره جدیدی از مقررات را برای سیستم هایی مانند ChatGPT آغاز می کند.

مشکلات مختلف ChatGPT با اطلاعات نادرست، حق چاپ و حفاظت از داده ها، هدفی را در پشت آن قرار داده است

ChatGPT یکی از محبوب‌ترین نمونه‌های هوش مصنوعی مولد است – اصطلاحی فراگیر که ابزارهایی را پوشش می‌دهد که متن، تصویر، ویدیو و صدا را بر اساس درخواست‌های کاربر تولید می‌کنند. طبق گزارش ها، این سرویس پس از رسیدن به 100 میلیون کاربر فعال ماهانه تنها دو ماه پس از راه اندازی در نوامبر 2022، به یکی از سریع ترین برنامه های کاربردی مصرف کننده در تاریخ تبدیل شد (OpenAI هرگز این ارقام را تایید نکرده است). مردم از آن برای ترجمه متن به زبان های مختلف، نوشتن مقالات دانشگاهی و تولید کد استفاده می کنند. اما منتقدان – از جمله تنظیم‌کننده‌ها – خروجی غیرقابل اعتماد ChatGPT، مسائل گیج‌کننده حق چاپ و شیوه‌های مبهم حفاظت از داده‌ها را برجسته کرده‌اند.

ایتالیا اولین کشوری بود که دست به اقدام زد. در 31 مارس، چهار راه را برجسته کرد که معتقد بود OpenAI GDPR را زیر پا می گذارد: اجازه دادن به ChatGPT برای ارائه اطلاعات نادرست یا گمراه کننده، عدم اطلاع کاربران از شیوه های جمع آوری داده، عدم رعایت هر یک از شش توجیه قانونی ممکن برای پردازش داده های شخصی، و عدم موفقیت کافی در جلوگیری از استفاده کودکان زیر 13 سال از این سرویس. به OpenAI دستور داد فوراً استفاده از اطلاعات شخصی جمع آوری شده از شهروندان ایتالیایی را در داده های آموزشی خود برای ChatGPT متوقف کند.

هیچ کشور دیگری چنین اقدامی انجام نداده است. اما از ماه مارس، حداقل سه کشور اتحادیه اروپا – آلمان، فرانسه و اسپانیا – تحقیقات خود را در مورد ChatGPT آغاز کرده‌اند. در همین حال، در سراسر اقیانوس اطلس، کانادا در حال ارزیابی نگرانی های مربوط به حریم خصوصی تحت قانون حفاظت از اطلاعات شخصی و اسناد الکترونیکی خود یا PIPEDA است. هیئت حفاظت از داده های اروپا (EDPB) حتی یک کارگروه اختصاصی برای کمک به هماهنگی تحقیقات ایجاد کرده است. و اگر این آژانس‌ها تغییراتی را از OpenAI درخواست کنند، می‌توانند بر نحوه اجرای سرویس برای کاربران در سراسر جهان تأثیر بگذارند.

نگرانی های تنظیم کننده ها را می توان به طور کلی به دو دسته تقسیم کرد: داده های آموزشی ChatGPT از کجا می آید و چگونه OpenAI اطلاعات را به کاربران خود ارائه می دهد.

ChatGPT از مدل های زبان بزرگ GPT-3.5 و GPT-4 OpenAI (LLM) استفاده می کند، که بر روی مقادیر زیادی متن تولید شده توسط انسان آموزش دیده اند. OpenAI دقیقاً در مورد متن آموزشی مورد استفاده قرار می‌گیرد، اما می‌گوید از «انواع منابع داده‌ای دارای مجوز، ایجاد شده و در دسترس عموم، که ممکن است شامل اطلاعات شخصی در دسترس عموم باشد، استفاده می‌کند».

این به طور بالقوه مشکلات بزرگی را تحت GDPR ایجاد می کند. این قانون در سال 2018 تصویب شد و هر سرویسی را که داده‌های شهروندان اتحادیه اروپا را جمع‌آوری یا پردازش می‌کند – مهم نیست که سازمان مسئول در کجا مستقر است، پوشش می‌دهد. قوانین GDPR شرکت‌ها را ملزم می‌کند قبل از جمع‌آوری داده‌های شخصی، رضایت صریح داشته باشند، چرایی جمع‌آوری آن‌ها را توجیه قانونی داشته باشند، و در مورد نحوه استفاده و ذخیره‌سازی آن شفاف باشند.

تنظیم‌کننده‌های اروپایی ادعا می‌کنند که محرمانه بودن اطلاعات آموزشی OpenAI به این معنی است که هیچ راهی برای تأیید اینکه آیا اطلاعات شخصی وارد شده در آن ابتدا با رضایت کاربر ارائه شده است وجود ندارد، و GPDP به طور خاص استدلال می‌کند که OpenAI در وهله اول «هیچ مبنای قانونی» برای جمع‌آوری آن ندارد. . OpenAI و دیگران تاکنون با بررسی های کمی کنار رفته اند، اما این ادعا علامت سوال بزرگی را به تلاش های آتی خراش دادن داده ها اضافه می کند.

سپس «حق فراموش شدن» GDPR وجود دارد که به کاربران اجازه می‌دهد از شرکت‌ها بخواهند اطلاعات شخصی‌شان را تصحیح کرده یا به‌طور کامل حذف کنند. OpenAI پیشگیرانه خط مشی حفظ حریم خصوصی خود را برای تسهیل این درخواست ها به روز کرد، اما بحث هایی در مورد اینکه آیا از نظر فنی امکان رسیدگی به آنها وجود دارد، با توجه به اینکه چقدر می تواند پیچیده باشد، وجود دارد. داده های خاص را جدا کنید زمانی که به این مدل های زبانی بزرگ تبدیل شود.

OpenAI همچنین اطلاعات را مستقیماً از کاربران جمع آوری می کند. مانند هر پلتفرم اینترنتی، طیف وسیعی از داده های استاندارد کاربر (مانند نام، اطلاعات تماس، جزئیات کارت و غیره) را جمع آوری می کند. اما مهمتر از آن، تعاملات کاربران با ChatGPT را ثبت می کند. همانطور که در پرسش‌های متداول بیان شد، این داده‌ها می‌توانند توسط کارمندان OpenAI بررسی شوند و برای آموزش نسخه‌های آینده مدل آن استفاده شوند. با توجه به سوالات صمیمی که مردم از ChatGPT می پرسند – با استفاده از ربات به عنوان یک درمانگر یا یک پزشک – این بدان معنی است که شرکت در حال جمع آوری انواع داده های حساس است.

حداقل برخی از این داده‌ها ممکن است از خردسالان جمع‌آوری شده باشد، زیرا سیاست OpenAI بیان می‌کند که «اطلاعات شخصی کودکان زیر 13 سال را آگاهانه جمع‌آوری نمی‌کند»، هیچ دروازه دقیق تأیید سنی وجود ندارد. این با قوانین اتحادیه اروپا که جمع‌آوری داده‌ها از افراد زیر 13 سال را ممنوع می‌کند و (در برخی کشورها) برای افراد زیر 16 سال به رضایت والدین نیاز دارد، مطابقت ندارد. پاسخ‌های کاملاً نامناسب با توجه به درجه رشد و خودآگاهی آنها.»

OpenAI برای استفاده از این داده ها، که برخی از تنظیم کننده ها را نگران کرده است، عرض جغرافیایی گسترده ای را حفظ می کند و ذخیره آن یک خطر امنیتی است. شرکت هایی مانند سامسونگ و جی پی مورگان کارمندان خود را از استفاده از ابزارهای هوش مصنوعی مولد به دلیل ترس از آپلود داده های حساس منع کرده اند. و در واقع، ایتالیا بلافاصله پس از اینکه ChatGPT با نشت داده های جدی مواجه شد، ممنوعیت خود را اعلام کرد و تاریخچه چت و آدرس ایمیل کاربران را فاش کرد.

تمایل ChatGPT برای ارائه اطلاعات نادرست نیز ممکن است مشکل ساز باشد. مقررات GDPR تصریح می‌کند که همه داده‌های شخصی باید دقیق باشند، چیزی که GPDP در اعلامیه خود بر آن تاکید کرده است. بسته به اینکه چگونه تعریف می‌شود، می‌تواند برای اکثر تولیدکنندگان متن هوش مصنوعی که مستعد “توهم هستند” دردسر ایجاد کند: یک اصطلاح صنعتی جذاب برای پاسخ‌های واقعی یا نامربوط به یک پرس و جو. این در حال حاضر برخی از عواقب دنیای واقعی را در جاهای دیگر دیده است، زیرا یک شهردار منطقه ای استرالیایی تهدید کرده است که از OpenAI به دلیل افترا پس از اینکه ChatGPT به دروغ ادعا کرد که مدتی را به دلیل رشوه در زندان سپری کرده است، شکایت خواهد کرد.

محبوبیت و تسلط کنونی ChatGPT بر بازار هوش مصنوعی، آن را به یک هدف جذاب تبدیل کرده است، اما دلیلی وجود ندارد که رقبا و همکارانش، مانند گوگل با Bard یا مایکروسافت با هوش مصنوعی Azure مجهز به OpenAI، نیز مورد بررسی دقیق قرار نگیرند. قبل از ChatGPT، ایتالیا پلتفرم ربات چت Replika را به دلیل جمع‌آوری اطلاعات در مورد افراد زیر سن قانونی ممنوع کرده بود – و تا کنون، ممنوع بوده است.

در حالی که GDPR مجموعه ای قدرتمند از قوانین است، اما برای رسیدگی به مسائل خاص هوش مصنوعی ساخته نشده است. قوانینی که انجام دادن، با این حال، ممکن است در افق باشد

در سال 2021، اتحادیه اروپا اولین پیش نویس قانون هوش مصنوعی (AIA) را ارائه کرد، قانونی که در کنار GDPR کار می کند. این قانون ابزارهای هوش مصنوعی را بر اساس ریسک درک شده، از «حداقل» (چیزهایی مانند فیلترهای هرزنامه) تا «بالا» (ابزارهای هوش مصنوعی برای اجرای قانون یا آموزش) یا «غیرقابل قبول» و بنابراین ممنوع (مانند سیستم اعتبار اجتماعی) کنترل می‌کند. پس از انفجار مدل‌های زبانی بزرگ مانند ChatGPT در سال گذشته، قانون‌گذاران اکنون در حال رقابت برای افزودن قوانینی برای «مدل‌های پایه» و «سیستم‌های هوش مصنوعی عمومی (GPAI)» هستند – دو اصطلاح برای سیستم‌های هوش مصنوعی در مقیاس بزرگ که شامل LLM می‌شوند – و به‌طور بالقوه طبقه‌بندی آنها را به عنوان خدمات “پرخطر” معرفی می کنند.

مقررات AIA فراتر از حفاظت از داده ها است. اصلاحیه‌ای که اخیراً پیشنهاد شده است، شرکت‌ها را مجبور می‌کند هر گونه مطالب دارای حق چاپ را که برای توسعه ابزارهای هوش مصنوعی استفاده می‌شود، افشا کنند. این امر می‌تواند مجموعه داده‌های محرمانه را فاش کند و شرکت‌های بیشتری را در برابر دعاوی نقض حقوقی آسیب‌پذیر کند، که در حال حاضر به برخی از خدمات ضربه می‌زند.

قوانینی که به طور خاص برای تنظیم هوش مصنوعی طراحی شده اند ممکن است تا اواخر سال 2024 در اروپا اجرایی نشوند

اما عبور از آن ممکن است کمی طول بکشد. قانونگذاران اتحادیه اروپا در 27 آوریل به توافق موقت قانون هوش مصنوعی دست یافتند. کمیته ای در 11 مه به این پیش نویس رأی خواهد داد و پیشنهاد نهایی تا اواسط ژوئن انتظار می رود. سپس، شورای اروپا، پارلمان و کمیسیون باید قبل از اجرای قانون، اختلافات باقی مانده را حل و فصل کنند. اگر همه چیز به خوبی پیش برود، ممکن است تا نیمه دوم سال 2024، کمی عقب تر از هدف رسمی انتخابات مه 2024 اروپا، به تصویب برسد.

در حال حاضر، اختلافات ایتالیا و OpenAI یک نگاه اولیه به نحوه مذاکره تنظیم‌کننده‌ها و شرکت‌های هوش مصنوعی ارائه می‌دهد. GPDP پیشنهاد داد که اگر OpenAI چندین قطعنامه پیشنهادی را تا 30 آوریل برآورده کند، ممنوعیت خود را لغو کند. این شامل اطلاع رسانی به کاربران در مورد نحوه ذخیره و پردازش داده‌های ChatGPT، درخواست رضایت صریح برای استفاده از داده‌های مذکور، تسهیل درخواست‌ها برای تصحیح یا حذف اطلاعات شخصی نادرست ایجاد شده توسط ChatGPT، و الزام کاربران ایتالیایی برای تأیید بالای 18 سال در هنگام ثبت نام برای یک حساب کاربری است. . OpenAI برخورد نکرد همه از این شروط بود، اما به اندازه کافی برای راضی کردن تنظیم‌کنندگان ایتالیایی و بازیابی دسترسی به ChatGPT در ایتالیا برآورده شد.

OpenAI هنوز اهدافی برای رسیدن به آن دارد. تا 30 سپتامبر فرصت دارد تا برای نوجوانان زیر 13 سال سن سخت تری ایجاد کند و برای نوجوانان زیر 13 سال به رضایت والدین نیاز دارد. اگر شکست بخورد، می تواند دوباره خود را مسدود کند. اما نمونه‌ای از آنچه اروپا رفتار قابل قبولی برای یک شرکت هوش مصنوعی در نظر می‌گیرد ارائه می‌کند – حداقل تا زمانی که قوانین جدید در دست اجرا باشد.

این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.

منبع

درباره ی asrf_admin

مطلب پیشنهادی

iOS 16.5 خارج شد. در اینجا ویژگی های جدید آیفون شما آورده شده است

به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ، اپل iOS 16.5 را برای …