به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،
OpenAI موفق شد مقامات داده ایتالیایی را راضی کند و ممنوعیت مؤثر ChatGPT را در هفته گذشته لغو کند، اما مبارزه آن با تنظیمکنندههای اروپایی هنوز به پایان نرسیده است.
در اوایل سال جاری، چت ربات محبوب و بحث برانگیز ChatGPT OpenAI با یک مشکل قانونی بزرگ روبرو شد: ممنوعیت مؤثر در ایتالیا. سازمان حفاظت از داده های ایتالیا (GPDP) OpenAI را به نقض قوانین حفاظت از داده اتحادیه اروپا متهم کرد و این شرکت موافقت کرد که دسترسی به این سرویس در ایتالیا را در حالی که تلاش می کرد مشکل را برطرف کند، محدود کند. در 28 آوریل، ChatGPT به کشور بازگشت، با OpenAI به آرامی به نگرانی های GPDP بدون ایجاد تغییرات عمده در سرویس خود پرداخت – یک پیروزی آشکار.
GPDP گفته است که از تغییرات ChatGPT استقبال می کند. با این حال، مسائل حقوقی شرکت – و مشکلات شرکتهایی که چتباتهای مشابه را میسازند – احتمالاً تازه شروع شدهاند. تنظیمکنندهها در چندین کشور در حال بررسی نحوه جمعآوری و تولید اطلاعات این ابزارهای هوش مصنوعی هستند و به مجموعهای از نگرانیها از جمعآوری دادههای آموزشی بدون مجوز شرکتها تا تمایل چتباتها به انتشار اطلاعات نادرست اشاره میکنند. در اتحادیه اروپا، آنها از مقررات حفاظت از داده های عمومی (GDPR) استفاده می کنند، که یکی از قوی ترین چارچوب های حقوقی حریم خصوصی در جهان است، که اثرات آن احتمالاً به خارج از اروپا خواهد رسید. در همین حال، قانونگذاران در بلوک در حال تدوین قانونی هستند که به طور خاص به هوش مصنوعی می پردازد – احتمالاً دوره جدیدی از مقررات را برای سیستم هایی مانند ChatGPT آغاز می کند.
مشکلات مختلف ChatGPT با اطلاعات نادرست، حق چاپ و حفاظت از داده ها، هدفی را در پشت آن قرار داده است
ChatGPT یکی از محبوبترین نمونههای هوش مصنوعی مولد است – اصطلاحی فراگیر که ابزارهایی را پوشش میدهد که متن، تصویر، ویدیو و صدا را بر اساس درخواستهای کاربر تولید میکنند. طبق گزارش ها، این سرویس پس از رسیدن به 100 میلیون کاربر فعال ماهانه تنها دو ماه پس از راه اندازی در نوامبر 2022، به یکی از سریع ترین برنامه های کاربردی مصرف کننده در تاریخ تبدیل شد (OpenAI هرگز این ارقام را تایید نکرده است). مردم از آن برای ترجمه متن به زبان های مختلف، نوشتن مقالات دانشگاهی و تولید کد استفاده می کنند. اما منتقدان – از جمله تنظیمکنندهها – خروجی غیرقابل اعتماد ChatGPT، مسائل گیجکننده حق چاپ و شیوههای مبهم حفاظت از دادهها را برجسته کردهاند.
ایتالیا اولین کشوری بود که دست به اقدام زد. در 31 مارس، چهار راه را برجسته کرد که معتقد بود OpenAI GDPR را زیر پا می گذارد: اجازه دادن به ChatGPT برای ارائه اطلاعات نادرست یا گمراه کننده، عدم اطلاع کاربران از شیوه های جمع آوری داده، عدم رعایت هر یک از شش توجیه قانونی ممکن برای پردازش داده های شخصی، و عدم موفقیت کافی در جلوگیری از استفاده کودکان زیر 13 سال از این سرویس. به OpenAI دستور داد فوراً استفاده از اطلاعات شخصی جمع آوری شده از شهروندان ایتالیایی را در داده های آموزشی خود برای ChatGPT متوقف کند.
هیچ کشور دیگری چنین اقدامی انجام نداده است. اما از ماه مارس، حداقل سه کشور اتحادیه اروپا – آلمان، فرانسه و اسپانیا – تحقیقات خود را در مورد ChatGPT آغاز کردهاند. در همین حال، در سراسر اقیانوس اطلس، کانادا در حال ارزیابی نگرانی های مربوط به حریم خصوصی تحت قانون حفاظت از اطلاعات شخصی و اسناد الکترونیکی خود یا PIPEDA است. هیئت حفاظت از داده های اروپا (EDPB) حتی یک کارگروه اختصاصی برای کمک به هماهنگی تحقیقات ایجاد کرده است. و اگر این آژانسها تغییراتی را از OpenAI درخواست کنند، میتوانند بر نحوه اجرای سرویس برای کاربران در سراسر جهان تأثیر بگذارند.
نگرانی های تنظیم کننده ها را می توان به طور کلی به دو دسته تقسیم کرد: داده های آموزشی ChatGPT از کجا می آید و چگونه OpenAI اطلاعات را به کاربران خود ارائه می دهد.
ChatGPT از مدل های زبان بزرگ GPT-3.5 و GPT-4 OpenAI (LLM) استفاده می کند، که بر روی مقادیر زیادی متن تولید شده توسط انسان آموزش دیده اند. OpenAI دقیقاً در مورد متن آموزشی مورد استفاده قرار میگیرد، اما میگوید از «انواع منابع دادهای دارای مجوز، ایجاد شده و در دسترس عموم، که ممکن است شامل اطلاعات شخصی در دسترس عموم باشد، استفاده میکند».
این به طور بالقوه مشکلات بزرگی را تحت GDPR ایجاد می کند. این قانون در سال 2018 تصویب شد و هر سرویسی را که دادههای شهروندان اتحادیه اروپا را جمعآوری یا پردازش میکند – مهم نیست که سازمان مسئول در کجا مستقر است، پوشش میدهد. قوانین GDPR شرکتها را ملزم میکند قبل از جمعآوری دادههای شخصی، رضایت صریح داشته باشند، چرایی جمعآوری آنها را توجیه قانونی داشته باشند، و در مورد نحوه استفاده و ذخیرهسازی آن شفاف باشند.
تنظیمکنندههای اروپایی ادعا میکنند که محرمانه بودن اطلاعات آموزشی OpenAI به این معنی است که هیچ راهی برای تأیید اینکه آیا اطلاعات شخصی وارد شده در آن ابتدا با رضایت کاربر ارائه شده است وجود ندارد، و GPDP به طور خاص استدلال میکند که OpenAI در وهله اول «هیچ مبنای قانونی» برای جمعآوری آن ندارد. . OpenAI و دیگران تاکنون با بررسی های کمی کنار رفته اند، اما این ادعا علامت سوال بزرگی را به تلاش های آتی خراش دادن داده ها اضافه می کند.
سپس «حق فراموش شدن» GDPR وجود دارد که به کاربران اجازه میدهد از شرکتها بخواهند اطلاعات شخصیشان را تصحیح کرده یا بهطور کامل حذف کنند. OpenAI پیشگیرانه خط مشی حفظ حریم خصوصی خود را برای تسهیل این درخواست ها به روز کرد، اما بحث هایی در مورد اینکه آیا از نظر فنی امکان رسیدگی به آنها وجود دارد، با توجه به اینکه چقدر می تواند پیچیده باشد، وجود دارد. داده های خاص را جدا کنید زمانی که به این مدل های زبانی بزرگ تبدیل شود.
OpenAI همچنین اطلاعات را مستقیماً از کاربران جمع آوری می کند. مانند هر پلتفرم اینترنتی، طیف وسیعی از داده های استاندارد کاربر (مانند نام، اطلاعات تماس، جزئیات کارت و غیره) را جمع آوری می کند. اما مهمتر از آن، تعاملات کاربران با ChatGPT را ثبت می کند. همانطور که در پرسشهای متداول بیان شد، این دادهها میتوانند توسط کارمندان OpenAI بررسی شوند و برای آموزش نسخههای آینده مدل آن استفاده شوند. با توجه به سوالات صمیمی که مردم از ChatGPT می پرسند – با استفاده از ربات به عنوان یک درمانگر یا یک پزشک – این بدان معنی است که شرکت در حال جمع آوری انواع داده های حساس است.
حداقل برخی از این دادهها ممکن است از خردسالان جمعآوری شده باشد، زیرا سیاست OpenAI بیان میکند که «اطلاعات شخصی کودکان زیر 13 سال را آگاهانه جمعآوری نمیکند»، هیچ دروازه دقیق تأیید سنی وجود ندارد. این با قوانین اتحادیه اروپا که جمعآوری دادهها از افراد زیر 13 سال را ممنوع میکند و (در برخی کشورها) برای افراد زیر 16 سال به رضایت والدین نیاز دارد، مطابقت ندارد. پاسخهای کاملاً نامناسب با توجه به درجه رشد و خودآگاهی آنها.»
OpenAI برای استفاده از این داده ها، که برخی از تنظیم کننده ها را نگران کرده است، عرض جغرافیایی گسترده ای را حفظ می کند و ذخیره آن یک خطر امنیتی است. شرکت هایی مانند سامسونگ و جی پی مورگان کارمندان خود را از استفاده از ابزارهای هوش مصنوعی مولد به دلیل ترس از آپلود داده های حساس منع کرده اند. و در واقع، ایتالیا بلافاصله پس از اینکه ChatGPT با نشت داده های جدی مواجه شد، ممنوعیت خود را اعلام کرد و تاریخچه چت و آدرس ایمیل کاربران را فاش کرد.
تمایل ChatGPT برای ارائه اطلاعات نادرست نیز ممکن است مشکل ساز باشد. مقررات GDPR تصریح میکند که همه دادههای شخصی باید دقیق باشند، چیزی که GPDP در اعلامیه خود بر آن تاکید کرده است. بسته به اینکه چگونه تعریف میشود، میتواند برای اکثر تولیدکنندگان متن هوش مصنوعی که مستعد “توهم هستند” دردسر ایجاد کند: یک اصطلاح صنعتی جذاب برای پاسخهای واقعی یا نامربوط به یک پرس و جو. این در حال حاضر برخی از عواقب دنیای واقعی را در جاهای دیگر دیده است، زیرا یک شهردار منطقه ای استرالیایی تهدید کرده است که از OpenAI به دلیل افترا پس از اینکه ChatGPT به دروغ ادعا کرد که مدتی را به دلیل رشوه در زندان سپری کرده است، شکایت خواهد کرد.
محبوبیت و تسلط کنونی ChatGPT بر بازار هوش مصنوعی، آن را به یک هدف جذاب تبدیل کرده است، اما دلیلی وجود ندارد که رقبا و همکارانش، مانند گوگل با Bard یا مایکروسافت با هوش مصنوعی Azure مجهز به OpenAI، نیز مورد بررسی دقیق قرار نگیرند. قبل از ChatGPT، ایتالیا پلتفرم ربات چت Replika را به دلیل جمعآوری اطلاعات در مورد افراد زیر سن قانونی ممنوع کرده بود – و تا کنون، ممنوع بوده است.
در حالی که GDPR مجموعه ای قدرتمند از قوانین است، اما برای رسیدگی به مسائل خاص هوش مصنوعی ساخته نشده است. قوانینی که انجام دادن، با این حال، ممکن است در افق باشد
در سال 2021، اتحادیه اروپا اولین پیش نویس قانون هوش مصنوعی (AIA) را ارائه کرد، قانونی که در کنار GDPR کار می کند. این قانون ابزارهای هوش مصنوعی را بر اساس ریسک درک شده، از «حداقل» (چیزهایی مانند فیلترهای هرزنامه) تا «بالا» (ابزارهای هوش مصنوعی برای اجرای قانون یا آموزش) یا «غیرقابل قبول» و بنابراین ممنوع (مانند سیستم اعتبار اجتماعی) کنترل میکند. پس از انفجار مدلهای زبانی بزرگ مانند ChatGPT در سال گذشته، قانونگذاران اکنون در حال رقابت برای افزودن قوانینی برای «مدلهای پایه» و «سیستمهای هوش مصنوعی عمومی (GPAI)» هستند – دو اصطلاح برای سیستمهای هوش مصنوعی در مقیاس بزرگ که شامل LLM میشوند – و بهطور بالقوه طبقهبندی آنها را به عنوان خدمات “پرخطر” معرفی می کنند.
مقررات AIA فراتر از حفاظت از داده ها است. اصلاحیهای که اخیراً پیشنهاد شده است، شرکتها را مجبور میکند هر گونه مطالب دارای حق چاپ را که برای توسعه ابزارهای هوش مصنوعی استفاده میشود، افشا کنند. این امر میتواند مجموعه دادههای محرمانه را فاش کند و شرکتهای بیشتری را در برابر دعاوی نقض حقوقی آسیبپذیر کند، که در حال حاضر به برخی از خدمات ضربه میزند.
قوانینی که به طور خاص برای تنظیم هوش مصنوعی طراحی شده اند ممکن است تا اواخر سال 2024 در اروپا اجرایی نشوند
اما عبور از آن ممکن است کمی طول بکشد. قانونگذاران اتحادیه اروپا در 27 آوریل به توافق موقت قانون هوش مصنوعی دست یافتند. کمیته ای در 11 مه به این پیش نویس رأی خواهد داد و پیشنهاد نهایی تا اواسط ژوئن انتظار می رود. سپس، شورای اروپا، پارلمان و کمیسیون باید قبل از اجرای قانون، اختلافات باقی مانده را حل و فصل کنند. اگر همه چیز به خوبی پیش برود، ممکن است تا نیمه دوم سال 2024، کمی عقب تر از هدف رسمی انتخابات مه 2024 اروپا، به تصویب برسد.
در حال حاضر، اختلافات ایتالیا و OpenAI یک نگاه اولیه به نحوه مذاکره تنظیمکنندهها و شرکتهای هوش مصنوعی ارائه میدهد. GPDP پیشنهاد داد که اگر OpenAI چندین قطعنامه پیشنهادی را تا 30 آوریل برآورده کند، ممنوعیت خود را لغو کند. این شامل اطلاع رسانی به کاربران در مورد نحوه ذخیره و پردازش دادههای ChatGPT، درخواست رضایت صریح برای استفاده از دادههای مذکور، تسهیل درخواستها برای تصحیح یا حذف اطلاعات شخصی نادرست ایجاد شده توسط ChatGPT، و الزام کاربران ایتالیایی برای تأیید بالای 18 سال در هنگام ثبت نام برای یک حساب کاربری است. . OpenAI برخورد نکرد همه از این شروط بود، اما به اندازه کافی برای راضی کردن تنظیمکنندگان ایتالیایی و بازیابی دسترسی به ChatGPT در ایتالیا برآورده شد.
OpenAI هنوز اهدافی برای رسیدن به آن دارد. تا 30 سپتامبر فرصت دارد تا برای نوجوانان زیر 13 سال سن سخت تری ایجاد کند و برای نوجوانان زیر 13 سال به رضایت والدین نیاز دارد. اگر شکست بخورد، می تواند دوباره خود را مسدود کند. اما نمونهای از آنچه اروپا رفتار قابل قبولی برای یک شرکت هوش مصنوعی در نظر میگیرد ارائه میکند – حداقل تا زمانی که قوانین جدید در دست اجرا باشد.
این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.