به گزارش سرویس اخبار فناوری پایگاه خبری عصر فناوری ،
متا شکایتی قانونی علیه یک شرکت به اتهام ایجاد ده ها هزار حساب جعلی فیس بوک برای حذف اطلاعات کاربران و ارائه خدمات نظارتی برای مشتریان ارائه کرده است.
این شرکت، وویجر لبز، خود را به عنوان “پیشرو جهانی در راه حل های تحقیقاتی پیشرفته مبتنی بر هوش مصنوعی” معرفی می کند. این به معنای آن است که در عمل، پست های رسانه های اجتماعی را به صورت انبوه تجزیه و تحلیل کنید تا ادعاهایی در مورد افراد ایجاد کنید. به عنوان مثال، در سال 2021، روزنامه گاردین گزارش داد که چگونه آزمایشگاه های وویجر خدمات خود را به اداره پلیس لس آنجلس فروخت و این شرکت ادعا کرد که پیش بینی می کند چه افرادی احتمالاً در آینده مرتکب جنایت می شوند.
لابراتوارهای وویجر متهم به ایجاد بیش از 38000 حساب کاربری جعلی فیس بوک برای خراش داده ها هستند.
متا این اقدام قانونی را در یک پست وبلاگی در 12 ژانویه اعلام کرد و ادعا کرد که آزمایشگاه های وویجر شرایط خدمات خود را نقض کرده است. بر اساس یک پرونده حقوقی صادر شده در 11 نوامبر، متا ادعا می کند که آزمایشگاه وویجر بیش از 38000 حساب کاربری جعلی فیس بوک ایجاد کرده و از نرم افزار نظارتی خود برای جمع آوری داده ها از فیس بوک و اینستاگرام بدون مجوز استفاده کرده است. آزمایشگاه وویجر همچنین دادههایی را از سایتهایی از جمله توییتر، یوتیوب و تلگرام جمعآوری کرد.
متا می گوید که آزمایشگاه های وویجر از حساب های جعلی برای حذف اطلاعات بیش از 600000 کاربر فیس بوک بین ژوئیه 2022 تا سپتامبر 2022 استفاده کرده است. متا می گوید که بیش از 60،000 حساب و صفحه فیس بوک و اینستاگرام مرتبط با وویجر را «در یا در مورد» 12 ژانویه غیرفعال کرده است.
متا از شرکت میخواهد که نقض شرایط خدمات خود را متوقف کند و از دادگاهها درخواست میکند که آزمایشگاههای Voyager از استفاده از فیسبوک، اینستاگرام و سرویسهای مرتبط با این پلتفرمها منع شوند. این شرکت همچنین از شرکت درخواست میکند که «سودهای نامناسب خود را به میزانی که در محاکمه ثابت شود» به متا جبران کند و ادعا میکند که آزمایشگاههای وویجر به ناحق خود را به هزینه متا غنی کرده است.
مطالعات نشان می دهد که این فناوری های پیش بینی ناکارآمد و مغرضانه نژادی هستند
آزمایشگاههای وویجر یکی از شرکتهای متعددی است – از جمله شرکتهایی مانند Palantir – که ادعا میکنند میتوانند فعالیتهای مجرمانه آینده را بر اساس رفتار گذشته و فعالیت آنلاین یک فرد پیشبینی کنند. کارشناسان می گویند این فناوری ها ناقص هستند و الگوریتم ها برای پیش بینی موثر جرم بسیار ساده هستند. در سال 2019، LAPD یک حسابرسی داخلی از یکی از برنامههای مبتنی بر دادههای خود انجام داد و نشان داد که این فناوری ناسازگار و مغرضانه نژادی است.
جسیکا رومرو، مدیر اجرای پلتفرم و دعوی قضایی متا، گفت: «شرکتهایی مانند وویجر بخشی از صنعتی هستند که بدون توجه به کاربرانی که هدفشان هستند و برای چه هدفی، خدمات خراش دادن را به هر کسی ارائه میدهند، از جمله به عنوان راهی برای شناسایی افراد برای رفتار مجرمانه. “این صنعت به طور مخفیانه اطلاعاتی را که مردم با جامعه، خانواده و دوستان خود به اشتراک می گذارند، بدون نظارت یا پاسخگویی جمع آوری می کند، و به گونه ای که ممکن است حقوق مدنی افراد را تحت تاثیر قرار دهد.”
این محتوا از سایت های خبری خارجی بطور اتوماتیک دانلود شده است و عصر فناوری فقط نمایش دهنده است. اگر این خبر با قوانین و مقررات جمهوری اسلامی مناقات دارد لطفا به ما گزارش کنید.