تلقت شركة ميتا 11 شكوى جديدة يوم الخميس، بشأن التغييرات المقترحة في سياسة الخصوصية التي من شأنها أن تخولها استخدام البيانات الشخصية لتدريب نماذج الذكاء الاصطناعي الخاصة بها دون طلب الموافقة، الأمر الذي قد ينتهك قواعد الخصوصية في الاتحاد الأوروبي.
وحثت مجموعة تدعى «نون أوف يور بيزنس» أو (NOYB) هيئات مراقبة الخصوصية الوطنية على التصرف فوراً لوقف هذا الاستخدام، قائلة إن التغييرات الأخيرة في سياسة خصوصية ميتا، التي تدخل حيز التنفيذ في 26 يونيو حزيران الجاري، ستسمح لها باستخدام سنوات من المنشورات الشخصية أو الصور الخاصة أو بيانات التتبع عبر الإنترنت لتقنية الذكاء الاصطناعي الخاصة بها.
وقدمت (NOYB) بالفعل العديد من الشكاوى ضد شركة ميتا وغيرها من شركات التكنولوجيا الكبرى بشأن الانتهاكات المزعومة للائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي، التي تهدد بفرض غرامات تصل إلى 4 في المئة من إجمالي مبيعات الشركة العالمية بسبب الانتهاكات.
أشارت ميتا إلى مصلحة مشروعة في استخدام بيانات المستخدمين لتدريب وتطوير نماذج الذكاء الاصطناعي التوليدية وأدوات الذكاء الاصطناعي الأخرى، التي يمكن مشاركتها مع أطراف ثالثة.
وقال مؤسس (NOYB) ماكس شريمز في بيان إن المحكمة العليا في أوروبا حكمت بالفعل في هذه القضية في عام 2021.
وقال «لقد أوضحت محكمة العدل الأوروبية بالفعل أن ميتا ليست لديها (مصلحة مشروعة) لتجاوز حق المستخدمين في حماية البيانات عندما يتعلق الأمر بالإعلان».
وأضاف شريمز «مع ذلك، تحاول الشركة استخدام الحجج نفسها لتدريب (تكنولوجيا الذكاء الاصطناعي) غير المحددة، ويبدو أن ميتا تتجاهل مرة أخرى بشكل صارخ أحكام محكمة العدل الأوروبية»، مضيفاً أن اختيار عدم المشاركة كان معقداً للغاية.
وأردف شريمز «يتطلب القانون من ميتا الحصول على موافقة الاشتراك، وليس تقديم نموذج إلغاء الاشتراك المخفي والمضلل»، مضيفاً «إذا أرادت ميتا استخدام بياناتك، فإنها ستفعل ذلك، عليهم أن يطلبوا إذن المستخدم، وبدلاً من ذلك، جعلوا المستخدمين يتوسلون ليتم استبعادهم».
طلبت (NOYB) من سلطات حماية البيانات في النمسا وبلجيكا وفرنسا وألمانيا واليونان وإيطاليا وأيرلندا وهولندا والنرويج وبولندا وإسبانيا إطلاق إجراء عاجل بسبب التغييرات الوشيكة.
(أ ف ب)