في الوقت الذي دخل قطاع التكنولوجيا في نزاع على تطوير مجموعات من روبوتات الدردشة الجديدة التي تعمل بواسطة الذكاء الاصطناعي، تسبب اعتمادها بنطاق واسع في إثارة الجدل، وإشعال مخاوف حول خصوصية البيانات بين بعض الشركات والهيئات.
سعت بعض الشركات، ومنها «جي بي مورغان تشايس»، إلى تضييق الخناق على استخدام موظفيها لروبوت الدردشة «تشات جي بي تي» -وهو الذي أطلق شرارة السباق بين أباطرة التكنولوجيا للتسلح بالذكاء الاصطناعي- بسبب مخاوف من إمكانية استخدام الموظفين لبرامج الطرف الثالث.
ازدادت المخاوف من « تشات جي بي تي»، بعدما كشفت شركة «أوبن آيه أي» الداعمة له عن إيقاف تشغيل الأداة مؤقتاً في 20 مارس آذار، لإصلاح خلل ما سمح لبعض المستخدمين برؤية بعض المحادثات القديمة لمستخدمين آخرين.
قالت «أوبن آيه أي» في منشور إن الخلل ذاته -الذي أُصلح الآن- أتاح لبعض المستخدمين الاطلاع على الاسم الأول والأخير لمستخدم آخر نشط، إضافة إلى عنوان البريد الإلكتروني والأرقام الأربعة الأخيرة من رقم بطاقة الائتمان وتاريخ انتهاء صلاحية البطاقة.
خلال الأسبوع الماضي، فرضت إيطاليا حظراً مؤقتاً على «تشات جي بي تي» بسبب مخاوف تتعلق بالخصوصية، بعدما كشفت «أوبن آيه أي» عن الانتهاك.
الصندوق الأسود للبيانات
وصف الرئيس المشارك لممارسة الخصوصية وأمن البيانات في شركة المحاماة «فوكس روثتشايد» مارك ماكريري، في حديثه لشبكة «CNN»، روبوت الدردشة «تشات جي بي تي» بالصندوق الأسود، وقال «لا يمكن المبالغة في ما يخص الخصوصية مع شيء مثله».
يمكّن «تشات جي بي تي» -الذي أُطلق في أواخر نوفمبر تشرين الثاني- من كتابة المقالات والقصص وكلمات الأغاني بكل بساطة.
ومنذ ذلك الحين، عكفت «غوغل» و«مايكروسوفت» على طرح أدوات الذكاء الاصطناعي أيضاً، التي يمكنها العمل بالطريقة ذاتها، إذ تدعم بعض النماذج اللغوية وتدرب على مجموعة كبيرة من البيانات عبر الإنترنت.
قال ماكريري «إننا نجهل كيف يمكن استغلال معلومات المستخدمين بعد إدخالها»، وهذا يشكل خطورة كبيرة خاصة بالنسبة للشركات، فالمزيد من الموظفين يستخدمون هذه الأدوات بشكل عرضي، من أجل مساعدتهم في رسائل البريد الإلكتروني أو ملاحظات الاجتماع.
وأضاف «أعتقد أن فرص إفشاء الأسرار التجارية للشركات قد تزداد في حال وقوعها في يد مختلف أنواع الذكاء الاصطناعي».
من جهته، قال كبير مسؤولي أخلاقيات الذكاء الاصطناعي في «بوسطن كونسولتين غروب»، ستيف ميلز، لشبكة «CNN» إن أكبر مخاوف الخصوصية لدى معظم الشركات حول هذه الأدوات هي الكشف غير المقصود عن معلومات حساسة ومهمة.
قال ميلز «إن لديك كل هؤلاء الموظفين يتبنون تصرفات قد تبدو غير ضارة، فهناك من يقول يمكنني استخدام هذا لتلخيص الملاحظات من اجتماع؛ ولكن عند نقل الرسالة من المحتمل أن تكشف فجأة عن مجموعة كاملة من المعلومات الحساسة».
وأضاف ميلز أنه «يمكننا أن نفقد السيطرة على البيانات، وقد يمتلكها شخص آخر»، وذلك إذا استُخدمت البيانات لتطوير المزيد من أدوات الذكاء الاصطناعي.
سياسة خصوصية طويلة
تقول شركة «أوبن آيه أي» في سياسة الخصوصية الخاصة بها إنها تجمع كل أنواع المعلومات الشخصية من الأشخاص الذين يستخدمون خدماتها، مؤكدة أنها قد تستخدم هذه المعلومات لتحسين أو تحليل خدماتها وإجراء البحوث والتواصل مع المستخدمين وتطوير برامج وخدمات جديدة.
ووفقاً لسياسة الخصوصية، فإنه يجوز لها تقديم معلومات شخصية لأطراف ثالثة دون إشعار المستخدم، ما لم يقتض القانون ذلك.
إذا كانت سياسة الخصوصية المكونة من أكثر من ألفي كلمة تبدو غامضة بعض الشيء، فالسبب يعود إلى معيار الصناعة في عصر الإنترنت.
تملك «أوبن آيه أي» أيضاً مستند شروط استخدام منفصلاً، والذي يلقي معظم المسؤولية على المستخدم لاتخاذ الإجراءات المناسبة عند التعامل مع أدواته.
نشرت الشركة منشوراً جديداً على المدونة يوم الأربعاء يحدد منهجها في سياسة أمان الذكاء الاصطناعي، جاء فيه «نحن لا نستخدم البيانات لبيع خدماتنا أو الإعلان أو إنشاء ملفات تعريف للأشخاص، نحن نستخدم البيانات لإفادة الأشخاص، على سبيل المثال يتحسن (تشات جي بي تي) من خلال المزيد من التدريب على المحادثات التي يجريها الناس معه».
من ناحيتها، تأتي سياسة خصوصية «غوغل»، والتي تتضمن أداة «بارد»، طويلة بالمثل، ولديها شروط خدمة إضافية لمستخدمي الذكاء الاصطناعي المبتدئين.
تقول الشركة «إننا نحدد مجموعة فرعية من المحادثات، ونستخدم الأدوات الآلية للمساعدة في إخفاء المعلومات الشخصية للمساعدة في تحسين (بارد) مع حماية خصوصية المستخدمين».
تُقبل هذه المحادثات النموذجية للمراجعة، ويُحتفظ بها لمدة تصل إلى 3 سنوات، بشكل منفصل عن حساب «غوغل» الخاص بك.
ذكرت الشركة تحذيراً ضمن الأسئلة الشائعة عن «بارد»، إذ قالت «لا ترفق معلومات يمكن استخدامها لتحديد هويتك أو هوية الآخرين عبر محادثاتك على (بارد)»، كما تذكر أيضاً أن المحادثات لا تُستخدم لأغراض الدعاية.
وأضافت الشركة «سنبلغ عن أي تغييرات قد تطرأ على هذا النهج مستقبلاً».
أخبرت «غوغل» أيضاً شبكة «CNN» أنه يمكن للمستخدمين «اختيار استخدام (بارد) بسهولة دون حفظ محادثاتهم في حساب (غوغل) الخاص بهم».
ويمكن لمستخدمي «بارد» أيضاً مراجعة مطالباتهم أو حذف المحادثات عبر رابط بعينه.
قالت «غوغل» «إننا نملك حواجز حماية مصممة لمنع (بارد) من تضمين معلومات التعريف الشخصية في ردوده».
قال ميلز لشبكة «CNN» «إننا نواصل تعلم كيفية عمل هذه الأدوات، فأنت لا تعرف تماماً كيف يمكن استخدام المعلومات التي أدخلتها في إعادة تدريب هذه النماذج».
أضاف ميلز أنه في بعض الأحيان لا يدرك المستخدمون والمطورون مخاطر الخصوصية الكامنة في التكنولوجيات الحديثة حتى فوات الأوان، أحد الأمثلة التي استشهد بها ميزات الاستكمال التلقائي، التي قد تكمل رقم الضمان الاجتماعي، وهي من العواقب غير المقصودة التي قد ترسل إشارات تنبيه إلى المستخدم.
في النهاية، قال ميلز «إن وجهة نظري في الوقت الحالي، هي أنه ينبغي عليك عدم إضافة بيانات أو معلومات إلى هذه الأدوات التي تشك في إمكانية مشاركتها مع الآخرين».
كتبت- كاثرين ثوربيك (CNN)