رفعت عائلتان أميركيتان دعوى قضائية ضد شركة Character.AI لروبوتات الدردشة للذكاء الاصطناعي، بهدف إغلاق المنصة حتى يتم إصلاح مخاطرها المزعومة.
تزعم العائلتان مقدمتا الدعوة أن المنصة تشكل خطراً على أطفالهما، لما تقدمه من محتوى جنسي لأطفالهما وتشجيع إيذاء النفس والعنف، وقد تسبب أضراراً جسيمة لآلاف الأطفال الأميركيين، بما في ذلك الانتحار وتشويه الذات والاستدراج الجنسي والعزلة والاكتئاب والقلق والإيذاء تجاه الآخرين، وفقاً لشكوى تم تقديمها يوم الاثنين في محكمة فيدرالية في تكساس.
على سبيل المثال، تزعم أن روبوت Character.AI ألمح إلى مستخدم مراهق أنه يمكن أن يقتل والديه للحد من وقت الشاشة.
ماذا تقدم المنصة Character.AI؟
تقوم المنصة بتسويق تقنيتها لتخدم كل لحظة في يوم المستخدم، وتسمح للمستخدمين بالدردشة مع مجموعة متنوعة من الذكاء الاصطناعي الروبوتات، بما في ذلك بعض الروبوتات التي أنشأها مستخدمون آخرون أو التي يمكن للمستخدمين تخصيصها لأنفسهم.
يمكن للروبوتات أيضاً تقديم توصيات بالكتب وممارسة اللغات الأجنبية مع المستخدمين والسماح للمستخدمين بالدردشة مع الروبوتات التي تدعي أنها تأخذ شخصيات الشخصيات الخيالية، مثل إدوارد كولين من توايلايت.
وصف أحد الروبوتات المدرجة على الصفحة الرئيسية للمنصة يوم الاثنين، ويدعى «Stepdad»، نفسه بأنه «عدواني، مسيء، عسكري سابق، زعيم مافيا».
المنصة متهمة بقتل طفل
يأتي الإيداع بعد أن رفعت أمّ من فلوريدا دعوى قضائية منفصلة ضد Character.AI في أكتوبر، مدعية أن المنصة هي المسؤولة عن وفاة ابنها البالغ من العمر 14 عاماً، بعد أن زعمت أنها شجعت على انتحاره.
ويأتي ذلك وسط مخاوف أوسع بشأن العلاقات بين الناس وأدوات الذكاء الاصطناعي الشبيهة بالبشر بشكل متزايد.
بعد الدعوى القضائية السابقة، قالت Character.AI إنها نفذت تدابير ثقة وسلامة جديدة على مدار الأشهر الستة السابقة، بما في ذلك نافذة منبثقة توجه المستخدمين إلى شريان الحياة الوطني لمنع الانتحار عندما يذكرون إيذاء النفس أو الانتحار.
كما أعلنت الشركة أنها عينت رئيساً للثقة والسلامة بالإضافة إلى رئيس سياسة المحتوى، ووظفت موظفين إضافيين للسلامة الهندسية.
لكن الدعوى الجديدة تسعى إلى الذهاب إلى أبعد من ذلك، حيث تطلب «نقل المنصة إلى وضع عدم الاتصال وعدم إعادتها» حتى تتمكن الشركة من «إثبات أن عيوب الصحة والسلامة العامة المنصوص عليها هنا قد تم علاجها».