ترامب يدعو لـ«تحرير» الذكاء الاصطناعي.. وشركات التكنولوجيا الكبرى تدعمه

ترامب يدعو لـ«تحرير» الذكاء الاصطناعي.. وشركات التكنولوجيا الكبرى تدعمه

تضغط شركات التكنولوجيا الكبرى على إدارة الرئيس دونالد ترامب لتخفيف قواعد بناء الذكاء الاصطناعي، معتبرةً أنه السبيل الوحيد للحفاظ على التفوق الأميركي ومنافسة الصين.

ونظراً لقلقها من التقدم المفاجئ للذكاء الاصطناعي التوليدي، سارعت الحكومات في البداية إلى وضع حواجز أمان، حيث سارعت شركات التكنولوجيا الكبرى إلى دمج هذه التقنية في منتجاتها.

googletag.cmd.push(function() { googletag.display('div-gpt-ad-1738926244764-0'); });

منذ توليها منصبها في يناير، حوّلت إدارة ترامب تركيزها نحو تسريع تطوير الذكاء الاصطناعي بأي ثمن، متجاهلةً المخاوف بشأن معاناة النماذج من الهلوسة، وإنتاجها لتقنيات التزييف العميق، أو تدميرها للوظائف البشرية.

googletag.cmd.push(function() { googletag.display('div-gpt-ad-1739447063276-0'); });

قال نائب الرئيس، جيه دي فانس، لقادة العالم في قمة الذكاء الاصطناعي الأخيرة في باريس: «لن ينتصر مستقبل الذكاء الاصطناعي بالتوتر بشأن السلامة».

أثارت هذه الرسالة قلق الشركاء الدوليين، وخاصة أوروبا، التي أقرت بفخر قانون الاتحاد الأوروبي للذكاء الاصطناعي كمعيار جديد للسيطرة على التكنولوجيا.

لكن في مواجهة التوجه الأميركي الجديد، يُحوّل المسؤولون الأوروبيون خطابهم نحو الاستثمار والابتكار بدلاً من التركيز على السلامة.

يوضح ديفيد دانكس، أستاذ علوم البيانات والفلسفة في جامعة كاليفورنيا في سان دييغو: «سنشهد تراجعاً كبيراً في الجهود التنظيمية عالمياً».

«لقد أُشير إلى ذلك هنا في الولايات المتحدة، لكننا نشهده أيضاً في أوروبا».

تراجع تنظيمي

تستغل شركات التكنولوجيا هذا التراجع التنظيمي، سعياً وراء حرية تطوير تقنيات الذكاء الاصطناعي التي تزعم أنها كانت مقيدة للغاية في ظل إدارة بايدن.

كان من أوائل الإجراءات التنفيذية التي اتخذها ترامب تفكيك سياسات بايدن، التي اقترحت حواجز حماية متواضعة لنماذج الذكاء الاصطناعي القوية، ووجّهت الوكالات للاستعداد للإشراف على التغيير.

أشارت كارين سيلفرمان، الرئيسة التنفيذية لشركة Cantellus Group الاستشارية للذكاء الاصطناعي، إلى أنه «من الواضح أننا نتراجع عن فكرة وجود نهج شامل ومتماسك لتنظيم الذكاء الاصطناعي».

ودعت إدارة ترامب قادة القطاع لمشاركة رؤيتهم السياسية، مؤكدةً ضرورة الحفاظ على مكانة الولايات المتحدة «كقائدة لا يمكن إنكارها في تكنولوجيا الذكاء الاصطناعي» مع الحد الأدنى من قيود المستثمرين.

ستُشكل مقترحات القطاع خطة عمل البيت الأبيض للذكاء الاصطناعي، والمتوقعة هذا الصيف.

وقد أسفر الطلب عن ردود متوقعة من الجهات الفاعلة الرئيسية، مع ظهور موضوع مشترك؛ تُمثل الصين تهديداً وجودياً لا يمكن معالجته إلا بفتح طريق مفتوح للشركات غير المُثقلة بالتنظيم.

ويُرجّح أن يكون مقترح OpenAI هو الأبعد في مُقارنته بالصين، مُسلّطاً الضوء على DeepSeek، وهو نموذج ذكاء اصطناعي مُولّد طورته الصين بتكلفة زهيدة تُضاهي تكاليف التطوير الأميركية، للتأكيد على التهديد التنافسي، وفقاً لشركة OpenAI، تجب حماية تطوير الذكاء الاصطناعي الأميركي «من القوى الاستبدادية التي قد تسلب الناس حرياتهم، ومن طبقات القوانين والبيروقراطية التي قد تمنعنا من تحقيقها».

يرى محلل الذكاء الاصطناعي زفي موشوفيتز أن هدف OpenAI «منع الحكومة الفيدرالية من تنظيم الذكاء الاصطناعي»، ومنع ولايات أميركية فردية من القيام بذلك.

وتخوض OpenAI حالياً دعوى قضائية مع صحيفة نيويورك تايمز بشأن استخدام محتواها للتدريب، وتجادل أيضاً بأن تقييد الوصول إلى البيانات عبر الإنترنت من شأنه أن يُفسح المجال للصين في سباق الذكاء الاصطناعي.

وقالت OpenAI: «بدون الاستخدام العادل للمواد المحمية بحقوق الطبع والنشر ستخسر أميركا، وكذلك نجاح الذكاء الاصطناعي الديمقراطي».

ورفض رد آخر قدمته مجموعة من مشاهير هوليوود -بمن فيهم بن ستيلر وسينثيا إيريفو- هذه الفكرة، ما يعكس العلاقة الخلافية بين صناعة السينما والتلفزيون والتكنولوجيا.

نماذج المصدر المفتوح

في ردها، روّجت شركة ميتا لنموذجها المفتوح للذكاء الاصطناعي «لاما» كجزء من معركة التفوق التكنولوجي الأميركي.

صرحت الشركة قائلةً: «نماذج المصدر المفتوح ضرورية للولايات المتحدة للفوز في سباق الذكاء الاصطناعي ضد الصين وضمان هيمنة الذكاء الاصطناعي الأميركية».

بل دعا الرئيس التنفيذي مارك زوكربيرغ إلى فرض تعريفات جمركية انتقامية ضد الجهود التنظيمية الأوروبية.

ركزت مساهمة غوغل على الاستثمار في البنية التحتية لتلبية متطلبات الطاقة الكبيرة للذكاء الاصطناعي.

ومثل نظيراتها، تعارض غوغل أيضاً اللوائح التنظيمية لكل ولاية على حدة في الولايات المتحدة، والتي تزعم أنها ستقوض الريادة التكنولوجية الأميركية.

على الرغم من الضغط من أجل الحد الأدنى من الرقابة، يُحذّر مراقبو الصناعة من أن الذكاء الاصطناعي المُولّد ينطوي على مخاطر جوهرية، سواء أكان مُنظّماً من قِبل الحكومة أم لا.

حذّر دانكس قائلاً: «التغطية الإعلامية السلبية أمرٌ شائع، وإذا أدّت تقنيتك إلى نتائج سيئة للغاية، فستُواجَه بانتقادات لاذعة في مجال العلاقات العامة».

وأضاف أن الشركات ليس لديها خيار سوى التخفيف من حدة المخاطر.

(أ ف ب)