جوجل تُجري تغييرات جذرية على مبادئ الذكاء الاصطناعي: ما الجديد؟
أجرت جوجل أكبر تعديل على مبادئها الخاصة بالذكاء الاصطناعي منذ إعلانها الأول في عام 2018، حيث أزالت تعهداتها السابقة بعدم تطوير تقنيات الذكاء الاصطناعي لاستخدامها في الأسلحة أو أنظمة المراقبة.
إزالة القيود القديمة واستبدالها بسياسات جديدة
وفقًا لصحيفة واشنطن بوست، لم تعد المبادئ المُحدّثة تتضمن قسم "التطبيقات التي لن نسعى إليها"، الذي كان ينص بوضوح على رفض تطوير أدوات ذكاء اصطناعي للأسلحة أو التقنيات التي تنتهك المعايير الدولية للمراقبة.
وبدلاً من ذلك، أضافت الشركة قسمًا جديدًا بعنوان "التطوير والتوظيف المسؤول"، يؤكد على ضرورة وجود إشراف بشري، وإجراءات تقييم، وآليات مراجعة لضمان توافق التكنولوجيا مع الأهداف الأخلاقية والمعايير العالمية.
ما الذي تغيّر في سياسات جوجل؟
حتى الشهر الماضي، كانت سياسة جوجل تنص على أنها لن تطوّر الذكاء الاصطناعي للاستخدام في الأسلحة أو التقنيات المُصممة لإلحاق الضرر بالبشر، كما أكّدت التزامها بعدم دعم أنظمة المراقبة التي تنتهك القوانين والمعايير الدولية. لكن مع التحديث الجديد، لم تعد هذه القيود موجودة، مما يفتح المجال أمام استخدام أوسع للذكاء الاصطناعي في التطبيقات العسكرية والأمنية.
مبررات جوجل لهذا التغيير
عند الاستفسار عن هذا التعديل، أشارت جوجل إلى منشور رسمي كتبه ديميس هاسابيس، الرئيس التنفيذي لشركة ديب مايند، وجيمس مانيكا، نائب الرئيس الأول للأبحاث والتكنولوجيا والمجتمع في جوجل.
وأوضح المنشور أن الذكاء الاصطناعي كتكنولوجيا عامة يتطلب تغيير السياسات، مؤكدين أن الشركات والحكومات التي تشترك في قيم مثل الحرية والمساواة واحترام حقوق الإنسان، يجب أن تعمل معًا على تطوير ذكاء اصطناعي يضمن الحماية، ويدعم الأمن القومي، ويسهم في النمو العالمي.
علاقة جوجل بالمؤسسات العسكرية
يأتي هذا التغيير بعد تاريخ طويل من الجدل الداخلي حول علاقة جوجل بالمؤسسات العسكرية. ففي 2018، وبعد احتجاجات من موظفي الشركة، قررت جوجل عدم تجديد عقدها مع وزارة الدفاع الأمريكية في مشروع Maven، الذي كان يهدف إلى استخدام الذكاء الاصطناعي لتحليل لقطات الطائرات بدون طيار.
لكن بحلول 2021، عادت جوجل إلى السعي وراء عقود عسكرية جديدة، وقدّمت عرضًا للحصول على عقد آخر من وزارة الدفاع الأمريكية.
وفي 2024، كشفت واشنطن بوست أن موظفي جوجل عملوا بشكل متكرر مع وزارة الدفاع الإسرائيلية لتوسيع استخدام تقنيات الذكاء الاصطناعي خلال الحرب الأخيرة على غزة.
مخاوف حول أخلاقيات الذكاء الاصطناعي
مع هذا التعديل في سياسات جوجل، تتجه الشركة نحو دور أكثر نشاطًا في تطوير تقنيات الذكاء الاصطناعي للأغراض العسكرية والأمنية. ومع ذلك، يثير هذا التحول مخاوف متزايدة حول أخلاقيات الذكاء الاصطناعي، وتأثيره على الحريات والخصوصية في المستقبل.