الرئيسية / الاخبار / شركة DeepMind تطور “زر انذار كبير” لمنع الذكاء الاصطناعي من التسبب في ضرر

شركة DeepMind تطور “زر انذار كبير” لمنع الذكاء الاصطناعي من التسبب في ضرر

في السنة الماضية وحدها، حققت شركة DeepMind المملوكة لجوجل تقدم كبير في مجال الذكاء الاصطناعي. وكانت جوجل قد انشأت منصة للمبادئ الأخلاقية كجزء من عملية الاستحواذ عام 2014 للمحافظة على سلامة عملية تطوير الذكاء الاصطناعي، والآن ورقة جديدة من DeepMind وجامعة أكسفورد تصف طريقة إنشاء “زر انذار كبير” (big red button) الذي يمكن استخدامه لمنع الذكاء الاصطناعي من التسبب في ضرر …

google-deepmind-techblogme

في الورقة، تفترض DeepMind أن عوامل الذكاء الاصطناعي “من غير المرجح أن تتصرف على النحو الأمثل في كل وقت” عند التعامل مع العالم الحقيقي. على هذا النحو، فإنه من المهم أن يكون بمقدرة المشغل البشري وقف الذكاء الاصطناعي من الاستمرار في “سلسلة من الإجراءات الضارة”، مما يؤدي إلى وضع أكثر أمانا. وتعرف الورقة الضرر إما للبيئة المحيطة أو المشغل البشري نفسه.

الطريقة التي تم تطوريها من قبل الباحثين تذهب خطوة بعيدة من خلال التأكد من أن الذكاء الاصطناعي لا يحول دون قيام المشغل البشري بإيقافة. الذكاء الاصطناعي الذي قد يتوقع تلقي المكافآت مع الانتهاء من المهام، قد يعلم مع مرور الوقت تجنب مثل هذا التدخل من البشر ويحاول الالتفاف على “الزر”.

ووجد الباحثون أن بعض الخوارزميات، مثل Q-learning، هي بالفعل قابلة للتعامل مع مثل هذا الزر، في حين أن البعض الآخر يتطلب تعديل. ومع ذلك، فإنه ليس من الواضح ما إذا كان هذا ينطبق على جميع خوارزميات التعلم.

وقد بذك الآخرين في صناعة التكنولوجيا جهود مماثلة للتأكد من ان الذكاء الاصطناعي لا يتصرف بشكل طائش. في أواخر العام الماضي، أنشأ إيلون ماسك، بيتر ثيل، وغيرهم شركة أبحاث غير ربحية للتأكد من ان الذكاء الاصطناعي يتطور بطريقة تعود بالفائدة على البشرية جمعاء.