كيف يمكن للبشر أن يبقوا أصحاب اليد العليا وسط تقدم الذكاء الاصطناعي
طور الباحثون طريقة جديدة لمنع الذكاء الاصطناعي من السيطرة على البشرية.
ويمكن للأجهزة المزودة بالذكاء الاصطناعي والروبوتات أن تكتسب القدرة على تحسين الإنتاجية، ولكن، يقول الخبراء إن هذه الخاصية يمكن أن تؤدي إلى هيمنة الذكاء الاصطناعي على عالمنا.
والآن، قام فريق من الباحثين بتطوير نظام يشبه الذاكرة المحوسبة “neuralyzer”، مستوحى من فيلم “Men in Black”، لوقف هيمنة الذكاء الاصطناعي عن طريق حذف أجزاء من الذاكرة دون تعطيل طريقة التعلم.
وأوضح المؤلف المشارك في البحث، رشيد غراوي، وهو أستاذ في مختبر البرمجة الموزعة التابع ل EPFL، أن الذكاء الاصطناعي سيحاول دائما تجنب التدخل البشري وخلق حالة من الفردية. كما يجب على البشر تطوير طرق لمنع منظمة الذكاء الاصطناعي من التحايل على الأوامر الصادرة.
وقال غراوي إن “التحدي لا يكمن في وقف الروبوتات، ولكن إعادة برمجتها بحيث لا تنقطع عملية التعلم”.
وحاولت الجهود السابقة معالجة المشكلة على نطاق أصغر، مع التركيز على روبوت واحد. ولكن مع زيادة حجم السيارات ذاتية القيادة والأجهزة التكنولوجية، أصبحت المشكلة أكثر تعقيدا.
ويقول ألكسندر مورر، أحد مؤلفي الدراسة: “هذا يجعل الأمور أكثر تعقيدا بكثير، لأن الآلات تبدأ التعلم من بعضها البعض، وخاصة في حالة الانقطاعات”.
وللتغلب على هذه المشكلة، طور الباحثون نظاما أطلقوا عليه اسم “safe interruptibility”، وهذا يسمح للبشر بقطع عملية التعلم بالنسبة للذكاء الاصطناعي عند الضرورة، حيث يمكن القيام بالأمر دون التأثير على عملية التعلم بحد ذاتها.
وأظهرت الدراسة أن الخوارزميات المطورة تمكن عملية الوقف الآمن بغض النظر عن تعقيد نظام الذكاء الاصطناعي. وحتى الآن، يعمل النظام بشكل جيد دون وجود أخطاء كبيرة، وفقا لفريق البحث.
ضوابط للسيطرة على أنظمة الذكاء الصناعي:
أصدر “معهد مستقبل الحياة” الأميركي تقريرا خاصا يتضمن الوسائل الواجب اتباعها لمنع تقنيات الذكاء الصناعي من التصرف بطرق غير مرغوبة قد تنجم عنها أفعال تدميرية، ويأتي ذلك نتيجة النمو المطرد الذي تشهده أبحاث الذكاء الصناعي والتي يتوقع أن يزداد تأثيرها على المجتمعات خلال الأعوام المقبلة، وما قد تحمله من مخاطر محتملة يمكن أن تشكل تهديدا للبشرية.
وحققت بعض نماذج الذكاء الصناعي نجاحا ملفتا على غرار تقنيات التعرف على الكلام أو ترجمته الفورية، وتصنيف الصور, والروبوتات الذكية, والسيارات ذاتية القيادة.
وفي تقريره أشار المعهد -الذي يضم في هيئته الاستشارية عددا من العلماء والمستثمرين في مقدمتهم مؤسس شركة صناعة السيارات الكهربائية “تيسلا موتورز” إيلون موسك، والفيزيائي ستيفن هوكينغ- إلى ضرورة الانتباه منذ المراحل التصميمية الأولى إلى المخاطر المحتمل وقوعها بسبب هذه التقنيات.
وأوضح التقرير أنه عند البدء بتصميم أنظمة ذكية يجب تحديد “السلوك الصحيح” لتلك الأنظمة بإضافة ضوابط أخلاقية مبرمجة مسبقا من قبل علماء حواسيب وخبراء بالأخلاق، وذلك لتعزيز قدرة الأنظمة الذكية على اتخاذ القرار السليم في المواقف الحرجة.
كما أوصى التقرير بضرورة فحص البرمجيات الخاصة بالتقنيات الذكية بشكل مكثف قبيل اعتمادها ودمجها في الآلة، لأن من شأن أي خطأ برمجي أن يؤدي إلى سلوك غير مقبول، مشيرا إلى أن وسائل التحقق من البرمجيات في الأنظمة الذكية تختلف كليا عنها في الأنظمة التقليدية، حيث تتطلب وسائل التحقق من الأنظمة الذكية تحريضها على العمل داخل المختبرات في ظروف مشابهة لظروف عملها المطلوب ومراقبة النتائج من قبل المصممين واستكشاف الأخطاء وتصحيحها.
“يجب توفير الرقابة والتحكم المستمرين بأنظمة الذكاء الصناعي رغم صعوبة ذلك بسبب قدرتها على التحايل أثناء أداء المهام المطلوبة”
رقابة واختبار:
كما اقترح المعهد أن تكون كافة الأجزاء المكونة للنظام الذكي مختبرة مسبقا، لضمان سلامة النظام ككل الذي يجب أن يخضع بدوره لاختبارات متعددة، يتم إجراء بعضها من قبل أدوات حاسوبية خاصة وبعضها الآخر من قبل مهندسين متخصصين.
إلى جانب ذلك، يرى المعهد أنه من الضروري فرض قيود متنوعة على قدرات الأنظمة الذكية، لأنه من غير الواضح حاليا إذا كانت هذه الأنظمة ستؤدي إلى ظهور مشاكل أمنية أم لا، فقد تؤدي البنية المعقدة لها إلى جعل عمليات اختراقها ذات فعالية كبيرة، وفي المقابل تستطيع هذه الأنظمة التعلم تلقائيا، مما قد يجعلها أكثر قدرة على الصمود في وجه محاولات الاختراق.
علاوة على ذلك، يجب توفير الرقابة والتحكم المستمرين بأنظمة الذكاء الصناعي رغم صعوبة ذلك بسبب قدرتها على التحايل أثناء أداء المهام المطلوبة، كما أن المطور قد لا ينجح في تغيير أو تعطيل أو تعديل مهام النظام الصناعي الذكي إذا رغب في ذلك بسبب قدرة بعض تلك التقنيات على التصرف بمفردها وتجنب التغييرات، ولذلك اقترح المعهد توسيع الأبحاث في مجال الأنظمة القابلة للإصلاح لبناء أنظمة ذكاء صناعي لا تمانع تقبل التغييرات ولا تتجنبها.
ولأن بعض أنظمة الذكاء الصناعي تتسبب بمشاكل غير متوقعة لدى محاولتها إيجاد حلول لتحقيق أهدافها فقد اقترح المعهد فرض قيود على مهام هذه التقنيات بحيث تكون محدودة التأثير.