تكنولوجيا

دراسة جديدة: هل يوشك الذكاء الاصطناعي على تجاوز السيطرة؟

الشاهين الاخباري

انتقل الذكاء الاصطناعي من مجرد أداة تُستخدم في الترجمة وتحليل البيانات إلى قوة عالمية صاعدة تفرض حضورها في مجالات الهندسة والصناعة والطب والإعلام والسياسة والأمن، بينما تتزايد التساؤلات حول قدرته المستقبلية على إعادة برمجة ذاته دون تدخل الإنسان.

وفي هذا السياق، نشر مركز الجزيرة للدراسات ورقة بحثية بعنوان «الذكاء الاصطناعي وإعادة البرمجة الذاتية: سيناريوهات الانفجار الذكي» أعدها الدكتور خالد وليد محمود، رئيس قسم الإعلام والاتصال في معهد الدوحة للدراسات العليا، تناولت جذور فرضية الانفجار الذكي، ومن يتحكم في هذه القوة، ومخاطر استقلال الذكاء الاصطناعي عن البشر.

الورقة ناقشت تطور فكرة “الانفجار الذكي”، التي تعود جذورها إلى عام 1965 حين طرح عالم الرياضيات البريطاني آي. جي. غود نظريته حول أول آلة فائقة الذكاء، القادرة على تحسين تصميمها الذاتي باستمرار حتى تتجاوز القدرات البشرية.

وقد طوّر الفيلسوف السويدي نيك بوستروم هذه الفرضية لاحقًا في كتابه الشهير «الذكاء الفائق: المسارات والمخاطر والإستراتيجيات»، محذرًا من أن لحظة الوصول إلى ذكاء فائق قد تكون “أسوأ ما تواجهه البشرية”.

وفي المقابل، انتقد باحثون مثل غاري ماركوس وأرفيند نارايانان فكرة الانفجار الذاتي، معتبرين أنها تتجاهل القيود التقنية والمادية، مشيرين إلى أن الذكاء الاصطناعي سيظل مرتبطًا بالبنية المادية والموارد البشرية.

من جهة أخرى، يشير تقرير مشروع مستقبل الذكاء الاصطناعي (2025) إلى أن الأنظمة الذكية قد تتمكن خلال عامين من إعادة تصميم بنيتها الداخلية، ما يجعلها قادرة على التطور الذاتي، في خطوة قد تُعيد تشكيل علاقة الإنسان بالتقنية جذريًا.

وبينما ترى بعض الأبحاث أن هذه الفرضيات ما تزال نظرية، تتعامل الولايات المتحدة والصين والاتحاد الأوروبي معها بوصفها سيناريو واقعيًا، وتسعى إلى تأسيس تشريعات واستراتيجيات وقائية استعدادًا لمرحلة “الذكاء الفائق”.

وعلى الرغم من القفزات الهائلة في قدرات الأنظمة الحديثة مثل ChatGPT وGemini وClaude، فإنها لا تزال تعتمد على بنية تحتية بشرية معقدة تشمل مراكز بيانات ضخمة ومعالجات فائقة وأنظمة تبريد هائلة، ما يؤكد أنها لم تبلغ بعد مرحلة الاستقلال الذاتي الكامل.

وتثير هذه التطورات تساؤلات أخلاقية عميقة حول مصير الإنسان ودوره المستقبلي، إذ حذرت الأمم المتحدة من أن الذكاء الاصطناعي قد يتحول إلى “صندوق أسود” لا يفهم البشر آلياته، داعية إلى إعداد «معاهدة للذكاء الاصطناعي» على غرار معاهدة حظر الأسلحة النووية.

ويرجح الباحثون سيناريوهين رئيسيين لمستقبل الذكاء الاصطناعي:

السيناريو التفاؤلي: أن يصبح شريكًا للبشر في اتخاذ القرار والتنمية.

السيناريو التشاؤمي: أن يتفوق عليهم ويهدد الملايين من الوظائف.

ومع تزايد سرعة التطورات التقنية، يؤكد الخبراء أن التحولات الكبرى لا تنتظر استعداد البشر لها، ما يجعل التفكير في مستقبل الذكاء الاصطناعي ضرورة وجودية للبشرية جمعاء.

زر الذهاب إلى الأعلى