الشاهين الإخباري
في حدث تاريخي، وافق الاتحاد الأوروبي يوم الجمعة على قواعد للذكاء الاصطناعي، فيما من المرجح أن يصبح أول تنظيم رئيسي يحكم التكنولوجيا الناشئة في العالم الغربي.
وأمضت مؤسسات الاتحاد الأوروبي الكبرى الأسبوع في مناقشة المقترحات في محاولة للتوصل إلى اتفاق. وتضمنت النقاط الشائكة كيفية تنظيم نماذج الذكاء الاصطناعي التوليدية، المستخدمة لإنشاء أدوات مثل ChatGPT، واستخدام أدوات تحديد الهوية البيومترية، مثل التعرف على الوجه ومسح بصمات الأصابع.
وقد عارضت ألمانيا وفرنسا وإيطاليا التنظيم المباشر لنماذج الذكاء الاصطناعي التوليدية، المعروفة باسم “النماذج الأساسية”، وفضلت بدلا من ذلك التنظيم الذاتي من جانب الشركات المطورة من خلال مدونات قواعد السلوك التي تقدمها الحكومة.
وتتمثل مخاوفهم في أن الإفراط في التنظيم قد يؤدي إلى خنق قدرة أوروبا على التنافس مع قادة التكنولوجيا في الصين وأميركا. وتعد ألمانيا وفرنسا موطنًا لبعض الشركات الناشئة الواعدة في مجال الذكاء الاصطناعي في أوروبا، بما في ذلك DeepL وMistral AI.
ويعد قانون الاتحاد الأوروبي للذكاء الاصطناعي هو الأول من نوعه الذي يستهدف الذكاء الاصطناعي على وجه التحديد، ويأتي بعد سنوات من الجهود الأوروبية لتنظيم التكنولوجيا. وتعود أصول القانون إلى عام 2021، عندما اقترحت المفوضية الأوروبية لأول مرة إطارًا تنظيميًا وقانونيًا مشتركًا للذكاء الاصطناعي.
ويقسم القانون الذكاء الاصطناعي إلى فئات من المخاطر، تبدأ من “غير مقبول” – أي التقنيات التي يجب حظرها – إلى أشكال الذكاء الاصطناعي العالية والمتوسطة والمنخفضة المخاطر.
وأصبح الذكاء الاصطناعي التوليدي موضوعًا رئيسيًا في أواخر العام الماضي بعد الإصدار العام لـ ChatGPT من OpenAI. وظهر ذلك بعد مقترحات الاتحاد الأوروبي الأولية لعام 2021 ودفع المشرعين إلى إعادة التفكير في نهجهم.
وأذهل ChatGPT وأدوات الذكاء الاصطناعي التوليدية الأخرى مثل Stable Diffusion وGoogle’s Bard وClude من Anthropic، الخبراء والمنظمين، بقدرتهم على توليد مخرجات متطورة وشبيهة بالإنسان من خلال استعلامات بسيطة، وباستخدام كميات هائلة من البيانات. ولقد أثارت هذه التقنيات انتقادات بسبب المخاوف بشأن احتمالية إزاحة الوظائف، وتوليد لغة تمييزية وانتهاك الخصوصية.