أخبار التكنولوجيا

الاتحاد الأوروبي يتجه نحو تنظيم أكثر صرامة للذكاء الاصطناعي

في خطوة تاريخية، صوّت ممثلو الدول الأعضاء في الاتحاد الأوروبي لصالح اقتراح في بروكسل، أمس الجمعة، من شأنه إخضاع الذكاء الاصطناعي قريباً لقواعد أكثر صرامة. ويهدف الاقتراح إلى ضمان احترام حقوق الإنسان والقيم الديمقراطية في استخدام التقنيات الحديثة.

ردود الفعل الإيجابية

وقد رحب العديد من المسؤولين الأوروبيين بهذا القرار، معتبرينه خطوة مهمة نحو تعزيز الابتكار والثقة في الذكاء الاصطناعي. وقال وزير العدل الألماني ماركو بوشمان: “اليوم هو يوم جيد للابتكار والحقوق الأساسية في أوروبا”. وأضاف بوشمان إن الطريق أصبح الآن مهيئاً لإطار قانوني آمن يشجع الابتكار، ويعالج المخاطر بشكل مناسب.

وعبرت المفوضة الأوروبية للمنافسة والرقمنة مارغريت فيستاغر عن سعادتها بالتصويت، قائلة: “هذا يعني أننا نستطيع أن نثق في الذكاء الاصطناعي الذي نستخدمه ونطوره في أوروبا. إنه يحترم قيمنا ويحمي حقوقنا”. وأشارت فيستاغر إلى أن الاتحاد الأوروبي يريد أن يكون رائداً في تطوير الذكاء الاصطناعي الأخلاقي والمسؤول.

مراحل التنفيذ

وكان مفاوضون من البرلمان الأوروبي ودول الاتحاد الأوروبي قد توصلوا إلى اتفاق بشأن تنظيم الذكاء الاصطناعي في ديسمبر (كانون الأول)، بعد مفاوضات ماراثونية. وتعتبر موافقة الدول التي تمت اليوم الجمعة بالإجماع بمثابة إجراء شكلي في واقع الأمر. ومع ذلك، لم يكن من المؤكد حتى وقت قريب ما إذا كانت ألمانيا ستصوت لصالح الاتفاق. وأعلن وزير الرقمنة الألماني فولكر فيسينج يوم الثلاثاء الماضي أن الجدل حول موقف ألمانيا بشأن ما يسمى بقانون الذكاء الاصطناعي قد انتهى، من خلال “حل وسط عملي”.

ولا يزال يتعين على البرلمان الأوروبي أيضاً إبداء موافقته. ومن المتوقع أن يتم ذلك في الربيع القادم. وبعد ذلك، سيتم نشر القانون في الجريدة الرسمية للاتحاد الأوروبي، وسيدخل حيز التنفيذ بعد عامين من تاريخ النشر.

محتوى القانون

ويقوم قانون الاتحاد الأوروبي المقرر على أساس اقتراح قدمته المفوضية الأوروبية في عام 2021. وفي المستقبل، سيتم تصنيف أنظمة الذكاء الاصطناعي في مجموعات خطورة مختلفة. فكلما زادت المخاطر المحتملة لتطبيق ما، كلما زادت القواعد الإلزامية بشأنه. والأمل هو أن يتم تطبيق هذه القواعد في جميع أنحاء العالم.

إعلان ممول

وينقسم القانون إلى ثلاث فئات رئيسية:

  • الفئة الأولى: الذكاء الاصطناعي المحظور. وهي تشمل الأنظمة التي تشكل خطراً على السلامة أو الحرية أو الكرامة الإنسانية. ومن الأمثلة على ذلك الأنظمة التي تستخدم التلاعب الاجتماعي أو النفوذ السلبي أو الاستغلال للتأثير على سلوك الأفراد أو القرارات. ويحظر القانون هذه الأنظمة بشكل كامل ودائم.
  • الفئة الثانية: الذكاء الاصطناعي عالي المخاطر. وهي تشمل الأنظمة التي تستخدم في مجالات حساسة مثل الرعاية الصحية أو النقل أو القضاء أو التوظيف. وتتطلب هذه الأنظمة مستوى عالي من الشفافية والمساءلة والجودة. ويجب أن تكون هذه الأنظمة مسجلة في قاعدة بيانات أوروبية، ويجب أن تحمل علامة جودة أوروبية، ويجب أن تحترم حقوق المستخدمين

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى