1. تخطي إلى المحتوى
  2. تخطي إلى القائمة الرئيسية
  3. تخطي إلى المزيد من صفحات DW

قواعد ومعايير صارمة.. قانون أوروبي للذكاء الاصطناعي

١٤ يونيو ٢٠٢٣

يسعى الاتحاد الأوروبي إلى لجم الذكاء الاصطناعي والسيطرة عليه من خلال قواعد ومعايير تنظم استخدامه. وفي هذا الإطار يناقش البرلمان الأوروبي مشروع قانون الذكاء الاصطناعي، فما هي ملامحه ومبادئه الأساسية؟

https://p.dw.com/p/4SWgv
صورة رمزية للذكاء الاصطناعي
استخدام الذكاء الاصطناعي لم يعد يقتصر على عمل الروبوتات فقط وإنما يقتحم حياتنا اليومية أكثر فأكثرصورة من: Knut Niehus/CHROMORANGE/picture alliance

يعمل الاتحاد الأوروبي على تنظيم ووضعقواعد ومعايير للذكاء الاصطناعي واستخداماته، وفي هذا السياق يناقش البرلمان الأوروبي في جلسته اليوم الأربعاء (14 يونيو/ حزيران 2023) مشروع قانون الذكاء الاصطناعي. مدير شركة OpenAI الأمريكية، سام ألتمان، التي طورت برنامج المحادثة "تشات جي بي تي/ ChatGPT" حذر من التنظيم الزائد خلال زيارته إلى ألمانيا، لكنه تراجع عن تهديده السابق بعدم توفير خدمات "تشات جي بي تي" في أوروبا. وأشار إلى أن وضع قواعد للذكاء الاصطناعي أمر جيد من حيث المبدأ، لكن "نحتاج للوضوح". ألتمان شخصية مرموقة ولكلامه وزن في مجال الذكاء الاصطناعي، فخلال زيارته إلى ألمانيا استقبله المستشار أولاف شولتس.

معايير أوروبية وليس المنع

الضغوط التي تمارسها شركة OpenAI والشركة الأم مايكروسوفت، لا تثير قلق عضو البرلمان الأوروبي رينيه ريبازي، فهو يرى أن السوق الأوروبية جذابة جدا لمقدمي خدمات الذكاء الاصطناعي، ولا يستطيعون تجاهلها. ويقول ريبازي الذي ينتمي لكتلة الاشتراكيين الديمقراطيين في البرلمان الأوروبي "من يريد أن يبيع/ تقديم ذكائه الاصطناعي هنا، يجب أن يمتثل لمعاييرنا".

الكونغرس الأمريكي أيضا يسعى لوضع قواعد للذكاء الاصطناعي ومحركات التعليم الذاتي. وهناك تواصل بين نواب أوروبيين وأمريكيين في هذا المجال، حسب ريبازي الذي أكد ذلك بقوله "في النهاية نريد الوصول إلى معايير عقلانية وليس المنافسة ضد بعضنا البعض". فشركات التقنية الأمريكية لديها رؤوس أموال ضخمة وكم هائل من البيانات، وتفوقٌ في هذا المجال تسعى للدفاع عنه. لكن هذا لا يعني أن القواعد الأوروبية ستمنع الشركات الناشئة في الاتحاد الأوروبي من مواصلة العمل في مجال تطوير الذكاء الاصطناعي، يقول ريبازي، ويضيف بأن "وجود هذا الكم من عمالقة التكنولوجيا في الولايات المتحدة يتعلق بالسوق المعطلة حيث يسرح ويمرح المحتكرون، أكثر مما يتعلق بمكان وجود ابتكارات كبيرة".

جلسة للبرلمان الأوروبي في ستراسبورغ 06.07.2022
يناقش البرلمان الأوروبي مشروع قانون ينظم استخدام الذكاء الاصطناعي وفق قواعد ومعايير محددةصورة من: Jean-Francois Badias/AP/dpa/picture alliance

تحذيرات من الذكاء الاصطناعي

أحد آباء الذكاء الاصطناعي، الموظف السابق لدى غوغل، جيفري هينتون، حذر مؤخرا في مقابلات من مخاطر اختراعه. إذ أن الذكاء الاصطناعي التوليدي يمكن أن يصبح قريبا أذكى من الإنسان، الذي أوجده، والتغيرات التي سيحدثها في سوق العمل لم تتضح بعد. حتى مطورو النظام وكبار مدراء مايكروسوفت وغوغل يعترفون بأنهم لم يعودوا يعرفون بالضبط كيف تعمل التطبيقات ذات الذكاء الاصطناعي. وفي رسالة مفتوحة اقترح عدد من الباحثين ورجال الأعمال بينهم إيلون ماسك، التوقف عن تطوير الذكاء الاصطناعي حتى نهاية العام، حتى يتسنى وضع قواعد له.

رد الاتحاد الأوروبي جاء من خلال مشروع قانون تتم مناقشته منذ عامين، ومن حيث المبدأ يرى القانون أنه يجب تقسيم استخدامات الذكاء الاصطناعي إلى مستويات مختلفة للمخاطر. فالأنظمة الخطرة جدا التيتحلل وتتنبأ بالسلوك الاجتماعي للناس بشكل غير مقبول، يجب حظرها. هذه الأنظمة الخطرة يجب أن تخضع للقواعد والحدود. أما الاستخدامات البسيطة للذكاء الاصطناعي مثل روبوتات المحادثة على غرار "تشات جي بي تي" لا ينبغي تقييدها بشكل كبير. مع العلم أن كل الخدمات التي يتم توفيرها بواسطة الذكاء الاصطناعي، يجب توضيحها بشكل بارز. ويقدم النائب الأوروبي ريبازي مثالا على ذلك، تقديم طلب للحصول على قرض من البنك، الذي يتم فحصه من قبل كمبيوترات، ويقول "إذا جاءت نتيجة الفحص سلبية، نريد أن يكون من حق المرء أن يطلب فحص طلبه من قبل إنسان. لكن بالإضافة إلى ذلك يجب أن يعرف المرء أنه قد تواصل مع تطبيق للذكاء الاصطناعي" بشأن طلبه.

جيفري هينتون أحد آباء الذكاء الاصطناعي في مؤتمر لمؤسسة رويترز تومسون في كندا 04.12.2017
جيفري هينتون أحد آباء الذكاء الاصطناعي يحذر من تغوله وتفوقه على ذكاء الإنسانصورة من: Mark Blinch/REUTERS

قانون الذكاء الاصطناعي خلال عامين!

من المرجح أنه يجب الانتظار حتى بداية عام 2025 ليكتمل قانون الذكاء الاصطناعي ويدخل حيز التنفيذ في أوروبا، إذ أنه ليس بحاجة لموافقة البرلمان الأوروبي فقط، وإنما موافقة جميع الدول الـ 27 الأعضاء في الاتحاد أيضا. وتطورات الذكاء الاصطناعي مثل "تشات جي بي تي" لم تكن مطروحة في الأسواق قبل عامين ويمكن أن يكون الذكاء الاصطناعي قد تطور بشكل كبير حين تدخل قواعد الاتحاد الأوروبي حيز التنفيذ، يقول البرلماني الأوروبي أكسيل فوس، ويضيف لـ DW "لكن التطور موجود في الواقع ويتقدم بشكل سريع، بحيث أن الكثير من القوانين لن تكون متناسبة مع الزمن حين تدخل حيز التنفيذ".

والنائب فوس الذي ينتمي لكتلة المسيحيين الديمقراطيين يهتم منذ أعوام بالذكاء الاصطناعي ويساهم بشكل فعال في صياغة قانون الاتحاد الأوروبي للذكاء الاصطناعي، ويحذر من التعامل بحظر صارم مع الذكاء الاصطناعي، بقوله "لأسباب تنافسية ولأننا متخلفون، في الواقع نحن بحاجة لمزيد من الانفتاح للتعامل بشكل مكثف مع مسألة الذكاء الاصطناعي. لكن ما يظهر لدى الأغلبية هنا في البرلمان الأوروبي، هو أنها تسترشد بالمخاوف والقلاقل وتحاول استبعاد كل شيء".

ويطالب مفوضو شؤون حماية البيانات في دول الاتحاد الأوروبي بإشراف مستقل على استخدامات الذكاء الاصطناعي والمزيد من التعديلات المتعلقة بحماية البيانات.

وحسب رأي البرلماني الاشتراكي رينيه ريبازي، يجب أن يكون قانون الذكاء الاصطناعي مرنا. وينبغي تحديد ما هو خطير جدا أو أقل خطورة بالنسبة لاستخدامات الذكاء الاصطناعي، في ملحق القانون وليس في نص القانون ذاته، حيث يمكن دائما تعديل الملحق بسرعة وسهولة بما يتناسب مع التطور التقني.

لوائح قانونية لضبط أنظمة الذكاء الاصطناعي؟

الفحص يمكن أن يعزز الثقة بالذكاء الاصطناعي

بالنسبة للشركات التي تريد توفير الاستخدامات المحفوفة بالمخاطر للذكاء الاصطناعي في أوروبا، يجب أن تستوفي جملة شروط صارمة وتستعد لإدارة المخاطر المتعلقة بمنتجاتها. والبيانات والمعلومات التي يتم من خلالها تدريب برامج الذكاء الاصطناعي يجب فحصها من قبل الإنسان. والأشخاص الذين يقدمون المعلومات يجب إخبارهم بمجال استخدام معلوماتهم.

في أبريل/ نيسان الماضي حظرت هيئة حماية البيانات الإيطالية "تشات جي بي تي" لمدة قصيرة بسبب نقص في حماية البيانات، ورفعت الحظر بعدما أدخلت شركة Open AI بعض التعديلات.

وفي ألمانيا تدرس جمعيات المراقبة التقنية والهيئة الاتحادية لأمن المعلومات ومعهد فراونهوفر للتحليل الذكي وأنظمة المعلومات، تقديم شهادات (سلامة) لاستخدامات الذكاء الاصطناعي. ومثلما هو الحال بالنسبة للسيارات التي يجب أن تخضع بشكل دوري لفحص تقني، يجب فحص استخدامات الذكاء الاصطناعي وتقديم شهادة تقنية من جهة مشرفة مستقلة. فاستخدام الذكاء الاصطناعي مثلا في السيارات ذاتية القيادة أو روبوتات العمليات الجراحية، يحتاج إلى ثقة كبيرة، يمكن أن تتعزز من خلال هذه الشهادة.

بيرند ريغرت/ عارف جابو