دخل قانون الذكاء الاصطناعي الاوروبي حيز التنفيذ اعتبارا من أمس أول أغسطس .أعلنت ذلك رئيسة المفوضية الأوروبية، أورسولا فون دير لاين، في منشور وقالت إن الذكاء الاصطناعي سيقود النمو و يمكن للأوروبيين الوثوق به وتقديم الدعم للشركات الأوروبية الصغيرة والمتوسطة والشركات الناشئة لتقديم حلول الذكاء الاصطناعي المتطورة إلى السوق “.

وسيكون التشريع الجديد قابلا للتطبيق بالكامل في غضون 24 شهرا ، مما يعني أنه بحلول 2 أغسطس 2026 ، سيتعين على جميع الدول الأعضاء الامتثال للأحكام ، مع بعض الاستثناءات.

وبالنسبة لحظر الممارسات المحظورة، سيبدأ التنفيذ بالفعل بعد ستة أشهر، ولمدونات قواعد السلوك بعد تسعة أشهر، ولقواعد الذكاء الاصطناعي العامة (بما في ذلك الحوكمة) بعد 12 شهرا.

وستتأخر الالتزامات المتعلقة بالنظم الشديدة الخطورة لمدة سنة أخرى، على أن يتم تنفيذها بعد 36 شهرا.

و بالنظر إلى توقيت دخول اللائحة الجديدة حيز التنفيذ والتأثير المحتمل للتقنيات الجديدة التي ستستمر في التطور كان الاتحاد الأوروبي أطلق ميثاقه بشأن الذكاء الاصطناعي في منتصف نوفمبر 2023 لتوقع متطلبات الذكاء الاصطناعي طواعية وتسهيل الانتقال إلى تطبيق القواعد الجديدة.

وتوفر لائحة الاتحاد الأوروبي مستوى أفقيا لحماية المستخدم ، مع مقياس مخاطر من أربعة مستويات لتنظيم تطبيقات الذكاء الاصطناعي: الحد الأدنى والمحدود والعالي وغير المقبول. ستكون هناك متطلبات شفافية خفيفة للغاية للأنظمة ذات المخاطر المحدودة ، مثل الكشف عن أن المحتوى يتم إنشاؤه بالذكاء الاصطناعي.

و بالنسبة لأولئك الذين يعانون من مخاطر عالية ، سيكون هناك تقييم لتأثير الحقوق الأساسية قبل السوق ، بما في ذلك شرط التسجيل في قاعدة بيانات مخصصة للاتحاد الأوروبي ومتطلبات البيانات والوثائق الفنية التي سيتم تقديمها لإثبات امتثال المنتج.

تضع اللائحة على مستوى غير مقبول – وبالتالي تحظره – أنظمة التلاعب بالسلوك المعرفي ، والجمع غير المستهدف لصور الوجه من الإنترنت أو لقطات الدوائر التلفزيونية المغلقة لإنشاء قواعد بيانات التعرف على الوجه ، والتعرف على المشاعر في مكان العمل والمؤسسات التعليمية ، و “التسجيل الاجتماعي” من قبل الحكومات ، والتصنيف البيومتري لاستنتاج البيانات الحساسة (المعتقدات السياسية أو الدينية أو الفلسفية أو التوجه الجنسي) أو المعتقدات الدينية ، وبعض حالات الشرطة التنبؤية للأفراد.

تتضمن اللائحة إجراء طارئا يسمح لإنفاذ القانون باستخدام أداة ذكاء اصطناعي عالية الخطورة فشلت في إجراء التقييم ، والتي سيتعين عليها الحوار حول حماية الحقوق الأساسية مع الآلية المحددة. هناك أيضا استثناءات لاستخدام أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن التي يمكن للجمهور الوصول إليها ستكون رهنا بإذن قضائي وقوائم محددة بدقة من الجرائم. و لا يجوز أن يكون هناك سوى استخدام “عن بعد” للتفتيش المستهدف لشخص مدان أو يشتبه في ارتكابه جريمة خطيرة.

ويمكن استخدام الاستخدام الآني، “المحدود زمانا ومكانا”، لعمليات تفتيش تستهدف الضحايا (الاختطاف، والاتجار، والاستغلال الجنسي)، ومنع تهديد إرهابي “محدد وحالي”، ولتحديد مكان أو تحديد هوية شخص يشتبه في ارتكابه جرائم محددة (الإرهاب، والاتجار بالبشر، والاستغلال الجنسي، والقتل، والاختطاف، والاغتصاب، والسطو المسلح، والمشاركة في منظمة إجرامية، والجرائم البيئية).

ومن بين الترتيبات الجديدة القائمة بالفعل مكتب الذكاء الاصطناعي المخصص داخل المفوضية الأوروبية للإشراف على أنظمة الذكاء الاصطناعي للأغراض العامة المدمجة في أنظمة أخرى عالية المخاطر، ويحيط به منتدى استشاري لأصحاب المصلحة (ممثلون عن الصناعة، والشركات الصغيرة والمتوسطة، والشركات الناشئة، والمجتمع المدني، والأوساط الأكاديمية).

و لمراعاة مجموعة واسعة من المهام التي يمكن أن تؤديها أنظمة الذكاء الاصطناعي – إنشاء الفيديو أو النص أو الصور أو محادثة اللغة الجانبية أو الحوسبة أو إنشاء رمز الكمبيوتر – والتوسع السريع في قدراتها ، نماذج الأساس “عالية التأثير” (نوع من الذكاء الاصطناعي التوليدي المدرب على مجموعة واسعة من البيانات المعممة الخالية من الملصقات) ..سيتعين عليه الامتثال للعديد من متطلبات الشفافية قبل طرحه في السوق ، من صياغة الوثائق الفنية إلى الامتثال لقانون حقوق الطبع والنشر في الاتحاد الأوروبي إلى نشر ملخصات مفصلة للمحتوى المستخدم للتدريب.