قواعد الخصوصية الأوروبية تفسد حفلة الذكاء الاصطناعي لشركات التكنولوجيا الكبرى

بعد أكثر من ست سنوات من دخولها حيز التنفيذ، بدأت قواعد حماية البيانات القوية في أوروبا تحصل على دفعة ثانية – من خلال إحباط خطط الذكاء الاصطناعي لشركات التكنولوجيا الكبرى.

في غضون بضعة أشهر فقط، أوقفت شركات جوجل وميتا وإكس ولينكدإن أو أخرت مشاريع الذكاء الاصطناعي في الاتحاد الأوروبي، ملقية باللوم على عدو قديم ومألوف: البيروقراطية في بروكسل.

إن المرونة التنظيمية تأتي بشكل رئيسي من سلطات حماية البيانات، التي لديها القدرة على فرض اللائحة العامة لحماية البيانات في الاتحاد الأوروبي.

وقد استخدمت لجنة حماية البيانات الأيرلندية على وجه الخصوص سلطاتها الكبيرة لمنع طرح الذكاء الاصطناعي من قبل أكبر شركات العالم – وهو تحول حاد بعد سنوات من الانتقادات بأن هيئتها التنظيمية كانت بطيئة للغاية في فرض غرامات على شركات التكنولوجيا الكبرى بسبب انتهاكات الخصوصية.

وتأتي العقبات التي تعترض تكنولوجيا الذكاء الاصطناعي في وقت تعيد فيه الاتحاد الأوروبي النظر في تقاليدها في التدخل التنظيمي الصارم ــ وخاصة فيما يتصل بالذكاء الاصطناعي، الذي يُنظر إليه على أنه أمر بالغ الأهمية في جهود أوروبا للتنافس مع الولايات المتحدة والصين ومناطق أخرى في العالم.

لقد أشعلت الإجراءات التي اتخذتها الهيئات التنظيمية عداء شركات التكنولوجيا الكبرى تجاه قوانين الاتحاد الأوروبي الرقمية والبيانات. فقد أطلقت شركة ميتا وجوجل وشركات أخرى حملات ضغط مكثفة في الأسابيع الأخيرة لإيصال الرسالة إلى مسؤولي الاتحاد الأوروبي: كفى من القمع القاسي للخدمات الجديدة.

“أصبحت أوروبا أقل قدرة على المنافسة وأقل ابتكارًا مقارنة بالمناطق الأخرى وهي الآن تخاطر بالتخلف أكثر في عصر الذكاء الاصطناعي”، كتب مارك زوكربيرج من شركة ميتا، إلى جانب رؤساء تنفيذيين من شركات تتراوح من SAP إلى Stripe، في رسالة مفتوحة في منتصف سبتمبر.

وفي أعقاب ذلك، دعم كبار المسؤولين التنفيذيين في مجال التكنولوجيا في أوروبا شركات التكنولوجيا الكبرى، محذرين من الإفراط في تنظيم الذكاء الاصطناعي أو استدعاء التنظيم “المجزأ” الذي يتم تنفيذه بشكل غير متسق.

وحث كينت ووكر، كبير مسؤولي الضغط في جوجل، مسؤولي الاتحاد الأوروبي على “التراجع” والتفكير في كيفية “تبسيط وتبسيط” الإطار التنظيمي للتكنولوجيا.

وذكر تقرير صادر عن جوجل أنه فقط من خلال مثل هذا الإطار التنظيمي “المؤيد للابتكار” يمكن للاتحاد الأوروبي إضافة 1.2 تريليون يورو إلى ناتجه المحلي الإجمالي على مدى السنوات العشر المقبلة.

توقف الذكاء الاصطناعي في أيرلندا
تواجه شركات التكنولوجيا التدقيق من جميع الجهات بشأن البيانات التي تستخدمها لتدريب نماذج الذكاء الاصطناعي الخاصة بها.

ويحاول الناشرون التوصل إلى طريقة للحصول على صفقة عادلة من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي والتي تلتهم محتواهم، حيث رفعت صحيفة نيويورك تايمز دعوى قضائية ضد OpenAI وMicrosoft.

ويشعر الموسيقيون والفنانون بالقلق على حد سواء، حيث قامت Universal Music Group بسحب موسيقاها لفترة وجيزة من TikTok بسبب مخاوف تتعلق بالذكاء الاصطناعي.

في أوروبا، يتم التدقيق الفوري من خلال هيئات مراقبة الخصوصية التي تشرف على كيفية تعامل شركات التكنولوجيا مع البيانات الشخصية للأوروبيين مثل المنشورات والصور والتفاعلات على وسائل التواصل الاجتماعي.

هذه السلطات مسؤولة عن التحقق مما إذا كانت شركات التكنولوجيا لديها الحق في استخدام البيانات الشخصية لمستخدميها لتغذية الذكاء الاصطناعي.

إن السؤال الرئيسي الذي لا يزال المنظمون يحاولون التوصل إلى إجابة له هو ما يسمى بالأساس القانوني لاستخدام البيانات: الأسباب الصالحة (التي يوجد منها ستة بموجب اللائحة العامة لحماية البيانات) التي تعتمد عليها شركات التكنولوجيا ووسائل التواصل الاجتماعي لمعالجة بياناتها لأغراض الذكاء الاصطناعي.

قالت جمعية حقوق المستهلك الأوروبية BEUC في تعليق لها: “إن شركات التكنولوجيا التي تستغل الإنترنت لتغذية أنظمة الذكاء الاصطناعي الخاصة بها تحتاج إلى التحقق من الواقع: يجب أن يظل المستهلكون دائمًا مسيطرين على بياناتهم الشخصية”.

قال توبياس جودين، الخبير القانوني في هيئة حماية البيانات النرويجية: “إن اللائحة العامة لحماية البيانات موجودة لتوجيه الابتكار في الاتجاه الصحيح. وإذا لم تحترم الحقوق الأساسية للناس، فلن يكون لديك ابتكار جيد”.

بالنسبة لشركات التكنولوجيا الكبرى، فإن هذا يعني التأخير والصعوبات. فقد أرجأت كل من Meta و X و LinkedIn مؤخرًا طرح تطبيقات الذكاء الاصطناعي الجديدة في أوروبا بعد تدخل من هيئة حماية البيانات الأيرلندية.

ويواجه نموذج PaLM2 من Google تحقيقًا من قبل نفس الهيئة التنظيمية، والتي أجبرت Google أيضًا على إيقاف إصدار روبوت الدردشة Bard الخاص بها العام الماضي.

أشارت هذه التحركات إلى تحول صارخ في الاستراتيجية في السلطة الأيرلندية، والتي واجهت تحت قيادة المفوضة السابقة هيلين ديكسون انتقادات واسعة النطاق لكونها بطيئة للغاية في محاسبة شركات التكنولوجيا الكبرى على انتهاكات الخصوصية.

شهدت السلطة تغييرًا في الحرس في وقت سابق من هذا العام، مع تولي اثنين من المفوضين المشاركين، ديس هوجان وديل سندرلاند، منصب ديكسون. سعى هوجان وسندرلاند إلى تجنب انتقادات أقرانهم في أوروبا، واتخذوا خطًا صارمًا ضد شركات التكنولوجيا الكبرى يتناسب بشكل أفضل مع الطريقة التي تريد بها الهيئات التنظيمية الأخرى أن تتصرف أيرلندا.

وفي حالة X، اتخذت الهيئة التنظيمية في دبلن خطوة غير مسبوقة بمطالبة المحكمة العليا في أيرلندا بإصدار أمر لشبكة التواصل الاجتماعي بتعليق أو تقييد أو حظر معالجتها للبيانات الشخصية.

لقد تدخلت هيئة تنظيم الخصوصية في إيطاليا في وقت سابق من خلال حظر ChatGPT من OpenAI في البلاد في مارس 2023 – تمامًا كما أرسل إطلاق برنامج الدردشة الآلي موجات صدمة عبر قطاع التكنولوجيا.

ولا يقتصر الأمر على قانون حماية البيانات فحسب. فقد أعلنت شركة أبل خلال الصيف عن طراز جديد من آيفون يعمل بالذكاء الاصطناعي، لكنها أرجأت طرحه في أوروبا لأنها تحتاج إلى التحقق من مدى قدرته على الصمود في مواجهة قانون المنافسة الرقمية الجديد في الاتحاد الأوروبي، قانون الأسواق الرقمية .

قد يعجبك ايضا