الاتحاد الأوروبي يحذر من خطورة تكنولوجيا الذكاء الاصطناعي ويطالب بحظرها
الشبكة العربية لمعلومات وأحداث حقوق الإنسان – دعت منظمة العفو الدولية لوضع لوائح خاصة بالذكاء الاصطناعي في الاتحاد الأوروبي بما يحمي ويعزز حقوق الإنسان، ومن ضمنها حقوق النازحين واللاجئين والمهاجرين.
ومن المقرر أن تجري مفاوضات ثلاثية الأطراف رفيعة المستوى بهدف تبني قانون الذكاء الاصطناعي بحلول نهاية التفويض الحالي للاتحاد الأوروبي في 2024.
ستجري المفاوضات مع مايعرف بالثلاثيات (Trilogues) بين البرلمان الأوروبي، ومجلس الاتحاد الأوروبي (الذي يمثل الدول الأعضاء السبع والعشرين في الاتحاد الأوروبي)، والمفوضية الأوروبية وذلك في شهر أكتوبر/تشرين الأول،
هذا وطالبت منظمة العفو الدولية الاتحاد الأوروبي بحظر التكنولوجيات الخطرة التي تعمل بالذكاء الاصطناعي في قانون الذكاء الاصطناعي.
وذلك في الوقت الذي تهدف فيه الكتلة إلى إنجاز أول كتاب قواعد شامل في العالم يتعلق بالذكاء الاصطناعي هذا الخريف.
لقد استخدمت دول عديدة في شتى أرجاء العالم أنظمة ذكاء اصطناعي غير خاضعة للتنظيم لتقييم طلبات الرعاية الاجتماعية، أو مراقبة الأماكن العامة، أو تحديد احتمال إقدام شخص ما على ارتكاب جريمة.
وغالبًا ما تُصنَّف هذه التكنولوجيات ’كعلاجات تقنية‘ لقضايا بنيوية مثل الفقر، والتحيز القائم على النوع الاجتماعي، والتمييز.
وهي تستخدم معطيات حساسة وبكميات هائلة في كثير من الأحيان، وتُلقَّم هذه المعطيات في أنظمة مؤتمتة لتحديد ما إذا كان الشخص يجب أن يحصل أم لا على السكن، والمزايا، والرعاية الصحية، والتعليم – أو حتى ما إذا كان يجب أن يُتهم بارتكاب جريمة.
ومع ذلك فبدلًا من أن تحل أنظمة الذكاء الاصطناعي المشاكل الاجتماعية، قد ضخّم العديد منها بشكل صارخ العنصرية وأوجه عدم المساواة، وأدام الأذى الذي يلحق بحقوق الإنسان، والتمييز.
وقال مهير هاكوبيان، مستشار الدعوة إلى المناصرة بشأن لوائح الذكاء الاصطناعي في منظمة العفو الدولية إن: “هذه الأنظمة لا تُستخدم لتحسين إمكانية حصول الناس على الرعاية الاجتماعية، بل لخفض التكاليف”.
وأضاف: “عندما يكون لديكم أصلًا عنصرية وتمييز ممنهجان، فإن هذه التكنولوجيات تُضخّم الأذى الذي يلحق بالمجتمعات المهمشة على نطاق أكبر بكثير وبصورة أسرع بكثير”.
وتابع بقوله: “بدلًا من التركيز بصورة غير متناسبة ومبالغ فيها على ’التهديدات الوجودية‘ التي يشكلها الذكاء الاصطناعي، يتعين على المشرّعين في الاتحاد الأوروبي صياغة قوانين تعالج المشكلات القائمة، مثل حقيقة أن هذه التكنولوجيات تُستخدم لاتخاذ قرارات تمييزية بشكل صارخ تُقوّض إمكانية التمتّع بحقوق الإنسان الأساسية”.
في عام 2021، وثّقت منظمة العفو الدولية كيف أن نظامًا للذكاء الاصطناعي تستخدمه سلطات الضرائب الهولندية قد نمّط عنصريًا مُتلقّيْ مزايا رعاية الأطفال.
وكان من المفترض أن تتحقق الأداة مما إذا كانت طلبات المزايا صادقة أو احتيالية، لكن النظام عاقب على نحو خاطئ آلاف الآباء والأمهات من ذوي الدخل المنخفض والخلفيات المهاجرة، فأغرقهم في الديون الباهظة والفقر.
وقالت باتيا براون – التي اتهمها نظام رعاية الأطفال الهولندي زورًا بالاحتيال للحصول على المزايا – إن سلطات الضرائب الهولندية طالبتها بإعادة دفع مئات آلاف اليورو.
فعلقت في شباك البيروقراطية والقلق المالي. وبعد سنوات، تظل العدالة بعيدة المنال.
وأضافت باتيا براون أن: “الأمر كان غريبًا جدًا؛ فقد تلقيتُ رسالة تقول إنني حصلت على مزايا رعاية الأطفال خطأً”.
وأضافت: “فقلت في نفسي، ’كيف يمكن ذلك؟‘ كنت في مطلع العشرينيات من عمري. ولم أكن أعرف الكثير عن سلطات الضرائب”.
وتابعت براون: “وجدتُ نفسي في عالم المعاملات الورقية هذا. ورأيت أن كل شيء يضيع مني. ومنذ الإقرار بأننا ضحايا لما أسميه ’جريمة المزايا‘، لا نزال نُعامَل كرقم حتى بعد مضي أربع سنوات”.
وقال مهير هاكوبيان إن: “فضيحة مزايا رعاية الأطفال الهولندية يجب أن تشكل تحذيرًا للمشرّعين في الاتحاد الأوروبي”.
وتابع: “إذ إن استخدام أنظمة الذكاء الاصطناعي لمراقبة تقديم مزايا ضرورية يمكن أن يؤدي إلى عواقب وخيمة على المجتمعات المهمشة”.
وأردف قائلاً: “ينبغي حظر كافة أنظمة التقييم الاجتماعي، والتنميط، وتقييم المخاطر في قانون الذكاء الاصطناعي، سواء استُخدمت لمراقبة متلقي الحماية في مجال الرعاية، أو ’التنبؤ‘ بمدى احتمال إقدام شخص ما على ارتكاب جريمة، أو اتخاذ قرارات فيما يخص طلبات اللجوء”.
تحت ستار ’الأمن الوطني‘، أصبحت أنظمة التعرّف على الوجه تتحول إلى أداة تلجأ إليها الحكومات التي تسعى إلى مراقبة الأشخاص على نحو مفرط في المجتمع.
وتستخدم أجهزة إنفاذ القانون هذه الأنظمة في الأماكن العامة للتعرف على الأشخاص الذين يمكن أن يكونوا قد ارتكبوا جريمة، برغم خطر الاعتقال الخاطئ.
وقد دعت منظمة العفو الدولية – ضمن ائتلاف يضم ما يزيد على 155 منظمة – إلى ضمان الحظر التام للتعرّف المباشر أو اللاحق على الوجه في الأماكن المتاحة لعامة الجمهور، ومن ضمنها المناطق الحدودية وحول مرافق الاحتجاز، من جانب جميع الجهات الفاعلة في الاتحاد الأوروبي بدون أي استثناء.
وفي أماكن تشمل نيويورك، وحيدر آباد، والأراضي الفلسطينية المحتلة، وثّقت منظمة العفو الدولية وكشفت كيف أن أنظمة التعرف على الوجه تُسرّع أنظمة المراقبة والتمييز القائمة؛ ففي الأراضي الفلسطينية المحتلة، تستخدم السلطات الإسرائيلية التعرّف على الوجه للمراقبة الشرطية للفلسطينيين والسيطرة عليهم، مقيدةً بذلك حريتهم في التنقل وقدرتهم على الحصول على الحقوق الأساسية.
كذلك كشفت البحوث التي أجرتها منظمة العفو الدولية كيف أن الكاميرات التي تُصنعها شركة تي كي إتش للأمن (TKH Security) – وهي شركة هولندية – تُستخدَم كجزء من جهاز المراقبة في القدس الشرقية المحتلة.
وأضاف مهير هاكوبيان بأنه: “إلى جانب الحرص على فرض حظر كامل على التعرف على الوجه داخل الاتحاد الأوروبي، ينبغي على المشرّعين أن يضمنوا بألا يتم ضمن الاتحاد الأوروبي تصنيع هذه التكنولوجيا وغيرها من التكنولوجيات الشديدة الإشكالية المحظورة داخل الكتلة، ليتمّ بعد ذلك تصديرها إلى بلدان تُستخدم فيها لارتكاب انتهاكات خطيرة لحقوق الإنسان”.
وقال: “يترتب على الاتحاد الأوروبي والدول الأعضاء فيه واجبات بموجب القانون الدولي لضمان عدم تحقيق الشركات الخاضعة لولاياتهم القضائية أرباحًا من انتهاكات حقوق الإنسان عبر تصدير تكنولوجيات تُستخدم للمراقبة الجماعية وحفظ الأمن المتسم بالعنصرية”.
إن الدول الأعضاء في الاتحاد الأوروبي قد لجأت بشكل متزايد إلى استخدام تكنولوجيات غير شفافة وعدائية لتسهيل الانتهاكات ضد المهاجرين، واللاجئين وطالبي اللجوء عند حدودها.
وينبغي على المشرّعين حظر أنظمة التنميط وتقييم المخاطر العنصرية التي تُصنّف المهاجرين وطالبي اللجوء ’كتهديدات‘، فضلًا عن التكنولوجيات التنبؤية التي تُستخدم للتنبؤ بالتحركات على الحدود ولحرمان الأشخاص من حق اللجوء.
وقالت أليكس حنا، مديرة بحوث في معهد بحوث الذكاء الاصطناعي الموزعة (DAIR) إنه: “في كل مرة تمرّون فيها عبر مطار، وكل مرة تعبرون فيها حدودًا، وكل مرة تتقدّمون فيها بطلب للحصول على وظيفة، تخضعون لقرارات هذه النماذج”.
وأضافت: “لسنا مضطرين للوصول إلى الحد الذي وصل إليه فيلما تيرمينيتر أو ميتركس كي تصبح هذه التهديدات وجودية؛ بالنسبة للناس، هي وجودية إذا كانت تحرمكم من فرص حياتكم وسبل معيشتكم”.
إن شركات التكنولوجيا الكبيرة قد مارست الضغوط أيضًا لإدخال ثغرات في عملية تصنيف المخاطر الخاصة بقانون الذكاء الاصطناعي، ما من شأنه أن يسمح لشركات التكنولوجيا بتحديد ما إذا كانت تكنولوجياتها يجب أن تُصنًّف على أنها ’عالية المخاطر‘.
وتابع مهير هاكوبيان قائلًا إنه “من المهم للغاية أن يتبنى الاتحاد الأوروبي تشريعًا بشأن الذكاء الاصطناعي يحمي حقوق الإنسان ويعززها”.
وبين أن: “منح شركات التكنولوجيا الكبيرة سلطة التنظيم الذاتي يقوّض على نحو خطير الأهداف الرئيسية لقانون الذكاء الاصطناعي، ومن ضمنها حماية الناس من انتهاكات حقوق الإنسان”.
وأكد هاكوبيان أن: “الحل هنا بسيط جدًا – العودة إلى الاقتراح الأصلي للمفوضية الأوروبية الذي ينص على قائمة واضحة للسيناريوهات التي يُعدّ فيها استخدام أداة ما للذكاء الاصطناعي عالي المخاطر”.