تكنولوجيا

٣ ممنوعات في "AI" تهدد المستخدمين

نشر

.

Camil Bou Rouphael

تخيل أن يصنفك تطبيق ذكاء اصطناعي اجتماعيا، ونتيجة لتقريره تقفل بوجهك فرص عمل ولا تحصل على قروض، أو أن يتمكن الذكاء الاصطناعي من معرفة مشاعرك حيال رئيسك في العمل أو زوجتك. هذه الفرضيات دفعت مشرعين للوصول إلى نتيجة أن هناك العديد من تقنيات الذكاء الاصطناعي عالية المخاطر التي تمس الحياة الشخصية لكل فرد ويجب أن تحظر.

استجابة لذلك، حظر مشروع القانون المسمى AI act والذي وافق عليه المشرعون الأوروبيون، التعرف على الوجوه في الوقت الفعلي وأنظمة التعرف على المشاعر، وأنظمة التقييم الاجتماعي.

وصنف مشروع القانون هذه التقنيات على أنها غير مقبولة، وتضمن حزمة من النصوص الهادفة إلى حماية الأفراد من تطبيقات الذكاء الاصطناعي التي يحتمل أن تكون خطرة، ورفع متطلبات الشفافية. ويُصنف مشروع القانون الذكاء الاصطناعي إلى أربعة مستويات للمخاطر، تتراوح من الحد الأدنى للمخاطر إلى غير المقبول، وفق موقع إنسايدر.

فكيف يعرّف تشات جي بي تي تطبيقات الذكاء الاصطناعي، وماذا عن إمكانية تعرفها على المشاعر والوجوه وتصنيف الأشخاص اجتماعيا؟

تتمثل خطورة تقنيات الذكاء الاصطناعي للتعرف على الوجوه في قدرتها على تحليل وتتبع وتحليل الوجوه بصورة آلية وبشكل دقيق للغاية. أ ف ب

١- تحليل الوجوه بصورة آلية

عندما نتحدث عن تقنيات الذكاء الاصطناعي التي تستخدم للتعرف على الوجوه، فإننا ندخل عالما يمزج بين الإمكانيات التقنية الرائعة والمخاوف المشروعة. على الرغم من أن تلك التقنيات قد أحدثت طفرة هائلة في مجالات مثل الأمن والتعرف الآلي وتحسين تجربة المستخدم، إلا أنها تثير قلقا حقيقيا بشأن الخصوصية والحقوق الأساسية للأفراد.

تتمثل خطورة تقنيات الذكاء الاصطناعي للتعرف على الوجوه في قدرتها على تحليل وتتبع وتحليل الوجوه بصورة آلية وبشكل دقيق للغاية. يعتمد هذا التعرف على الوجوه على خوارزميات معقدة وشبكات عصبية عميقة، والتي تتعلم من البيانات الضخمة لتمييز الأشخاص بدقة عالية.

ومع ذلك، فإن تلك التقنيات تثير قضايا خصوصية جدية. فعلى سبيل المثال، يمكن لأنظمة التعرف على الوجوه جمع وتخزين بيانات شخصية حساسة بشكل لا يمكن تصوره، مما يعرض الأفراد لمخاطر فقدان السيطرة على معلوماتهم الشخصية. وقد يتم استخدام هذه البيانات في التجسس أو التمييز أو التلاعب بحريات الأفراد.

لذا، فإن التوجه الأخير للبرلمان الأوروبي لمنع استخدام تقنيات التعرف على الوجوه بموجب مشروع قانون تنظيم الذكاء الاصطناعي يأتي كإجراء لحماية الحقوق والحريات الأساسية للأفراد. ويهدف هذا المشروع إلى تحديد قواعد صارمة لاستخدام تلك التقنيات وتطبيقها بشكل مسؤول وأخلاقي.

أحد هذه المخاوف هو خطر الانتهاكات الخصوصية والتمييز الاجتماعي. أ ف ب

٢- التنبؤ بسلوك الأفراد

أما تقنية التقييم الاجتماعي التي يمنعها مشروع القانون، فتعد من بين التطورات الحديثة في مجال الذكاء الاصطناعي التي تهدف إلى تحليل سلوك الأفراد وتصنيفهم اجتماعيا. وتعتمد هذه التقنيات على الاستفادة من تقنيات التعلم الآلي والتحليل الضخم للبيانات لاستنتاج سمات اجتماعية والتنبؤ بسلوك الأفراد.

إلا أن هذا النوع من التقنيات يثير قلقا كبيرا، وأحد هذه المخاوف هو خطر الانتهاكات الخصوصية والتمييز الاجتماعي. فعلى سبيل المثال، يمكن أن يستخدم تحليل سلوك الأفراد لجمع وتخزين بيانات شخصية حساسة بطرق غير قانونية أو غير أخلاقية. هذا يعرض الأفراد لخطر فقدان السيطرة على بياناتهم واستغلالها في أغراض غير مشروعة.

بالإضافة إلى ذلك، تقنيات الذكاء الاصطناعي للتقييم الاجتماعي قد تتسبب في تعزيز التمييز والتمييز الاجتماعي. فبالاستناد إلى تحليل البيانات، يمكن لتلك التقنيات أن تتخذ قرارات متعلقة بالتوظيف والتأمين والقروض وغيرها من القضايا الحيوية التي تؤثر على حياة الأفراد. قد يتم التمييز بناء على سمات اجتماعية معينة أو قدرات مفترضة من دون وجود دليل قوي يدعم تلك القرارات.

يمكن لتلك التقنيات أن تتخذ قرارات متعلقة بالتوظيف والتأمين والقروض وغيرها من القضايا الحيوية التي تؤثر على حياة الأفراد. أ ف ب

٣ - التعرف على المشاعر

تهدف تقنيات التعرف إلى المشاعر لتحليل وتفسير المشاعر البشرية بناء على تعابير الوجه ونغمة الصوت واللغة الجسدية. وتعتمد هذه التقنيات على خوارزميات التعلم العميق وتحليل البيانات الكبيرة لتحديد الحالة العاطفية للأفراد والتعرف على مشاعرهم مثل الفرح والحزن والغضب. ويتم تدريب النماذج العميقة باستخدام البيانات الضخمة الموجودة في قواعد البيانات للمشاعر، مما يسمح للذكاء الاصطناعي بتعلم أنماط التعبير والتفاعل العاطفي.

وتثير تقنيات التعرف على المشاعر باستخدام الذكاء الاصطناعي مخاوف عدة. فمن الممكن أن يتم استغلال هذه التقنيات في انتهاك الخصوصية والمراقبة غير المشروعة. ويمكن لتلك النظم أن تجمع وتخزن بيانات حساسة عن المشاعر الشخصية للأفراد، مما يهدد خصوصيتهم ويعرضهم لمخاطر تسرب البيانات واستخدامها غير القانوني.

اعرف أكثر

تطور القانون

حصل المشروع على تأييد ٤٩٩ صوتا في البرلمان الأوروبي، وعارضه ٢٨ شخصا، وامتنع ٩٣ شخصا عن التصويت. ويحظر القانون تقنية التعرف على الوجوه في الوقت الفعلي وأنظمة التعرف على المشاعر، وأنظمة التقييم الاجتماعي، التي تعتبر مخاطرها غير مقبولة.

وستمنع شركات مثل كليرفيو أيه آي من الحصول عن البيانات الحيوية من وسائل التواصل الاجتماعي لإنشاء قواعد بيانات، كما أنه يمنع أدوات الشرطة التنبؤية. ورغم عدم حظرها تماما، إلا أن التطبيقات الأكثر خطورة مثل ماسحات السيرة الذاتية وتقنية الذكاء الاصطناعي الموجهة للأطفال ستخضع لمزيد من التدقيق. وسيتفاوض الآن ممثلو البرلمان الأوروبي والمفوضية الأوروبية والاتحاد الأوروبي على الصيغة النهائية للقانون.

التعديلات على مشروع القانون التاريخي الذي اقترحته المفوضية الأوروبية بهدف حماية المواطنين من مخاطر هذه التكنولوجيا قد تؤدي إلى صدام مع دول الاتحاد الأوروبي التي تعارض فرض حظر كامل على استخدام الذكاء الصناعي في جمع وتحليل بيانات القياسات الحيوية للأشخاص.

ودفعت سرعة تبني تطبيق تشات جي.بي.تي، الذي طورته شركة أوبن إيه.آي المدعومة من مايكروسوفت، وغيره من برامج الذكاء الصناعي كبار علمائه ورؤساء شركات تنفيذيين إلى التحذير من المخاطر المحتملة التي قد يتعرض لها المجتمع جراءه. براندو بينيفي، المقرر المشارك لمشروع القانون، أوضح أنه "بينما تدق شركات التكنولوجيا الكبرى جرس الإنذار بشأن إبداعاتها، مضت أوروبا قدما واقترحت استجابة قوية للمخاطر التي بدأ يشكلها الذكاء الصناعي".

ومن بين التعديلات الأخرى، يريد المشرعون في الاتحاد الأوروبي من الشركات أن تكشف عن أي مواد محمية بحقوق الملكية الفكرية تستخدمها في تدريب أنظمتها للذكاء الصناعي وأن تقدم الشركات التي تعمل على "تطبيق عالي الخطورة" تقييما لتأثيره على الحقوق الأساسية والبيئة. وسيتعين على مستخدمي أنظمة مثل (تشات جي.بي.تي) الكشف عن أن المحتوى ابتكره الذكاء الصناعي، والمساعدة في التمييز بين الصور المزيفة والحقيقية وضمان الحماية من المحتوى غير القانوني.

ورحبت مايكروسوفت وآي.بي.إم بأحدث إجراء اتخذه مشروعو الاتحاد الأوروبي لكنهما تريدان مزيدا من التنقيح للمشروع المقترح. وقال متحدث باسم مايكروسوفت: "نعتقد بأن الذكاء الصناعي يتطلب حواجز تشريعية وجهودا دولية وإجراءات تطوعية من الشركات التي تطوره وتنشره". وسيتعين على المشرعين الآن مناقشة التفاصيل مع دول الاتحاد الأوروبي قبل أن تصبح مسودة القواعد قانونا.

ماذا عن تشات جي بي تي؟

رغم عدم تضمينه في البداية، أضاف المشرعون لاحقا أحكاما لتغطية نماذج الذكاء الاصطناعي مثل تشات جي بي تي وبارد. وفي حين أن هذه الأنظمة يمكن أن تستمر في العمل، إلا أنها يجب أن تلتزم ببعض متطلبات الشفافية.

على سبيل المثال، يتطلب القانون توثيقا شاملا لأي مادة محمية بحقوق الطبع والنشر تستخدم لتدريب أنظمة الذكاء الاصطناعي على إنشاء نصوص وصور وفيديو وموسيقى تشبه الإنسان. بهذه الطريقة، يمكن لمنشئي المحتوى معرفة ما إذا كانت منشورات المدونات والكتب والمزيد قد استخدمت لتدريب الخوارزميات. سيتطلب الأمر من الصانعين وضع ضمانات لمنع أنظمة الذكاء الاصطناعي من توليد محتوى غير قانوني.

بمجرد تمرير النسخة النهائية للقانون، ستكون هناك فترة سماح لمدة عامين تقريبا. بعد ذلك، ستتمتع الدول الأعضاء في الاتحاد الأوروبي بالسلطة لفرض القواعد، مثل مطالبة الشركات بإزالة التطبيقات من السوق إذا انتهكت القانون، قد تؤدي الانتهاكات إلى غرامات تصل إلى 40 مليون يورو (43.3 مليون دولار) أو 7٪ من الإيرادات العالمية للشركة.

وتؤثر تطبيقات الذكاء الاصطناعي على المعلومات المنتشرة عبر الإنترنت من خلال التنبؤ بالمحتوى الذي يناسب المتصفح، والتقاط البيانات وتحليلها، وتُستخدم أيضا لتشخيص السرطان وعلاجه. بمعنى آخر، يؤثر الذكاء الاصطناعي على أجزاء كثيرة من حياة الإنسان، وفق ما توضح الصفحة الرسمية المهتمة بشرح مشروع القانون الأوروبي.

حمل التطبيق

© 2024 blinx. جميع الحقوق محفوظة

© 2024 blinx. جميع الحقوق محفوظة