تكنولوجيا

حتى مخترعوها يخافون منها.. تحذير جدي من بوتات الدردشة

نشر

.

Camil Bou Rouphael

تخيل أن تبتكر منتجا أو سلعة معينة، ثم تحذر موظفيك منه، هذا ما فعلته شركة ألفابيت، الشركة الأم لغوغل، عندما حذرت موظفيها بشأن كيفية استخدامهم لبوتات الدردشة، برامج الدردشة الآلية، بما في ذلك "بارد" الخاصة بها، جاء ذلك في وقت تقوم الشركة بتسويق البرنامج للمستخدمين في جميع أنحاء العالم، وفقا لما قاله ٤ أشخاص مطلعين على الأمر لوكالة رويترز.

نصحت الشركة موظفيها بعدم إدخال موادها السرية في بوتات الدردشة القائمة على الذكاء الاصطناعي، وربطت ذلك بسياسة حماية المعلومات طويلة الأمد التي تنتهجها. وحذرت ألفابيت موظفيها أيضا لتجنب الاستخدام المباشر للتعليمات البرمجية التي تولدها بوتات الدردشة.

ضجت منصة تويتر بتغريدات أشخاص مهتمين بالشأن التكنولوجي يقولون إذا كانت غوغل لا تثق في برامجها، فلماذا يجب على أي عميل من الشركات، أو الحكومة، الوثوق بها؟". واستغرب آخرون أن تروج غوغل لبرنامجها بارد ثم تحذر موظفيها منه.

روبوتات المحادثة، من بينها بارد وتشات جي بي تي، هي برامج تستخدم ما يسمى بـ "الذكاء الاصطناعي التوليدي" لإجراء محادثات مع المستخدمين والإجابة على مطالبات كثيرة.عند طلب التعليق، قالت ألفابيت إن بارد يمكنه تقديم اقتراحات تعليمات برمجية غير مرغوب فيها، وأضافت أيضا أنها تهدف إلى أن تكون شفافة بشأن قيود تقنيتها.

٣ كوارث أمنية

ليست المرة الأولى التي تثار فيها قضية ثغرات بوتات الدردشة الأمنية، فقد عنونت أم آي تي تكنولوجي ريفيو تقريرها في أبريل هذا العام "أسباب ثلاثة تحوّل برامج الدردشة إلى كوارث أمنية". وتحدثت الموقع التكنولوجي العريق، عن كسر القيود، والمساعدة على الاحتيال وتصيد المعلومات، وتسميم البيانات.

  • كسر القيود: تنتج نماذج الذكاء الاصطناعي اللغوية نصوص تبدو كأنها بشرية الصنع، وذلك من خلال تعليمات نصية من المستخدمين لتقوم من بعدها بصياغة الجمل عن طريق التنبؤ بالكلمة الأكثر ترجيحا، كل ذلك ضمن إطار البرامج التدريبية لهذه المنصات. لكن هذا الأمر يجعلها أيضا عرضة للاستخدام الخبيث عن طريق حقن التعليمة، فتوجه النموذج اللغوي لكسر قيود الحماية، وذهب البعض في السابق إلى حد دفع نماذج لغوية لكتابات عنصرية واقتراح طرق القيام بأمور غير قانونية مثل سرقة محال تجارية أو صنع متفجرات وغيرهما.
  • الاحتيال: في أواخر مارس أعلنت شركت أوبن أيه آي، عن فتح المجال لإدماج في المنتجات التي تقوم بتصفح الإنترنت والتفاعل معها. إثر ذلك بدأت شركات ناشئة باستخدام هذه الميزة لتطوير مساعدات افتراضية قادرة على اتخاذ إجراءات مثل حجز رحلات جوية. حسب الموقع العلمي التكنولوجي، فإن السماح بتحويل الإنترنت "لأعين وآذان" لتشات جي بي تي، يجعل بوت الدردشة ضعيفا للغاية في وجه الهجمات. فحسب الأستاذ المتخصص بعلوم الحاسوب في المعهد الفيدرالي للتكنولوجيا في زيورخ، فلوريان تريمير، فإن "هذا الأمر سيتحول إلى كارثة لحدّ كبير من منظوري الأمن والخصوصية". فيمكن التلاعب بنظام الذكاء الاصطناعي كي يتيح للمهاجم استخدام معلومات البطاقات الائتمانية للمستخدمين مثلا.
  • تسميم البيانات: النماذج اللغوية للذكاء الاصطناعي عرضة للهجمات حتى قبل إطلاقها، حسب ما استنتج فريق من الباحثين من غوغل وشركات أخرى. ووجد الباحثون أنه من الممكن تسميم مجموعة البيانات التي تدخل في تدريب نماذج الذكاء الاصطناعي الكبيرة. وتمكن الباحثون، مقابل 60 دولارا فقط، من شراء النطاقات وملئها بالصور التي يختارونها، والتي تم تجميعها بعد ذلك في مجموعات بيانات كبيرة. وكانوا أيضا قادرين على تحرير وإضافة جمل إلى إدخالات ويكيبيديا، وانتهى الأمر بهذه التعديلات ضمن مجموعة بيانات تخص أحد نماذج الذكاء الاصطناعي.

تحدثت الموقع التكنولوجي العريق، عن كسر القيود، والمساعدة على الاحتيال وتصيد المعلومات، وتسميم البيانات. أ ف ب

مشكلات من دون حلول؟

تدرك شركات التكنولوجيا هذه المشكلات جيدا، حسب المطور البرمجي سيمون ويلسون، ورفض المتحدثون باسم غوغل وأوبن إيه آي التعليق عندما سألتهم المنصة التكنولوجية عن كيفية إصلاح هذه الثغرات الأمنية. وتفيد مايكروسوفت أنها تعمل مع مطوريها لمراقبة كيفية إساءة استخدام منتجاتهم والتخفيف من هذه المخاطر. وتعترف في المقابل أن المشكلة حقيقية.

يقول رام شانكار سيفا كومار، الذي يقود جهود أمن الذكاء الاصطناعي في مايكروسوفت: "لا توجد حل سحري في هذه المرحلة". ولم يعلق على ما إذا كان فريقه قد وجد أي دليل على الحقن الفوري غير المباشر قبل إطلاق بينغ.

اعرف أكثر عن..

تشديد قواعد

  • ٣ ممنوعات في الذكاء الاصطناعي أقرها مشرعون في الاتحاد الأوروبي جاءت كتعديلات على مسودة قواعد الذكاء الصناعي وشملت حظر استخدام هذه البرامج في رصد القياسات الحيوية مثل بصمة الوجه، ومنع الذكاء الاصطناعي من كشف المشاعر، وكذلك تقييم الأفراد اجتماعيا.
  • ألزمت مسودة القانون المعدلة مستخدمي أنظمته التوليدية مثل تشات جي بي تي، بالكشف عن المحتوى الناتج عنها.
  • براندو بينيفي، المقرر المشارك لمشروع القانون، قال "بينما تدق شركات التكنولوجيا الكبرى جرس الإنذار بشأن إبداعاتها، مضت أوروبا قدما واقترحت استجابة قوية للمخاطر التي بدأ يشكلها الذكاء الصناعي". ومن بين التعديلات الأخرى، يريد المشرعون في الاتحاد الأوروبي من الشركات أن تكشف عن أي مواد محمية بحقوق الملكية الفكرية تستخدمها في تدريب أنظمتها للذكاء الصناعي وأن تقدم الشركات التي تعمل على "تطبيق عالي الخطورة" تقييما لتأثيره على الحقوق الأساسية والبيئة.
  • يتعين على مستخدمي أنظمة مثل تشات جي بي تي الكشف عن أن المحتوى ابتكره الذكاء الصناعي، والمساعدة في التمييز بين الصور المزيفة والحقيقية وضمان الحماية من المحتوى غير القانوني. ورحبت مايكروسوفت بأحدث إجراء اتخذه مشرعو الاتحاد الأوروبي، لكنهما تريدان مزيدا من التنقيح للمشروع المقترح. وقال متحدث باسم مايكروسوفت "نعتقد بأن الذكاء الاصطناعي يتطلب حواجز تشريعية وجهودا دولية وإجراءات تطوعية من الشركات التي تطوره وتنشره". وسيتعين على المشرعين الآن مناقشة التفاصيل مع دول الاتحاد الأوروبي قبل أن تصبح مسودة القواعد قانونا.

تواصل معنا

حمل التطبيق

© 2024 blinx. جميع الحقوق محفوظة

© 2024 blinx. جميع الحقوق محفوظة