نداء عالمي: أوقفوا بناء "العقل الخارق" قبل فوات الأوان
دعا أكثر من 700 عالِم وسياسي ورائد أعمال في مجال التكنولوجيا وشخصية عامة، الأربعاء، إلى وقف العمل على تطوير ذكاء اصطناعي قادر على تجاوز القدرات البشرية، نظرا إلى المخاطر التي قد يُشكّلها على البشرية.
وجاء عبر صفحة المبادرة التي أطلقتها منظمة "فيوتشر أوف لايف إنستيتيوت" غير الربحية التي دائما ما تُحذّر من أضرار الذكاء الاصطناعي "ندعو إلى وقف تطوير الذكاء الاصطناعي الخارق ما لم يكن هناك إجماع علمي على إمكانية بنائه بطريقة مضبوطة وآمنة، وحتى يحظى بدعم شعبي".
سياسيون وفائزون بنوبل ورجال أعمال
من بين الموقعين عدد من روّاد الذكاء الاصطناعي الحديث مثل الحائز جائزة نوبل في الفيزياء لعام 2024 جيفري هينتون، وأستاذ المعلوماتية في جامعة كاليفورنيا في بيركلي ستيوارت راسل، والأستاذ في جامعة مونتريال يوشوا بنغيو.
تضمّن القائمة أيضا شخصيات من مجال التكنولوجيا بينهم مؤسس مجموعة "فيرجن" ريتشارد برانسون، وأحد مؤسسي شركة آبل، ستيف وزنياك، وشخصيات سياسية مثل ستيف بانون المستشار السابق للرئيس الأميركي دونالد ترامب ، وسوزان رايس مستشارة الأمن القومي في عهد باراك أوباما، ومسؤولون دينيون منهم مستشار البابا والخبير في مجال الذكاء الاصطناعي في الفاتيكان باولو بينانتي، ومشاهير كالمغني الأميركي وليام آي.آم والأمير هاري وزوجته ميغن ماركل.
ما هو الذكاء الاصطناعي العام؟
يسعى معظم اللاعبين الكبار في مجال الذكاء الاصطناعي إلى تطوير ما يُعرف بالذكاء الاصطناعي العام، وهي مرحلة يُعادل فيها الذكاء الاصطناعي كل القدرات الفكرية البشرية، فضلا عن الذكاء الخارق الذي يتجاوز هذه القدرات.
وفي كلمة خلال حدث نظمته مجموعة "أكسل سبرينغر" الإعلامية في سبتمبر، اعتبر رئيس شركة "أوبن إيه آي" مبتكرة "تشات جي بي تي" سام ألتمان، أنه يمكن الوصول إلى مرحلة الذكاء الاصطناعي الفائق في غضون 5 سنوات.
وقال رئيس منظمة "فيوتشر أوف لايف إنستيتيوت" ماكس تيغمارك، لوكالة فرانس برس "لا يهم إن كان ذلك سيتحقق بعد عامين أو خمسة عشر عاما، فإنّ بناء تكنولوجيا كهذه أمر غير مقبول"، مؤكدا أن الشركات "لا ينبغي أن تعمل على هذا النوع من المشاريع من دون أي ضوابط".
وأضاف "قد يؤيد المرء تطوير أدوات ذكاء اصطناعي أكثر قوة، لعلاج السرطان مثلا، بينما يعارض الذكاء الاصطناعي الخارق".