دعا أكثر من 700 عالِم وسياسي ورائد أعمال في مجال التكنولوجيا وشخصية عامة، الأربعاء، إلى وقف العمل على تطوير الذكاء الاصطناعي الخارق القادر على تجاوز القدرات البشرية، نظراً إلى المخاطر التي قد يُشكّلها على الإنسان. وجاء ذلك عبر صفحة المبادرة التي أطلقتها منظمة فيوتشر أوف لايف إنستيتيوت غير الربحية التي دائماً ما تُحذّر من أضرار هذا القطاع التكنولوجي الصاعد، قائلة: “ندعو إلى وقف تطوير الذكاء الاصطناعي الخارق ما لم يكن هناك إجماع علمي على إمكانية بنائه بطريقة مضبوطة وآمنة، وحتى يحظى بدعم شعبي.
من بين الموقعين عدد من روّاد الذكاء الاصطناعي الحديث، مثل الحائز جائزة نوبل في الفيزياء لعام 2024، جيفري هينتون، وأستاذ المعلوماتية في جامعة كاليفورنيا في بيركلي، ستيوارت راسل، والأستاذ في جامعة مونتريال، يوشوا بنغيو. وتضمّنت القائمة أيضاً شخصيات من مجال التكنولوجيا، من بينهم مؤسس مجموعة فيرجن، ريتشارد برانسون، وأحد مؤسسي شركة آبل، ستيف وزنياك، وشخصيات سياسية مثل ستيف بانون الذي شغل منصب المستشار السابق للرئيس الأميركي دونالد ترامب، وسوزان رايس، مستشارة الأمن القومي في عهد باراك أوباما، ومسؤولون دينيون، منهم مستشار البابا والخبير في مجال الذكاء الاصطناعي في الفاتيكان، باولو بينانتي، ومشاهير كالمغني الأميركي وليام آي آم، والأمير هاري وزوجته ميغن ماركل.
يسعى معظم اللاعبين الكبار في القطاع إلى تطوير ما يُعرف بالذكاء الاصطناعي العام، وهي مرحلة يُعادل فيها الذكاء الاصطناعي كل القدرات الفكرية البشرية، فضلاً عن الذكاء الخارق الذي يتجاوز هذه القدرات.
وفي كلمة خلال حدث نظمته مجموعة أكسل سبرينغر الإعلامية في سبتمبر ، اعتبر رئيس شركة أوبن إيه آي، مبتكرة “تشات جي بي تي”، سام ألتمان، أنه يمكن الوصول إلى مرحلة الذكاء الاصطناعي الفائق في غضون خمس سنوات.
وقال رئيس منظمة فيوتشر أوف لايف إنستيتيوت، ماكس تيغمارك، لوكالة فرانس برس: “لا يهم إن كان ذلك سيتحقق بعد عامين أو 15 عاماً، فإنّ بناء تكنولوجيا كهذه أمر غير مقبول”، مؤكداً أن الشركات “لا ينبغي أن تعمل على هذا النوع من المشاريع من دون أي ضوابط”. وأضاف: “قد يؤيّد المرء تطوير أدوات ذكاء اصطناعي أقوى، لعلاج السرطان مثلاً، بينما يعارض الذكاء الاصطناعي الخارق.

