عالم بريطاني يحذر: أنظمة الذكاء الاصطناعي القوية لا يمكن السيطرة عليها
أكد العالم البريطاني ستيوراد راسل، المعروف بإسهاماته في الذكاء الاصطناعي، إن أنظمة الذكاء الاصطناعي القوية لا يمكن السيطرة عليها.
وقال: "لقد وقعت على الخطاب يدعو إلى التوقف لمدة ستة أشهر عن تطوير أنظمة الذكاء الأصطناعي لأنني أعتقد أنه يجب أن يقال إننا لا نفهم كيف تعمل هذه الأنظمة (الأكثر قوة)، لا نعرف ما هي قادرة على انجازه، وهذا يعني أننا لا نستطيع السيطرة عليها".
وحذر من "التأثير الهائل لهذه الأنظمة إلى الأسوأ من خلال التلاعب بالناس بطرق لا يدركون حتى حدوثها".
قال إن الصين وروسيا وكوريا الشمالية لديها فرق كبيرة "تضخ المعلومات المضللة" وباستخدام الذكاء الاصطناعي "أعطيناهم أداة قوية".
أضاف "إذا كنت تبني أنظمة أقوى من البشر، فكيف يحافظ البشر على سلطتهم على تلك الأنظمة إلى الأبد؟ هذا هو الشاغل الحقيقي وراء الرسالة المفتوحة."
ولفت إلى القلق البالغ بشأن التضليل والتحيز العنصري في مخرجات هذه الأنظمة، أحد أكبر المخاوف هو المعلومات المضللة والتزييف العميق (مقاطع فيديو أو صور لشخص تم تغيير وجهه أو جسده رقميًا بحيث يبدو أنه شخص آخر - يتم استخدامه عادةً بشكل ضار أو لنشر معلومات كاذبة).
كان البروفيسور ستيوارت راسل واحدًا من أكثر من 1000 خبير وقعوا في مارس الماضي على خطاب مفتوح يدعو إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أكثر قدرة من OpenAI's GPT-4 التي تم إطلاقها حديثًا - خليفة برنامج الدردشة عبر الإنترنت ChatGPT وهو مدعوم من GPT-3.5.