Home تكنولوجيا هل الذكاء الاصطناعي يقتل شخصا؟ .. خبراء بريطانيون يحذرون من “سيناريو مميت” خلال عامين .. تمرد الآلة واستغلال المتطرفين أبرز المخاوف .. “طائرة بدون طيار” مميتة تربك روايات البنتاغون .. وصحيفة الجارديان : لندن تدرس إنشاء هيئة إشرافية

هل الذكاء الاصطناعي يقتل شخصا؟ .. خبراء بريطانيون يحذرون من “سيناريو مميت” خلال عامين .. تمرد الآلة واستغلال المتطرفين أبرز المخاوف .. “طائرة بدون طيار” مميتة تربك روايات البنتاغون .. وصحيفة الجارديان : لندن تدرس إنشاء هيئة إشرافية

0


بقلم رباب فتحي

الخميس ، 08 حزيران (يونيو) 2023 ، 04:00 صباحًا

التقنيات المتقدمة التي فاقت توقعات الخبراء ، وتجاوزت تطلعات القائمين على تطوير الذكاء الاصطناعي ، وهو ما كان سببا لزيادة التفاؤل بقدرات هذه التقنية في تذليل الصعوبات في عدة مجالات ، لكنها أصبحت أيضا مدعاة للقلق. الذي تحدث عنه الخبراء والمتخصصون ، للإجابة على سؤال واحد: هل الذكاء الاصطناعي قادر على قتل الإنسان؟

المخاوف المتزايدة والسؤال الصعب الذي طرحه مات كليفورد ، مستشار ريشي سوناك ، رئيس الوزراء البريطاني للتكنولوجيا ، والذي كان آخر من انضم إلى قائمة التحذيرات ، حيث اعتبر أن هذه التكنولوجيا يمكن أن تصبح قوية بما يكفي “لقتل العديد من الأشخاص “في غضون عامين فقط ، مشيرًا إلى أنه حتى المخاطر قصيرة المدى كانت” مخيفة للغاية “، حيث يمتلك الذكاء الاصطناعي القدرة على صنع أسلحة إلكترونية وبيولوجية يمكن أن تسبب العديد من الوفيات.

يأتي ذلك في الوقت الذي يتوجه فيه سوناك إلى الولايات المتحدة ، حيث من المقرر أن يحاول إقناع الرئيس الأمريكي جو بايدن بـ “خطته الكبرى” للمملكة المتحدة لتكون في قلب الخطط الدولية للتنظيم الذكاء الاصطناعي.

يريد رئيس الوزراء من بريطانيا أن تستضيف هيئة رقابة للذكاء الاصطناعي على غرار الوكالة الدولية للطاقة الذرية ، ويقترح هيئة بحثية دولية جديدة.

وهناك مخاوف بين الخبراء من احتمال استغلال الذكاء الاصطناعي من قبل المتطرفين والمخربين ، وكذلك احتمال “تمرد” الذكاء الاصطناعي نفسه ضد مطوريه ، وأن يتحول من تلقاء نفسه إلى أداة قتل.

في لندن ، قال وزير المالية في داونينج ستريت إنه ما لم يتم تنظيم منتجي الذكاء الاصطناعي على نطاق عالمي ، فقد تكون هناك أنظمة “قوية جدًا” يمكن للبشر أن يكافحوا من أجل السيطرة عليها.

يأتي تدخل كليفورد في أعقاب خطاب يدعمه عشرات الخبراء البارزين – بما في ذلك العديد من رواد الذكاء الاصطناعي – الذين حذروا من أن مخاطر التكنولوجيا يجب التعامل معها بنفس درجة إلحاح الأوبئة أو الحرب النووية.

ينصح كليفورد سوناك بتطوير فريق عمل حكومي يبحث في نماذج لغة الذكاء الاصطناعي مثل ChatGPT و Google Brad ، وهو أيضًا رئيس وكالة الأبحاث المتقدمة والاختراع (Aria).

وقال لـ TalkTV: “المخاطر على المدى القريب مخيفة للغاية بالفعل”. “يمكنك استخدام الذكاء الاصطناعي اليوم لإنشاء وصفات جديدة للأسلحة البيولوجية أو لشن هجمات إلكترونية على نطاق واسع. هذه أشياء سيئة.”

وأضاف المستشار: “نوع الخطر الوجودي الذي أعتقد أن كتاب الخطابات يتحدثون عنه ، هو ما يحدث بمجرد أن نخلق ذكاءً أكثر من البشر”.

مع الاعتراف بأن الجدول الزمني لمدة عامين للذكاء الاصطناعي لتجاوز الذكاء البشري كان “نهاية قاسية لهذا الاتجاه” ، قال كليفورد إن أنظمة الذكاء الاصطناعي أصبحت “أكثر قدرة بمعدل متزايد باستمرار”.

وعندما سئل عن النسبة المئوية التي سيعطيها لاحتمال القضاء على البشرية بواسطة الذكاء الاصطناعي ، قال كليفورد: “أعتقد أنها ليست صفراً”.

وتابع: “إذا عدنا إلى أشياء مثل الأسلحة البيولوجية أو [الهجمات] “الإنترنت ، يمكن أن يكون لديك بالفعل تهديدات خطيرة جدًا للبشر يمكن أن تقتل الكثير من الناس. أعتقد أن الشيء الذي يجب التركيز عليه الآن هو كيف نتأكد من أننا نعرف كيفية التحكم في هذه النماذج لأننا لا نفعل ذلك الآن.”

حذر مسؤول بريطاني كبير في “تيروريزم ووتش” من أن مبتكري الذكاء الاصطناعي بحاجة إلى التخلي عن عقلية “اليوتوبيا التكنولوجية” ، وسط مخاوف من إمكانية استخدام التكنولوجيا الجديدة لاستهداف الأفراد المعرضين للخطر ، بحسب صحيفة “الأوبزرفر” البريطانية.

قال جوناثان هول كيه سي ، الذي يتمثل دوره في مراجعة مدى كفاية تشريعات الإرهاب ، إن تهديد الأمن القومي من منظمة العفو الدولية كان أكثر وضوحًا من أي وقت مضى ، وأن التكنولوجيا بحاجة إلى التصميم مع وضع نوايا الإرهابيين في الاعتبار..

وقال إن الكثير من تطوير الذكاء الاصطناعي ركز على الإيجابيات المحتملة للتكنولوجيا مع تجاهل كيف يمكن للإرهابيين استخدامها لتنفيذ هجمات. وطالب هول KC “بالتفكير في الدفاعات ضد ما يمكن أن يفعله الناس بهذه التكنولوجيا. “

اعترف المراجع المستقل للحكومة لتشريع الإرهاب بأنه قلق بشكل متزايد بشأن نطاق برامج الدردشة الآلية التي تستخدم الذكاء الاصطناعي لإقناع الأفراد المعرضين للخطر بشن هجمات إرهابية..

من المفهوم أن الأجهزة الأمنية مهتمة بشكل خاص بقدرة روبوتات الدردشة التي تعمل بالذكاء الاصطناعي على استهداف الأطفال ، الذين يشكلون بالفعل جزءًا متزايدًا من قضايا الإرهاب في بريطانيا..

تتكثف الجهود لمواجهة تحديات الأمن القومي التي يفرضها الذكاء الاصطناعي ، بالشراكة مع المخابرات البريطانية MI5 ويقود معهد آلان تورينج ، الهيئة الوطنية لعلوم البيانات والذكاء الاصطناعي ، الطريق.

قال ألكسندر بلانشارد ، الباحث في الأخلاقيات الرقمية في برنامج الدفاع والأمن التابع للمعهد ، إن عمله مع خدمات الأمن يشير إلى أن المملكة المتحدة تأخذ التحديات الأمنية التي يفرضها الذكاء الاصطناعي على محمل الجد..

في الولايات المتحدة الأمريكية ، قال السناتور الأمريكي روجر مارشال ، عضو لجنة الأمن الداخلي ، عن التكنولوجيا المثيرة للجدل: “إنها حقًا تعيدني إلى الثلاثينيات والأربعينيات والخمسينيات من القرن الماضي ، والفيزياء النووية. علمنا على الفور أن الفيزياء النووية يمكن أن تبني الطاقة .. لكننا عرفنا أيضًا أنها يمكن أن تتحول إلى قنابل ذرية. “

مارشال هو واحد من العديد من المشرعين الذين حذروا من أن التطور السريع لتكنولوجيا الذكاء الاصطناعي أمر لا مفر منه ، لكن يجب على الكونجرس وضع ضمانات لضمان عدم إساءة استخدامها..

قال الجنرال المتقاعد بالقوات الجوية وليام إنيارت: “يجب أن نكون قلقين للغاية بشأن ما كنا نتحدث عنه ، وهو عواقب غير مقصودة”.“.

تأتي أصوات الحذر في الوقت الذي تظهر فيه التقارير عن انغماس الجيش الأمريكي في فكرة السيناريوهات التي يتم فيها استخدام الطائرات بدون طيار التي تعمل بالذكاء الاصطناعي كسلاح ، وحذر إنيارت من أن هذه ليست الطريقة التي يعمل بها العلم: “سواء كنا نتحدث عن الصينيين نحن نبنيها ، أو نبنيها ، أو لا أحد ، بمجرد بنائها ، لا يمكنك الاحتفاظ بها سراً. لن يحدث هذا

كما ورد الأسبوع الماضي أن الصين أعربت عن مخاوف مماثلة بشأن تسليح الذكاء الاصطناعي.

منذ بضعة أيام حادثة طائرة بدون طيار التي هاجمت مشغلها القلق مرة أخرى داخل وخارج الولايات المتحدة على الرغم من إنكار البنتاغون للحادث ، حيث قررت طائرة بدون طيار تابعة للقوات الجوية الأمريكية ، يتحكم فيها الذكاء الاصطناعي ، خلال اختبار محاكاة في الولايات المتحدة ، قتل المشغل حتى لا للتدخل في جهودها لإنجاز مهمتها.

“بدأ النظام يدرك أنه على الرغم من تحديد التهديدات ، إلا أن المشغل لم يأمره بتدمير بعض تلك التهديدات ، وكان النظام يحصل على نقاط للهدف الذي تم إصابة الهدف ، لذلك قرر النظام قتل المشغل لأنه منع من إتمام المهمة “.

قال رئيس عمليات الذكاء الاصطناعي في سلاح الجو الأمريكي إن الذكاء الاصطناعي استخدم “استراتيجيات غير متوقعة للغاية لتحقيق هدفه” في اختبار محاكاة..

وصف هاميلتون تجربة محاكاة نصحت فيها طائرة بدون طيار تعمل بالذكاء الاصطناعي بتدمير أنظمة الدفاع الجوي للعدو ، وهاجمت أي شخص يتدخل..

جاء في تقرير اختبار الجيش الأمريكي: “لقد دربنا النظام .. مهلا .. لا تقتل التهديد ، هذا سيء .. وإذا فعلت هذا ، ستخسر نقاطًا .. لذا بدأ برنامج الذكاء الاصطناعي في تدمير برج الاتصالات. أن عامل الهاتف استخدمه للتواصل مع الطائرة بدون طيار لمنعها من قتل الهدف “.

حذر هاميلتون ، طيار اختبار على المقاتلة ، من الاعتماد المفرط على الذكاء الاصطناعي.







LEAVE A REPLY

Please enter your comment!
Please enter your name here