Home تكنولوجيا الذكاء الاصطناعي يشعل الجدل .. أطراف متنازعة تصفه بـ “السلاح النووي”!

الذكاء الاصطناعي يشعل الجدل .. أطراف متنازعة تصفه بـ “السلاح النووي”!

0

الذكاء الاصطناعي (التعبيري – iStock)


الذكاء الاصطناعي

تعارض Google دعوات OpenAI للتنظيم

نشرت في:
آخر تحديث:

كشف ملف جديد أن شركتي Google و OpenAI الأمريكية تعملان في مجال الذكاء الاصطناعيلديهم أفكار متعارضة حول كيفية تنظيم التكنولوجيا من قبل الحكومة.

قدمت Google يوم الاثنين تعليقًا ردًا على طلب الإدارة الوطنية للاتصالات والمعلومات حول كيفية النظر في المساءلة عن الذكاء الاصطناعي في وقت تتقدم فيه التكنولوجيا بسرعة ، حسبما ذكرت صحيفة واشنطن بوست. تعد Google واحدة من المطورين الرائدين للذكاء الاصطناعي التوليدي مع إطلاق chatbot المعروف باسم Bard ، جنبًا إلى جنب مع OpenAI المدعوم من Microsoft ومنشئ التطبيق الأكثر شعبية ، ChatGPT.

وبينما روج سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، لفكرة إنشاء وكالة حكومية جديدة تركز على الذكاء الاصطناعي للتعامل مع تعقيداتها وترخيص التكنولوجيا ، قالت Google في ملفها إنها تفضل “نهج متعدد الأطراف ومتعدد أصحاب المصلحة لحوكمة الذكاء الاصطناعي.”

كتبت جوجل: “على الصعيد الوطني ، نحن ندعم نهج وجود منصة للحوار – مع وكالة مركزية مثل المعهد الوطني للمعايير والتكنولوجيا (NIST) لإبلاغ المنظمين القطاعيين الذين يشرفون على تطبيق الذكاء الاصطناعي – بدلاً من” إدارة الذكاء الاصطناعي “. سيقدم الذكاء الاصطناعي ، المقدم إلى الإدارة الوطنية للاتصالات والمعلومات ، قضايا فريدة في الخدمات المالية والرعاية الصحية وغيرها من الصناعات الخاضعة للتنظيم ومجالات القضايا التي ستستفيد من خبرة المنظمين ذوي الخبرة في تلك القطاعات – والتي تعمل بشكل أفضل من وكالة تنظيمية جديدة تصدر ويفرض قواعد أولية غير قابلة للتكيف مع السياقات المتنوعة التي يتم فيها نشر الذكاء الاصطناعي.

أعرب آخرون في منظمة العفو الدولية ، بما في ذلك الباحثون ، عن وجهات نظر مماثلة ، قائلين إن التنظيم الحكومي للذكاء الاصطناعي قد يكون طريقة أفضل لحماية المجتمعات المهمشة – على الرغم من حجة شركة OpenAI بأن التكنولوجيا تتقدم بسرعة كبيرة جدًا لمثل هذا النهج ، وفقًا للشركة. وراجعها كل من CNBC و Al Arabiya.net.

كما غردت إميلي إم بندر ، الأستاذة ومديرة مختبر اللسانيات الحاسوبية بجامعة واشنطن ، “المشكلة التي أراها مع نموذج التنظيم” الذي يشبه إدارة الغذاء والدواء ولكن بالنسبة للذكاء الاصطناعي “هو أنه يفترض أن الذكاء الاصطناعي يحتاج إلى التنظيم بشكل منفصل من أشياء أخرى “. . “أوافق تمامًا على أنه لا ينبغي نشر ما يسمى بأنظمة” الذكاء الاصطناعي “بدون نوع من عملية الاعتماد أولاً. لكن هذه العملية يجب أن تعتمد على الغرض من النظام. … يجب أن تحافظ الهيئات التنظيمية الحالية على سلطتها القضائية “.

يتناقض هذا مع تفضيل OpenAI و Microsoft لنموذج تنظيمي أكثر مركزية. قال رئيس Microsoft ، براد سميث ، إنه يدعم إنشاء وكالة حكومية جديدة لتنظيم الذكاء الاصطناعي ، وقد أعرب مؤسسا OpenAI ، جريج بروكمان وإيليا سوتزكفر ، عن وجهة نظرهما بضرورة تنظيم الذكاء الاصطناعي بطرق مشابهة للطاقة النووية ، بموجب لائحة تنظيمية عالمية للذكاء الاصطناعي. هيئة شبيهة بالوكالة. الطاقة الذرية الدولية.

كتب تنفيذيون في OpenAI في منشور مدونة: “أي جهد يتجاوز حدًا معينًا (أو موارد مثل الحوسبة) يجب أن يخضع لسلطة دولية يمكنها فحص الأنظمة ، وطلب عمليات التدقيق ، واختبار الامتثال لمعايير السلامة”. [و] قيود على درجات الانتشار ومستويات الأمان.

في مقابلة مع صحيفة واشنطن بوست ، قال رئيس الشؤون العالمية في Google ، كينت والكر ، إنه “لا يعارض” فكرة هيئة تنظيمية جديدة للإشراف على ترخيص نماذج اللغات الكبيرة ، لكنه قال إن الحكومة يجب أن تنظر أكثر ” شامل “. للتكنولوجيا. وأضاف أن المعهد الوطني للمعايير والتكنولوجيا (NIST) في وضع جيد بالفعل لأخذ زمام المبادرة.

تشير وجهات نظر Google و Microsoft التي تبدو متناقضة بشأن التنظيم إلى نقاش متزايد في مجال الذكاء الاصطناعي ، وهو النقاش الذي يتجاوز إلى حد بعيد المدى الذي يجب أن يتم فيه تنظيم التكنولوجيا وكيف يجب أن تعمل اللوجيستيات التنظيمية.

اقرأ أيضا

LEAVE A REPLY

Please enter your comment!
Please enter your name here