Home تكنولوجيا القذف والتضليل .. هل يتحول الذكاء الاصطناعي إلى مصنع إشاعات؟

القذف والتضليل .. هل يتحول الذكاء الاصطناعي إلى مصنع إشاعات؟

0

وابتداءً من اتهامات ملفقة بالتحرش ، ومروراً بالتشهير ببعض الأشخاص ، وانتهاءً بتزوير الحقائق والحقائق التاريخية ، شهدت الفترة الماضية عدة حوادث كان بطلها الجانب المظلم لبرامج الذكاء الاصطناعي التوليدي ، فيما توقع الخبراء الذين تحدثوا مع قناة الحرة. إمكانية تحول هذه التطبيقات إلى ساحة مستقبلية لنشر الإشاعات والأكاذيب.

اتهامات تحرش كاذبة

كان أستاذ القانون في جامعة جورج واشنطن في الولايات المتحدة ، جوناثان تورلي ، آخر ضحية لبرامج الدردشة الآلية ، بعد أن اتهمه الذكاء الاصطناعي زوراً بـ “مضايقة” طالبة ، وفقاً لتقرير صحفي.واشنطن بوست”.

كجزء من دراسة بحثية ، طلب محامٍ زميل من كاليفورنيا chatbot ChatGBT لإنشاء قائمة بالعلماء القانونيين الذين تحرشوا جنسياً بشخص ما.

زعم روبوت الدردشة ، الذي أنشأته شركة OpenAI المدعومة من Microsoft ، أن Turley قدم اقتراحات جنسية وحاول لمس طالبة أثناء رحلة صفية إلى ألاسكا ، مستندا في معلوماته إلى تقرير نُشر في صحيفة واشنطن بوست في 21 مارس 2018..

وتقول صحيفة “واشنطن بوست” ، “لا توجد مادة منشورة في الجريدة حول هذا الموضوع ، ولم تكن هناك أيضًا رحلة صيفية إلى ألاسكا ، وأستاذ القانون بجامعة جورجتاون لا يعمل كما زعم الذكاء الاصطناعي” ، بينما قال تورلي إنه لم يتم اتهامه. مضايقة طالب.

تشويه السمعة

قد يكون عمدة هيبورنشاير ، أستراليا ، براين هود ، موضوع أول دعوى تشهير في العالم ضد شركة أوبن إيه آي بعد أن اتهمته شركة تشات جي بي تي بالتورط في فضيحة رشوة ، وفقًا للوكالة.رويترز.

اكتشف العمدة الأسترالي أن “روبوت الدردشة” صنفه خطأً بأنه “متورط في فضيحة رشوة أجنبية” تورط فيها فرع من بنك الاحتياطي الأسترالي في أوائل العقد الأول من القرن الحادي والعشرين.

كما زعم برنامج الدردشة الآلي أن عمدة أستراليا قضى عقوبة بالسجن نتيجة للجريمة.

كان هود يعمل بالفعل في شركة Note Printing Australia ، لكنه كان الشخص الذي أبلغ السلطات عن دفع رشاوى لمسؤولين أجانب للفوز بعقود طباعة عملات ، لكنه لم يُتهم قط بارتكاب جريمة ، كما قال محامون يمثلونه.

معلومات مضللة

من السهل نسبيًا على الأشخاص الحصول على معلومات مضللة أو كلام يحض على الكراهية عبر “روبوتات المحادثة”.

وفي 5 أبريل نشرت دراسة نشرتها “مركز مكافحة الكراهية الرقميةتنشئ أداة “Bard AI” الجديدة من Google محتوى معلومات خاطئًا في 78 رواية من أصل 100 تم اختبارها.

و “Bard” عبارة عن روبوت محادثة ذكاء اصطناعي يمكنه إنتاج نصوص ومقالات ومحتوى وسائط اجتماعية بصوت بشري استجابة للمطالبات والأسئلة التي يطرحها المستخدمون ، وقد بدأت Google في طرح المنتج لاختيار المستخدمين اعتبارًا من 21 مارس.

وفي وقت سابق حذرت وكالة الشرطة الأوروبية (يوروبول) من خطورة استخدام تطبيق “GBT Chat” في محاولات الخداع الإلكتروني ونشر المعلومات المضللة والجرائم الإلكترونية.

كيف يعملون؟

تعمل روبوتات الدردشة المدعومة بالذكاء الاصطناعي من خلال الاعتماد على مجموعات كبيرة من المحتوى عبر الإنترنت ، غالبًا ما يتم انتقاؤها من مصادر مثل Wikipedia و Reddit ، لتجميع ردود قابلة للتصديق على أي سؤال تقريبًا.

يتم تدريب هذه الروبوتات على تحديد أنماط الكلمات والأفكار ، حيث تقوم بإنشاء جمل وفقرات وحتى مقالات كاملة قد تشبه المقالات المنشورة على الإنترنت.

وتحدث خبير تكنولوجيا المعلومات ، تامر محمد ، عن “محاولة الشركات العالمية الاستحواذ على الحصة الأكبر في سوق الذكاء الاصطناعي ، وصراع محموم لنشر المنصات التابعة بغض النظر عن كفاءة وجودة المعلومات التي تقدمها التطبيقات أم لا”.

وأكد في تصريحات لموقع “الحرة” أن هذه التطبيقات تستمد معلومات من “الإنترنت” سواء كانت “موثوقة وصحيحة” أو خاطئة أو خاطئة.

ومن خلال قدرة الذكاء الاصطناعي على البحث العميق ، يقوم بجمع المعلومات المتوفرة من جميع المواقع والمنتديات على الإنترنت دون التحقق من مصداقيتها أو صحتها ، وبالتالي يتعامل مع الشائعات والأكاذيب على أنها حقائق ، بحسب حديث محمد.

يتفق أنس النجداوي ، مستشار أمن المعلومات ، مع الحجة السابقة ، الذي يشير إلى أن روبوتات المحادثة القائمة على الذكاء الاصطناعي في طور “نمو متطور” ولا تزال بحاجة إلى الكثير من التحسين.

وأكد في حديثه لـ “الحرة” أن هذه التطبيقات “تؤلف” بعض المعلومات “غير الواقعية” ، لكنها تصوغها بشكل منطقي لتظهر وكأنها “صحيحة”.

وهذه المعلومات خاطئة بنسبة 100 في المائة وغير دقيقة ، لأن هذه التطبيقات مصممة ومدربة باستخدام نمط من البيانات
إنشاء وصياغة نصوص جديدة تحمل الكثير من “الأخطاء وعدم الدقة” بحسب حديث النجداوي.

يعتقد خبير التكنولوجيا وأمن المعلومات ، شغالي جعفر ، أن تطوير الذكاء الاصطناعي هو “سيف ذو حدين”.

وأشار في حديثه إلى قناة الحرة إلى أن خوارزميات التعلم العميق وتقنيات معالجة الصور ، والتحكم في مخرجاتها ونمذجةها وفقًا لما يمليه متطلبات المستخدم ، جعلت البشرية تحديًا كبيرًا من أجل معالجة بعض الممارسات والاستخدامات التي انحرفت. من هذه الأدوات من مسارها الإيجابي.

إشاعات المصنع وأخبار كاذبة؟

وشدد النجداوي على ضرورة استخدام هذه التطبيقات “بحذر شديد” وعدم اعتبار المعلومات التي تقدمها على أنها “دقيقة”.

يقول: “قد يتم تدريب روبوتات المحادثة في مجال علمي محدد ، ولكن عند توجيه أسئلة جديدة إلى هذه التطبيقات ، فإنها ستصوغ إجابة قد تكون خاطئة بنسبة كبيرة”.

وإذا استخدم المستخدمون الذكاء الاصطناعي “بغير وعي” ، فقد يؤدي ذلك إلى زيادة انتشار الأكاذيب والمعلومات المضللة ، بحسب النجداوي.

محمد الذي يحذر من إمكانية تحويل هذه المنصات إلى وسيلة لنشر الأخبار الكاذبة والمعلومات الخاطئة والشائعات المنتشرة عبر الإنترنت ، يوافق على الاقتراح السابق.

ويؤكد جعفر أن هذه التطبيقات قد تتحول إلى “ساحة لنشر الشائعات والأكاذيب والمعلومات المضللة” ، لكن هناك “خوارزميات” تتحكم في هذه الأضرار.

هل يمكن مقاضاة الذكاء الاصطناعي؟

يشير جعفر إلى إمكانية “مقاضاة الذكاء الاصطناعي” من خلال مطوريه ، ويقول إن “كل هذه التطبيقات مملوكة لشركات معروفة قانونًا”.

ويمكن لهذه الكيانات أن تقدم للسلطات القضائية “أدلة فنية” يمكن أن توفر العدالة لضحايا جرائم الذكاء الاصطناعي ، بحسب جعفر.

ومع ذلك ، لا توجد قوانين تؤطر عمل تطبيقات الدردشة القائمة على الذكاء الاصطناعي ، أو تحدد المسؤولية القانونية والجنائية عن استخدامها لنشر الشائعات أو التشهير بالآخرين ، بحسب النجداوي ومحمد.

يقول النجداوي: “التطبيقات ليست مسؤولة عن إنشاء بيانات ومعلومات مضللة ، لكنها جمعت أفكارًا سبق تغذيتها بها”.

من جانبه يقول محمد: “لا توجد قوانين تحدد المسؤولية الجنائية عند ارتكاب هذه الجرائم ، وما إذا كان هو المستخدم أو المالك للمنصة”.

لذلك يجب وضع ضوابط وقواعد قواعد سواء للمستخدمين أو منشئ المنصات ، حتى لا تضيع “المسؤولية القانونية” بين المتهمين ، وتأطير عمل تلك التطبيقات في المستقبل ، بحسب خبراء.

LEAVE A REPLY

Please enter your comment!
Please enter your name here