Home الذكاء الاصطناعي ظهر GPT-4 ، فكيف يرى العلماء ذلك؟

ظهر GPT-4 ، فكيف يرى العلماء ذلك؟

0
لم يتم حتى الآن تقديم نموذج GPT-4 للذكاء الاصطناعي للاستخدام على نطاق واسع.

لم يتم حتى الآن تقديم نموذج GPT-4 للذكاء الاصطناعي للاستخدام على نطاق واسع.

الائتمان: جاب أرينز / نور فوتو عبر غيتي إيماجز

أصدرت شركة الذكاء الاصطناعي OpenAI نموذج اللغة GPT-4 ، وهو أحدث إصدار من “نموذج اللغة الكبيرة” الذي يدعم روبوت ChatGPT الشهير. تقول الشركة إن النموذج الجديد يتضمن تحسينات كبيرة ، يشهد عليها الكثيرون ، الذين اندهشوا من قدرة النموذج على تركيب نص يشبه الإنسان ، فضلاً عن قدرته على إنشاء صور وكود حرفي استجابةً لأي شيء تقريبًا يقوله المستخدم. . يرى الباحثون أن هذه القدرات لديها القدرة على تغيير العلم ، لكن البعض محبط لعدم تمكنهم من استخدام التكنولوجيا الكامنة وراء النموذج ، أو رؤية الكود الخاص به ، أو معرفة كيفية تدريبه. وهذا يثير قلق عدد من العلماء بشأن سلامة هذه التقنية ، ويقلل من فائدتها في أغراض البحث العلمي.

من بين التحسينات في GPT-4 ، التي تم الكشف عنها في 14 مارس ، أنها أصبحت الآن قادرة على التعامل مع الصور وكذلك النص. لإثبات براعتها اللغوية ، ذكرت الشركة المطورة – ومقرها سان فرانسيسكو ، كاليفورنيا ، الولايات المتحدة الأمريكية – أن النموذج قد اجتاز بنجاح اختبار القانون المطلوب لممارسة القانون في الولايات المتحدة ، وحقق نتيجة تقع ضمن المستوى الأعلى (أعلى 10 ٪) من نتائج هذا الاختبار. ويقارن هذا بنتيجة سابقتها ، Chat GBT ، والتي تقع ضمن الفئة السفلية (أقل من 10٪) من نتائج نفس الاختبار. ومع ذلك ، فإن هذه التقنية ليست متاحة على نطاق واسع حتى الآن ، وحتى الآن يمكن فقط للمستخدمين الذين يدفعون رسوم اشتراك استخدامها.

هذا ما أكده إيفي آن فان ديس ، أخصائية نفسية في المركز الطبي بجامعة أمستردام. لكنها شاهدت عروضًا توضيحية للنسخة الجديدة ، وعلقت عليها قائلة: “لقد رأينا بعض المقاطع حيث أظهرت الشركة إمكاناتها ، وهو أمر مذهل حقًا.” كمثال على هذه الإمكانات ، يقول فان ديس ، أخذ GPT-4 رسمًا بسيطًا مرسومًا يدويًا لموقع ويب ثم كتب الكود لإنشائه ، مما يدل على قدرته على التعامل مع الصور كمدخلات.

صندوق اسود

ومع ذلك ، فقد تسربت حالة من الإحباط إلى المجتمع العلمي بعد سرية المطور حول كيفية تدريب النموذج ، وكذلك على البيانات التي اعتمد عليها لإنجاز هذه المهمة ، وحتى حول كيفية عمل GPT-4 في المقام الأول. تقول ساشا لوسيون ، عالمة أبحاث متخصصة في أبحاث المناخ في منظمة HuggingFace التعاونية مفتوحة المصدر للذكاء الاصطناعي: “كل هذه النماذج مغلقة المصدر ، وهي حقًا طريق مسدود في العلم”.[OpenAI][ أن تواصل العمل والتطوير اعتمادًا على الأبحاث التي أجروها، لكن بالنسبة إلى المجتمع في العموم، فهذا طريقٌ مسدود”.

أُتيح لأندرو وايت، باحث الهندسة الكيميائية بجامعة روشستر في نيويورك، أن يستخدم «جي بي تي-4»، كونه واحدًا من «الفريق الأحمر»، وهو المسمَّى الذي يُطلَق على من يتقاضون أتعابًا من الشركة المطوِّرة نظير اختبار المنصة، ومحاولة إيقاعها في أخطاء. ذكر وايت إنه مُكِّن من استخدام «جي بي تي-4» منذ ستة أشهر، وقال: “في بادئ الأمر، لم يبدُ أن هناك هذا الاختلاف الشاسع” بينه وبين الإصدارات السابقة.

طرح وايت على روبوت الدردشة أسئلة تستفسر منه عن خطوات التفاعلات الكيميائية المطلوبة للحصول على مركب ما، وطلب منه أن يتوقع إنتاجية التفاعل، وأن يختار العامل الحفّاز المناسب. يقول: “في البداية، لم يُثِر إعجابي كثيرًا. وكان هذا مفاجئًا حقًا؛ صحيحٌ أن أجوبته بَدَت واقعيةً إلى حدٍّ بعيد، لكنه قد يدخل في نوبة «هلوسة»، فيضيف ذرةً هنا، أو يُسقط خطوة من خطوات التفاعل هناك”. ولكن حين أتاح له وايت الوصول إلى الأوراق البحثية، في إطار العمل الذي يقوم به «الفريق الأحمر»، تغيَّرت الأمور تغيُّرًا هائلًا. يقول وايت: “من هنا أدركنا أن هذه النماذج قد لا تقدم مستوًى جديرًا بالإعجاب من تلقائها، وبغير مساعدة، لكن ما إن تشرع في ربطها بالإنترنت، وتدعمها بالأدوات، من قبيل مخطِّطات التخليق الرجعي والآلات حاسبة، حتى تطالعك بقدرات جديدة تمامًا”.

تلافي الأخطار

هذه الإمكانات تأتي مصحوبةً ببعض المخاوف. منها، مثلًا: هل سيمكّن «جي بي تي-4» مستخدميه من تصنيع مواد كيميائية خطرة؟ يقول وايت إن مهندسي الشركة غذّوا النموذج بمدخلات حتى يثنوا «جي بي تي-4» عن تصنيع مواد خطرة أو غير قانونية، أو مواد قد تسبب أضرارًا، وذلك استنادًا إلى ما أفادهم به باحثون وخبراء مثل وايت.

ومشكلةٌ ثانية، تتمثل في أن يمُدَّ النموذج مستخدميه بمعلومات خاطئة. وتقول لوتشيوني إن النماذج من قبيل «جي بي تي-4»، والتي وُضعت لتتوقع الكلمة التالية المناسبة في الجملة، لا يمْكن علاجها من اختلاق معلومات غير حقيقية، وهو ما يطلق عليه «الهلوسة». وتضيف الباحثة: “لا يمكنك الاعتماد على النماذج من هذا النوع لأنها تعجّ بالهلاوس”. وتقول إن ذلك لا يزال مبعث قلق قائمًا في الإصدار الجديد أيضًا، رغم زعم الشركة أنها قد رفعت مستويات الأمان في «جي بي تي-4».

وترى لوتشيوني أنها إذا لم تُمكَّن من الاطّلاع على البيانات التي استُخدمت لتدريب النموذج، فإن تأكيدات الشركة على أمانه ستظل قاصرة عن طمأنتها. وتقول: “أنت لا تعرف ما البيانات المستخدمة، ومن ثم لا يمكنك أن تحسّن النموذج. أعني أنه يستحيل أن تستخدم نموذجًا هذه صفته لأداء مهام علمية”.

وبالمثل، ترى عالمة النفس كلاودي بوكتِنج، زميلة الباحثة فان ديس في أمستردام، أن الغموض الذي يكتنف الكيفية التي دُرِّب بها النموذج يثير القلق، وتقول: “من الصعب جدًا على إنسان أن يتحمل مسؤولية شيء لا يستطيع أن يُشرف عليه”. ومن بين الأمور التي تبعث على القلق، احتمال أن يحمل النموذج انحيازات أشد مما لدى البشر أنفسهم”. وتوضح لوتشيوني أنه ما لم يُفصَح عن الأكواد البرمجية التي يقوم عليها «جي بي تي-4»، فسوف يتعذَّر التوصُّل إلى مصدر هذه الانحيازات، ومعرفة السبيل إلى علاجها.

جدلٌ حول الجوانب الأخلاقية

تتسابق كبريات شركات التكنولوجيا على الاستحواذ على أنظمة الذكاء الاصطناعي، وهذا أيضًا مما يبثُّ القلق في نفسَي الباحثتَين بوكتِنج وفان ديس، اللتين ترغبان في أن تتأكدا من أن هذه التقنية يجري اختبارها والتحقق منها كما يجب من قبل علماء. تقول لوتشيوني: “لنا أن نرى في هذا فرصة مناسبة أيضًا، فالتعاون مع شركات التكنولوجيا الكبرى يمكن له بالطبع أن يسرّع هذه العملية”.

كانت الباحثتان وزملاؤهما قد نادتا في وقت سابق من العام الجاري بضرورة وضع مجموعة من القواعد الإرشادية “الحية”، تحْكُم آلية تطوير أنظمة الذكاء الاصطناعي، والأدوات من قبيل «جي بي تي-4»، وكيفية استخدامها. وهم، في الوقت نفسه، يخشون من أن أي تشريعات تتناول تكنولوجيا الذكاء الاصطناعي سيصعب عليها مجاراة السرعة التي يمضي بها تطوير هذه التكنولوجيا. ومن المقرَّر أن تعقد الباحثتان اجتماعًا مع عدد من المشاركين المدعوين بجامعة أمستردام في الحادي عشر من شهر أبريل لمناقشة هذه التخوفات. يُنتظَر أن يشارك في هذا الاجتماع ممثلون من منظمات تشمل لجنة أخلاقيات البحث العلمي بمنظمة اليونسكو، ومنظمة التعاون الاقتصادي والتنمية، والمنتدى الاقتصادي العالمي.

أما وايت، فيرى أنه مهما يكن شأن هذه التخوفات، فإن «جي بي تي-4»، وما سيليه من إصدارات، سوف تغيِّر وجه العلوم. يقول: “في الواقع، أظنه سيمثّل تغيرًا هائلًا في البنية التحتية للأنشطة العلمية، تقريبًا مثلما كان الإنترنت تغييرًا كبيرًا”. وأضاف أنه لا يعتقد أن «جي بي تي-4» سيحل محل العلماء، لكنه سيكون مفيدًا في إنجاز بعض المهام، ويقول: “أعتقد أننا سندرك أنه بوسعنا الربط بين الأوراق البحثية وبرامج البيانات والمكتبات البرمجية التي نستخدمها وبين الأعمال الحاسوبية، وربما حتى بينها وبين التجارب الروبوتية”. 

LEAVE A REPLY

Please enter your comment!
Please enter your name here