
ChatGPT على المريخ .. كيف يدرس الذكاء الاصطناعي الكوكب الأحمر؟
تعرضت شركة OpenAI لما يبدو أنه أول دعوى تشهير بسبب معلومات مضللة من ChatGPT ، حيث يقاضي المضيف الإذاعي في جورجيا مارك والترز الشركة بعد أن أفاد روبوت الدردشة ChatGPT أنه اتُهم بالاحتيال واختلاس أموال من منظمة غير ربحية.
قام النظام بإنشاء المعلومات استجابة لطلب من طرف ثالث ، وهو صحفي يدعى فريد رييل. تم رفع قضية والترز في 5 يونيو في محكمة مقاطعة جوينيت بجورجيا حيث يسعى للحصول على تعويضات مالية غير محددة من شركة أوبن إيه آي.
هذه المشكلة جديرة بالملاحظة نظرًا للشكاوى المنتشرة حول المعلومات الخاطئة الناتجة عن ChatGPT وروبوتات الدردشة الأخرى. لا تملك هذه الأنظمة طريقة موثوقة للتمييز بين الحقيقة والخيال ، وعندما يُطلب منها معلومات ، خاصة إذا طُلب منها تأكيد شيء يقترح السائل أنه صحيح ، فإنها غالبًا ما تخترع التواريخ والحقائق والأرقام.
هذه التلفيقات تضلل المستخدمين فقط أو تضيع وقتهم ، ولكن تظهر حالات مثل هذه الأخطاء التي تسبب الضرر ، بما في ذلك المحامي الذي يواجه عقوبات محتملة بعد استخدام ChatGPT للبحث في القضايا القانونية المزيفة.
يتضمن OpenAI إخلاء مسؤولية على صفحة ChatGPT الرئيسية يحذر من أن النظام “قد ينتج أحيانًا معلومات غير صحيحة” ، لكن الشركة تقدم أيضًا ChatGPT كمصدر للبيانات الموثوقة ، وتصف النظام في نسخة الإعلان بأنه وسيلة “للحصول على إجابات” و ” تعلم شيئا جديدا.” قال الرئيس التنفيذي لشركة OpenAI Sam Altman في مناسبات عديدة إنه يفضل تعلم معلومات جديدة من ChatGPT بدلاً من الكتب.
في الولايات المتحدة ، يحمي القسم 230 شركات الإنترنت من المسؤولية القانونية عن المعلومات التي ينشئها طرف ثالث ويستضيفها على منصاتهم. من غير المعروف ما إذا كانت وسائل الحماية هذه تنطبق على أنظمة الذكاء الاصطناعي ، والتي لا ترتبط ببساطة بمصادر البيانات ولكنها تولد المعلومات من جديد. إنها عملية تولد أيضًا بيانات خاطئة.
المزيد: الموقع أخبار الخليجللتواصل الاجتماعي ، تابعنا أهل الخليج