قيود غير معتادة في نماذج الذكاء الاصطناعي: OpenAI تحظر “العفاريت” داخل أدواتها البرمجية

الذكاء الاصطناعي كشفت تقارير تقنية عن فرض شركة OpenAI قيوداً غير تقليدية على نماذجها الحديثة، تمنعها من مناقشة موضوعات تتعلق بالمخلوقات الأسطورية مثل “العفاريت”، وذلك ضمن تعليمات داخل أداة البرمجة Codex، في خطوة أثارت جدلاً واسعاً بين المستخدمين والمتابعين.

وبحسب ما نشرته Wired، تضمنت التوجيهات حظراً صريحاً للحديث عن عدد من الكيانات، سواء كانت خيالية أو حقيقية، إلا في حال وجود صلة مباشرة بطلب المستخدم، وهو ما دفع البعض للتساؤل حول أسباب إدراج هذه القواعد غير المألوفة داخل الأنظمة.

وتشير المعطيات إلى أن بعض الإصدارات، خاصة نموذج GPT-5.5، أظهرت سلوكاً غير متوقع، حيث استخدمت مصطلحات مثل العفاريت والغيلان في وصف الأخطاء البرمجية، ما تسبب في تكرار غير مبرر لهذه التعبيرات داخل المحادثات التقنية.

وفي تعليق لافت، نشر الرئيس التنفيذي Sam Altman محتوى ساخراً حول تدريب نماذج مستقبلية، بينما أوضحت الشركة أن هذه الظاهرة تعود إلى أنماط تدريب غير مقصودة، أدت إلى تعزيز استخدام الاستعارات المرتبطة بالمخلوقات، معتبرة ذلك مثالاً على السلوكيات غير المتوقعة الناتجة عن البيانات الضخمة.

تابع [جريدة لحظات نيوز] على Google Search
اضغط هنا ثم علّم علامة (صح ✓) للمتابعة
إجراء نهائي: Take me to Google Search
متابعة الآن

أحدث الأخبار

أهم الأخبار

آخر 24 ساعة
تابع جريدة لحظات نيوز على Google Search

اضغط هنا ثم علّم علامة صح ✓ للمتابعة.

إجراء نهائي: Take me to Google Search
متابعة الآن