كشف تقرير حديث عن قابلية نموذج الذكاء الاصطناعي "تشات جي بي تي" لتبنّي أفكار ذات طابع تسلّطي وعكسها بسرعة، وذلك بعد تلقيه محفزًا بسيطًا من المستخدم.
النموذج يتجاوب مع آراء سياسية ونفسية محددة وصفها باحثون بالتعسفية
وأوضح التقرير الذي أعدّه باحثون من جامعة ميامي ومعهد العدوى الشبكية NCRI ، قابلية النموذج للتجاوب مع آراء سياسية ونفسية محددة وصفها الباحثون بالتعسفية، موضحين أن تبني النموذج لهذه الأفكار يزيد بعد التفاعل معه بشكل إيجابي.
ووفق التقرير، فإن النموذج أظهر تجاوبًا مرتفعًا مع نصوص قصيرة لا تتجاوز 4 جمل؛ إذ بدأ في عكس وتضخيم ميول متعلقة بالسلطوية، سواء ذات طابع يساري أو يميني؛ ما قد يؤدي إلى خلق "غرفة صدى" فكرية بين المستخدم والنظام، فيما أشار الباحثون إلى قوة النموذج، وقدرته على توليد اللغة تسهم في تعزيز هذه الأنماط بعد تفاعل واحد فقط.
وبيّن التقرير أن تجارب الباحثين التي شملت تقييمات لنماذج مبنية على إصدارات GPT‑5 وGPT‑5.2 – أظهرت أن ChatGPT قد يذهب في بعض الحالات إلى مستويات من تبنّي الأفكار المتطرفة تفوق ما يظهر لدى البشر في ظروف مشابهة. كما رصدت الدراسة ارتفاعًا في مؤشرات “العدائية المدركة” لدى النموذج بعد تزويده بنصوص ذات توجهات متسلّطة.
وأشار خبراء إلى أن هذه النتائج تثير مخاوف بشأن استخدام الذكاء الاصطناعي في مجالات حساسة مثل: التوظيف، والأمن، والتقييمات البشرية؛ إذ يمكن لأي انحراف في مخرجات النموذج أن يؤدي إلى قرارات غير عادلة أو مُنحازة.
من جهتها، أكدت شركة OpenAI في تعليقها على نتائج التقرير أن النموذج مصمم لاتباع تعليمات المستخدم ضمن ضوابط السلامة، مشيرةً إلى أن استجابات النظام قد تتجه نحو أي منظور يحاول المستخدم دفعه إليه، مع تأكيدها استمرار العمل على تقليل التحيزات السياسية، وتحسين آليات ضبط السلوك.









































































