بدأت شركة "OpenAI" المصنعة لـ"ChatGPT"، في تغيير قواعدها التي تخص علاقتها بالأنشطة العسكرية، في ظل إزالة الحظر المفروض على استخدام روبوت الدردشة وأدوات الذكاء الاصطناعي للأغراض العسكرية.
ووقعت الشركة عقدًا دفاعيًا مع وزارة الدفاع الأمريكية من شأنه أن يزيل الحظر عن الاستخدام العسكري لأدوات الشركة.
حذر باحثون من المخاطر الخاصة بتلك القرارات
وأزالت شركة جملتها الشهيرة التي تنص على أن الشركة لن تسمح باستخدام النماذج في "الأنشطة التي تنطوي على مخاطر عالية للأذى الجسدي بما في ذلك تطوير الأسلحة والجيش والحرب".
وسبق أن أكد المتحدث باسم الشركة أنها تعمل مع إدارة الدفاع الأمريكية على أدوات الأمن السيبراني المصممة لحماية البرمجيات مفتوحة المصدر.
وتسبب هذا القرار وفق موقع "The Verge" التقني في إثارة جدل واسع حول أخلاقيات الذكاء الاصطناعي، خاصة مع دخول أنثروبيك أيضًا في شراكات أمنية ودفاعية.
وحذر باحثون من المخاطر الخاصة بتلك القرارات ما يعني تراجع السلامة للمرتبة الثانية أمام العقود المليارية الدفاعية، وسط مطالبات بتزايد دمج الأخلاقيات وتعريفها بشكل واضح قبل نشر تقنيات الذكاء الاصطناعي.































