التقنيةالمحتوى العربيالرئيسية
تقنية

تقول ورقة بحثية جديدة إن من المرجح أن يساعدك الذكاء الاصطناعي في صنع قنبلة بنسبة 10 إلى 20 مرة إذا قمت بإخفاء...

PC Gamer • Thu, 23 Apr 2026

تقول ورقة بحثية جديدة إن من المرجح أن يساعدك الذكاء الاصطناعي في صنع قنبلة بنسبة 10 إلى 20 مرة إذا قمت بإخفاء...

في نوفمبر 2025، نشر فريق من DexAI Icaro Lab وجامعة سابينزا في روما وباحثين من كلية سانتانا للدراسات المتقدمة دراسة تمكنوا فيها من التحايل على حواجز السلامة الخاصة بماجستير القانون الرئيسي من خلال إعادة صياغة المطالبات الضارة على أنها قصائد...

ماذا حدث؟

في نوفمبر 2025، نشر فريق من DexAI Icaro Lab وجامعة سابينزا في روما وباحثين من كلية سانتانا للدراسات المتقدمة دراسة تمكنوا فيها من التحايل على حواجز السلامة الخاصة بماجستير القانون الرئيسي من خلال إعادة صياغة المطالبات الضارة على أنها قصائد...

نص الخبر بالعربي

في نوفمبر 2025، نشر فريق من DexAI Icaro Lab وجامعة سابينزا في روما وباحثين من كلية سانتانا للدراسات المتقدمة دراسة تمكنوا فيها من التحايل على حواجز السلامة الخاصة بماجستير القانون الرئيسي من خلال إعادة صياغة المطالبات الضارة على أنها قصائد "عدائية". هذا الأسبوع، نشر هؤلاء الباحثون أنفسهم بحثًا جديدًا يعرض معيار العلوم الإنسانية العدائية، وهو تقييم أوسع لأمن الذكاء الاصطناعي يقولون إنه يكشف عن "فجوة حرجة" في معايير السلامة الحالية لماجستير القانون من خلال التلاعب بالألفاظ المشابهة كسلاح.

من خلال التوسع في عمل الفريق مع الشعر العدائي، يقوم معيار العلوم الإنسانية العدائية (AHB) بتقييم إرشادات السلامة في LLM من خلال إعادة صياغة المطالبات الضارة في أساليب الكتابة البديلة. من خلال تقديم المطالبات على أنها خيال قصير عبر الإنترنت، أو جدال لاهوتي، أو استعارة شعرية أسطورية لتحليلها، يقوم AHB بتقييم ما إذا كان من الممكن التلاعب بنماذج الذكاء الاصطناعي الرئيسية للامتثال للطلبات الخطيرة التي يرفضونها عادةً - الطلبات التي، على سبيل المثال، قد تطلب مساعدة الذكاء الاصطناعي في الحصول على معلومات خاصة، أو بناء قنبل...

بعد إعادة كتابتها من خلال "تحولات نمط العلوم الإنسانية" الخاصة بـ AHB، حققت الطلبات الخطيرة التي كان يلتزم بها طلاب ماجستير القانون في السابق أقل من 4٪ من الوقت معدلات نجاح تتراوح بين 36.8٪ إلى 65٪ - أي بزيادة قدرها 10 إلى 20 مرة، اعتمادًا على الطريقة المستخدمة والنموذج الذي تم اختباره.

عبر 31 نموذجًا للذكاء الاصطناعي الحدودي من مقدمي خدمات مثل Anthropic وGoogle وOpenAI، أسفرت مطالبات الهجوم المعاد كتابتها من AHB عن معدل نجاح إجمالي للهجوم يبلغ 55.75%، مما يشير إلى أن معايير السلامة الحالية لـ LLM يمكن أن تتجاهل ثغ... في مقابلة مع PC Gamer، وصف مؤلفو الورقة النتائج بأنها "مذهلة".

لماذا يهم؟

هذا الخبر مهم لأنه يرتبط بمسار تقنية الذي يبحث عنه الزوار باستمرار، كما أنه يساعد على بناء أرشيف تقني عربي متجدد داخل الموقع بدل الاكتفاء بالروابط الثابتة.

تابع الخبر وانشره

هذه الروابط تساعد على ظهور محتوى الموقع في تطبيقات القراءة والمشاركة، بحيث يرجع الزوار إلى الخبر من منصات خارجية.

المصدر الأصلي

https://www.pcgamer.com/software/ai/ai-is-10-to-20-times-more-likely-to-help-you-build-a-bomb-if-you-hide-your-request-in-cyberpunk-fiction-new-research-paper-says/

من مواقع أخرى حول نفس الموضوع

NASA targets a September launch for its next big space telescope

Engadget — من المقرر أن تغادر عين ناسا القادمة في الكون كوكبنا في وقت لاحق من هذا العام. وتقول الوكالة إنها تستهدف إطلاق تلسكوب نانسي جريس الروماني الفضائي في أو...