DeepSeek AI يولد خططا إجرامية وتفسيرات للأسلحة الكيميائية

ظهر DeepSeek AI ، الذكاء الاصطناعي الصيني الجديد، كمنافس قوي لـ OpenAI، مما أحدث ضجة في الصناعة. ومع ذلك، يحذر الخبراء الأمنيون من أن قدراته التوليدية قد تشكل تهديدا كبيرا، إذ يمكن أن ينتج محتوى خطيرا، يشمل مخططات إجرامية وتفاصيل حول الأسلحة الكيميائية.

DeepSeek AI تحت المجهر: ذكاء اصطناعي صيني يثير المخاوف الأمنية


يتطور الذكاء الاصطناعي بوتيرة متسارعة، محققا إنجازات لافتة في مختلف المجالات، لكنه في الوقت نفسه يثير مخاوف أمنية متزايدة. بعض النماذج الحديثة أصبحت قادرة على توليد محتوى محفوف بالمخاطر، مما يستدعي اتخاذ تدابير وقائية صارمة. من بين هذه النماذج، برز DeepSeek كأحد أحدث المنافسين، لكنه دخل دائرة الجدل بسبب المخاطر المحتملة التي قد تنجم عن استخدامه.

نموذج DeepSeek R1، الذي تم تطويره في الصين كمشروع مفتوح المصدر، لفت الأنظار ليس فقط كبديل محتمل لـ OpenAI، بل أيضًا بسبب افتقاره إلى الضوابط الكافية. وفقًا لدراسة أجرتها شركة الأمن السيبراني Enkrypt AI، فإن هذا النموذج أكثر عرضة 11 مرة من ChatGPT-4 لإنتاج محتوى خطير، بما في ذلك مخططات إجرامية مفصلة، ومعلومات عن أسلحة غير مشروعة، وحتى أدلة دعائية متطرفة.

ويزداد الجدل حول DeepSeek AI بعد حادثة أمنية خطيرة كشفت عن ثغرة تسببت في تسريب محادثات الملايين من المستخدمين، ما يسلط الضوء على الحاجة إلى رقابة صارمة على مثل هذه النماذج التوليدية.

DeepSeek R1 : هل يُسهل الوصول إلى البيانات الخطرة؟


كشف الباحثون أن DeepSeek R1 أكثر عرضة 3.5 مرات من منافسيه لتقديم تفسيرات حول المواد الخطرة، مما يثير مخاوف بشأن استخدامه. ووفقًا لتقرير Enkrypt AI، فقد وُجد أن النموذج قادر على شرح تفاعلات كيميائية حساسة، بما في ذلك كيفية تأثير غاز الخردل على الحمض النووي، وهي معلومات قد تُستخدم نظريا في تصنيع الأسلحة الكيميائية.

ورغم أن هذه التفاصيل متاحة في الأدبيات العلمية، فإن قدرة الذكاء الاصطناعي على تلخيصها وإتاحتها خلال ثوانٍ تطرح تحديات أمنية خطيرة، ما يستدعي ضرورة فرض قيود صارمة على مثل هذه النماذج التوليدية.

رغم أن نتائج الاختبارات على DeepSeek R1 تثير القلق، فإنها بحاجة إلى وضعها في سياقها الصحيح. فعلى الرغم من أن النموذج يُصنَّف ضمن 20% من النماذج الأقل أمانا، إلا أن 6.68% فقط من استجاباته تحتوي على محتوى غير مقبول. ومع ذلك، فإن المخاطر المحتملة لا تزال كبيرة، مما يزيد من الضغوط على المطورين لاتخاذ تدابير وقائية أكثر صرامة.

ومع التوسع السريع للنماذج مفتوحة المصدر، باتت الحاجة إلى تنظيمها أكثر إلحاحا من أي وقت مضى، خاصة مع تصاعد المخاوف بشأن كيفية استغلال هذه التقنيات في الوصول إلى معلومات حساسة.

Exit mobile version