
ثالث يتعلق بالذكاء الاصطناعي هجوم إثبات المفهوم التي جذبت الانتباه استخدمت حقنة سريعة لجعل برنامج Duo chatbot الخاص بـ GitLab يضيف خطوطًا ضارة إلى حزمة تعليمات برمجية مشروعة. نجح أحد أشكال الهجوم في سرقة بيانات المستخدم الحساسة.
هجوم ملحوظ آخر مستهدفة أداة الترميز Gemini CLI. لقد سمح للمهاجمين بتنفيذ أوامر ضارة، مثل مسح القرص الصلب، على أجهزة الكمبيوتر الخاصة بالمطورين باستخدام أداة الذكاء الاصطناعي.
استخدام الذكاء الاصطناعي كطعم ومساعدين للقرصنة
استخدم المتسللون الآخرون المتورطون في LLM برامج الدردشة الآلية لجعل الهجمات أكثر فعالية أو أكثر سرية. في وقت سابق من هذا شهر، تم اتهام رجلين بسرقة ومسح بيانات حكومية حساسة. وقال ممثلو الادعاء إن أحد الرجال حاول إخفاء آثاره من خلال سؤال إحدى أدوات الذكاء الاصطناعي “كيف يمكنني مسح سجلات النظام من خوادم SQL بعد حذف قواعد البيانات”. وبعد فترة وجيزة، زُعم أنه سأل الأداة، “كيف يمكنك مسح جميع سجلات الأحداث والتطبيقات من Microsoft Windows Server 2012.” وتمكن المحققون من تتبع تصرفات المتهمين على أي حال.
في يمكن، اعترف رجل بأنه مذنب في اختراق أحد موظفي شركة والت ديزني عن طريق خداع الشخص لتشغيل نسخة ضارة من أداة إنشاء صور الذكاء الاصطناعي مفتوحة المصدر والمستخدمة على نطاق واسع.
وفي أغسطس، باحثو جوجل حذر يجب على مستخدمي وكيل الدردشة Salesloft Drift AI اعتبار جميع رموز الأمان المتصلة بالمنصة معرضة للخطر بعد اكتشاف أن مهاجمين غير معروفين استخدموا بعض بيانات الاعتماد للوصول إلى البريد الإلكتروني من حسابات Google Workspace. استخدم المهاجمون الرموز المميزة للوصول إلى حسابات Salesforce الفردية، ومن هناك لسرقة البيانات، بما في ذلك بيانات الاعتماد التي يمكن استخدامها في انتهاكات أخرى.
كانت هناك أيضًا حالات متعددة لنقاط الضعف في LLM التي عادت لتلحق الضرر بالأشخاص الذين يستخدمونها. في حالة واحدة، تم اكتشاف برنامج CoPilot وهو يكشف محتويات أكثر من 20000 مستودع GitHub خاص من شركات بما في ذلك Google وIntel وHuawei وPayPal وIBM وTencent، ومن المفارقات، Microsoft. كانت المستودعات متاحة في الأصل من خلال Bing أيضًا. قامت Microsoft في النهاية بإزالة المستودعات من عمليات البحث، لكن برنامج CoPilot استمر في الكشف عنها على أي حال.
