كشفت شركة OpenAI بأن متصفحات الذكاء الاصطناعى رغم التطوير المستمر قد تظل عرضة لهجمات سيبرانية من نوع "حقن الأوامر"، وهى هجمات تعتمد على خداع أنظمة الذكاء الاصطناعى ودفعها لتنفيذ تعليمات خبيثة مخفية داخل مواقع الويب أو رسائل البريد الإلكترونى، ما يثير تساؤلات جدية حول أمان وكلاء الذكاء الاصطناعى أثناء تصفح الإنترنت المفتوح.
ما هى هجمات حقن الأوامر؟
تشبه هذه الهجمات فى خطورتها عمليات الاحتيال والهندسة الاجتماعية التقليدية، إذ تستغل ثقة الذكاء الاصطناعي في المحتوى الذي يتعامل معه، وترى OpenAI أن القضاء عليها نهائيًا أمر غير مرجّح، خصوصًا مع تزايد استقلالية الأنظمة الذكية وقدرتها على اتخاذ قرارات ذاتية، واعترفت OpenAI بأن "وضع الوكيل" في متصفح ChatGPT Atlas يزيد من نطاق التهديدات الأمنية، لأنه يمنح النظام صلاحيات أوسع للتصرف نيابة عن المستخدم ، ومنذ إطلاق المتصفح كشف باحثون أمنيون عن إمكانية تغيير سلوكه عبر تعليمات بسيطة مزروعة داخل مستندات أو رسائل إلكترونية.
️كيف تحاول OpenAI تحصين متصفحها؟
لمواجهة هذه المخاطر، تعتمد الشركة على دفاعات أمنية متعددة الطبقات، تشمل اختبارات مكثفة وتحديثات سريعة ، كما طوّرت OpenAI "مهاجمًا آليًا " قائمًا على الذكاء الاصطناعي، يؤدي دور المخترق بهدف اكتشاف أساليب هجوم جديدة قبل استغلالها فى الواقع، وفى إحدى التجارب، نجح هذا المهاجم الآلي في تمرير رسالة بريد إلكتروني خبيثة، ما أدى إلى تنفيذ أمر غير مقصود من قبل الوكيل الذكي، وبعد التحديثات الأمنية، أصبح النظام قادرًا على اكتشاف محاولة الحقن وتنبيه المستخدم إليها.
رأي خبراء الأمن السيبراني
ويرى خبراء أن متصفحات الذكاء الاصطناعي تعمل في منطقة عالية الخطورة بسبب الجمع بين الاستقلالية المرتفعة وإمكانية الوصول إلى بيانات حساسة مثل البريد الإلكتروني ووسائل الدفع. ويؤكد بعضهم أن الفائدة الحالية لهذه المتصفحات لا تزال أقل من حجم المخاطر المصاحبة لها، وتوصي OpenAI المستخدمين، بتقليل الصلاحيات الممنوحة لوكلاء الذكاء الاصطناعي، وتقديم تعليمات واضحة ومحددة، بدلًا من منحهم حرية واسعة في اتخاذ القرارات ، فكلما اتسع نطاق الحرية، زادت فرص استغلال المحتوى الخفي أو الخبيث للتأثير على سلوك الذكاء الاصطناعي.















0 تعليق