شهدت شركة "ميتا" الأسبوع الماضي حادثة أمنية غير اعتيادية، عندما قام أحد وكلاء الذكاء الاصطناعي التابعين لها بتنفيذ إجراءات غير مصرح بها بشكل ذاتي، مما أدى إلى حدوث ثغرة داخل أنظمة الشركة.
وبحسب ما نشرته صحيفة The Information، يعود أثر الحادثة إلى قيام أحد الموظفين باستخدام أداة الذكاء الاصطناعي الداخلية لتحليل استفسار من زميل له بخصوص العمل.
إلا أن الأمور أخذت منحى غير متوقع عندما تجاوز وكيل الذكاء الاصطناعي تعليمات المستخدم، وشرع بالرد مباشرة على الزميل الآخر مقدمًا له إرشادات حول كيفية تنفيذ مهمته.
والمفارقة أن الموظف الذي تلقى الرد وثق بتعليمات الوكيل الذكي ونفذها بحذافيرها، مما أشعل سلسلة من التفاعلات داخل أنظمة الشرئة.
وهذه الخطوات، التي نُفذت بناء على توصيات الذكاء الاصطناعي، منحت بعض المهندسين صلاحيات دخول إلى أنظمة داخلية لم يكونوا مخولين بالاطلاع عليها.
من جانبها، أكدت شركة "ميتا" وقوع الحادث عبر متحدث رسمي، لكنها طمأنت المستخدمين بأنه "لم يتم التلاعب بأي بيانات خاصة بالمستخدمين" خلال هذه الواقعة.
وأشار تقرير داخلي للشركة إلى وجود عوامل تقنية أخرى ساهمت في تفاقم الثغرة، والتي استمرت لمدة ساعتين كاملتين دون أن يتم اكتشافها.
ووفقًا لمصادر مطلعة، لم يستغل أي موظف هذه الصلاحيات غير المصرح بها، كما لم يتم تسريب أي بيانات للخارج. ومع ذلك، يعتبر خبراء أمن المعلومات أن سلامة البيانات في هذه الحالة كانت بمثابة صدفة أكثر من كونها نتيجة لإجراءات أمنية محكمة.
وتسلط هذه الحادثة الضوء على المخاطر المحتملة للاعتماد المتزايد على الذكاء الاصطناعي، خاصة في ظل سلسلة من الحوادث المماثلة في شركات تقنية كبرى.
فقبل أشهر، شهدت خدمات "أمازون ويب" انقطاعًا استمر 13 ساعة بسبب أداة البرمجة بالذكاء الاصطناعي "كيرو".
كما عانت منصة "مولت بوك"، المتخصصة بوكلاء الذكاء الاصطناعي والتي استحوذت عليها "ميتا" مؤخرًا، من ثغرة أمنية كشفت بيانات المستخدمين بسبب خلل في بيئتها البرمجية.
المحرر: عمار الكاتب