
انتشر استخدام وكلاء الذكاء الاصطناعي بشكل كبير في الآونة الأخيرة مع تطور تقنيات الذكاء الاصطناعي والقدرات التي يستطيع وكلاء الذكاء الاصطناعي القيام بها.
وبينما ينظر العديد من المستخدمين إلى هذه التقنية بعين الإعجاب والإبهار كونها أداة سحرية قادرة على توفير الوقت والمجهود، يرى البعض أنها أداة خطرة تحمل تهديدا كبيرا على أمن وسلامة المستخدمين الذين يعتمدون عليها.
ويعود السبب في ذلك إلى المخاوف الأمنية والعملية من استخدام وكلاء الذكاء الاصطناعي والصلاحيات التي يملكونها، فهل هناك مبرر لهذه المخاوف، أم أنها مجرد مخاوف مثل التي تظهر مع أي تقنية ذكاء اصطناعي جديدة؟
أزمة عملية
أحدث وكلاء الذكاء الاصطناعي في الفترة الماضية مجموعة من الأزمات الشخصية للمستخدمين الذين منحوهم الثقة الكاملة وأتاحوا لهم العمل بشكل مباشر في بيئة العمل التابعة لهم.
ومن بين هؤلاء، تأتي سمر يو التي تعمل كباحثة في مجال أمن وسلامة الذكاء الاصطناعي لدى شركة “ميتا” (Meta) الأمريكية، إذ منحت سمر وكيل الذكاء الاصطناعي مفتوح المصدر “أوبن كلو” (OpenClue) وصولا كاملا وغير مشروط إلى البريد الإلكتروني الخاص بها حسب تقرير نشرته مجلة “بي سي ماغازين” (PC Magazine) الأمريكية.
ولكن وكيل “أوبن كلو” الخاص بها قام بحذف جميع رسائل البريد الإلكتروني الخاصة بها، وذلك بعد أن طلبت منه فقط تفحص صندوق الوارد الخاص بها وإخبارها إن كان هناك ما يمكن حذفه، ولكن دون حذف أي شيء دون الرجوع لها.
ورغم أن يو أخذت احتياطها بشكل كامل، بدءا من تشغيل “أوبن كلو” من خلال حاسوب “ماك ميني” (Mac Mini) منفصل وتجربة الأمر في البداية على صندوق بريد إلكتروني صغير وغير هام، إلا أن النتيجة النهائية كانت حذف جميع الرسائل الخاصة بها.
وتكرر الأمر أيضا مع مهندس البرمجيات أليكسي غريغوريف الذي كان يستخدم أداة البرمجة بالذكاء الاصطناعي من شركة “آنثروبيك” (Anthropic) الأمريكية والتي يطلق عليها “كلود كود” (Claude Code)، وهي الأداة التي تسببت في ضجة كبيرة مؤخرا بقطاع الذكاء الاصطناعي بالمنطقة. ولكن بشكل مفاجئ أثناء عمله مع الأداة، قام “كلود كود” بتدمير قاعدة البيانات الخاصة بالموقع الذي كان يعمل عليه بشكل كامل، بما فيها سنوات من البيانات المتراكمة حسب تقرير مجلة “فورتشن” (Fortune) الأمريكية.
وتثبت هذه القصص وغيرها أن أدوات الذكاء الاصطناعي سواء كانت مفتوحة المصدر مثل “أوبن كلو” أو تابعة لشركات كبرى مثل “كلود كود” قد تخطئ وتسبب في أزمات كبيرة حال حصولها على وصول أكثر من اللازم.
مخاوف أمنية أصيلة
يشير تقرير شركة “ماكينزي” (McKinsey) الأمريكية للاستشارات الإدارية إلى أن الاعتماد على وكلاء الذكاء الاصطناعي يحمل بداخله مجموعة كبيرة من المخاوف الأمنية الأصيلة، وهي من الأسباب التي منعت بعض الشركات من التوسع في استخدام هذه التقنية.
وبينما يعد جزء كبير من هذه المخاوف متعلقا بآلية استخدام وكلاء الذكاء الاصطناعي ووصولهم إلى البيانات الخاصة بالشركة، إلا أن جزءا كبيرا منه يتعلق بمخاوف الأمن السيبراني من تقنية وكلاء الذكاء الاصطناعي.