فجر قرصنة الذكاء الاصطناعي: فهم مخاطر الذكاء الخارجي
إذا أراد أحد تطبيقات الذكاء الإصطناعي محاربة خصمه، فلن يكون بحاجة لطلب الإذن من أحد. لديه ما يكفي من الاستقلالية لاتخاذ مثل هذا القرار! وهذه هي أم المخاطر!
كتب الباحث محمد فحيلي لـ”هنا لبنان”:
مع استمرار المناقشات حول الذكاء الإصطناعي في التركيز على التكلفة والكفاءة، يجب على صانعي السياسات أن يدركوا أنّ هذه المخاوف تتضاءل مقارنة بالمخاطر الحقيقية المطروحة: إمكانية اختراق نماذج الذكاء الإصطناعي مثل ChatGPT من OpenAI و DeepSeek الصينية لبعضها البعض. هذه الأنظمة ليست مجرد أدوات سلبية (Passive Tools). إنهم يطورون أشكالاً من الذكاء الخارجي (External Intelligence) مع إمكانية الإنخراط في حرب إلكترونية بسرعات وتعقيدات تتجاوز بكثير القدرات البشرية. إذا تم إستخدام نماذج الذكاء الإصطناعي المتقدمة هذه كسلاح ضد بعضها البعض، فقد تكون العواقب كارثية، وتؤثر على الاقتصادات والحكومات ونسيج الثقة الرقمية في جميع أنحاء العالم.
لم يعد الذكاء الاصطناعي مجرد أداة للراحة – إنه شكل متطور من الذكاء الخارجي الذي يعمل بما يتجاوز القيود البشرية، ويستوعب المعرفة ويقوم بمعالجتها وتوليدها على نطاق غير مسبوق. في حين أن هذا الذكاء يدعم الإبتكار، فإنه يقدم أيضاً تهديدات جديدة وغير مرئية، لا سيما في مجال الأمن السيبراني. نظراً لأن أنظمة الذكاء الإصطناعي مثل ChatGPT من OpenAI و DeepSeek الصينية تدفع حدود ما يمكن أن تفعله الآلات، فإن إحتمال القرصنة التي يحركها الذكاء الإصطناعي لم يعد خيالاً علمياً. إنها حقيقة تلوح في الأفق يمكن أن تعيد تعريف الطريقة التي تتكشف بها الحرب الإلكترونية والمعلومات المضللة وإنتهاكات الخصوصية في العصر الرقمي.
على عكس الذكاء البشري، الذي تقيّده القدرة المعرفية وإمكانية الوصول إلى المعلومات، يعمل الذكاء الخارجي – نماذج الذكاء الإصطناعي المدربة على مجموعات بيانات ضخمة – بكفاءة حسابية وكفاءة تحليلية غير محدودة. هذا يمنح الذكاء الإصطناعي القدرة على تعزيز الأمن السيبراني ولكنه يجعله أيضاً سلاحاً قوياً في الأيدي الخاطئة. لم يعد القلق يتعلق فقط بإقتحام المتسللين الأفراد للأنظمة (hacking)، بل بات يتعلق بالهجمات الآلية الذكاء الإصطناعي التي يمكن أن تتطور وتتعلم وتتغلب على الدفاعات التقليدية بسرعة غير مسبوقة. إذا تم تسليح أنظمة الذكاء الإصطناعي ضد بعضها البعض، فقد تتراوح العواقب من النظم الإيكولوجية للمعلومات التي تم التلاعب بها إلى فشل البنية التحتية على نطاق واسع.
واحدة من أكبر المخاطر هي المعلومات المضللة التي تعمل بطاقة الذكاء الإصطناعي. إذ يمكن إستخدام تقنية التزييف العميق والأصوات الإصطناعية والنصوص التي تم إنشاؤها بواسطة الذكاء الإصطناعي لتلفيق بيانات سياسية مقنعة أو إنتحال شخصية المديرين التنفيذيين أو إنشاء تقارير مالية كاذبة. مع قدرة الذكاء الإصطناعي على إنتاج أشكال غير محدودة من المحتوى المضلل، حتى الخبراء سيكافحون للتمييز بين الواقع والمزيف. وإذا لم يتم وضع ضوابط للردع، فقد يؤدي ذلك إلى عدم الإستقرار العالمي، مع إنهيار الأسواق بسبب الأخبار الملفقة، وتتأثر الإنتخابات بالدعاية التي يولدها الذكاء الإصطناعي، وتتآكل الثقة الإجتماعية إلى الحد الذي تصبح فيه الحقيقة الموضوعية بلا معنى.
مصدر قلق ملح آخر هو الهجمات الإلكترونية المعززة الذكاء الإصطناعي. تعتمد القرصنة التقليدية على الخبرة البشرية، ولكن يمكن للذكاء الإصطناعي إنشاء رسائل بريد إلكتروني متقدمة للتصيد الإحتيالي، وإستغلال نقاط الضعف في النظام، وإجراء تدخلات إلكترونية واسعة النطاق بإستخدام الأتمتة التي لا يمكن لأي متسلل بشري مطابقتها. ويمكنه مسح مليارات أسطر التعليمات البرمجية في ثوان، وتحديد نقاط الضعف في الأنظمة المصرفية أو البنية التحتية للأمن القومي أو حتى نماذج الذكاء الإصطناعي الأخرى. مع نمو الذكاء الإصطناعي بشكل أكثر إستقلالية، تصبح إمكانية إختراق نظام آخر – معرفة نقاط ضعفه، أو إفساد مخرجاته، أو حتى إغلاقها – تهديداً ملموساً. يمكن أن تجد الدول والشركات نفسها منخرطة في سباق تسلح إلكتروني صامت، حيث لم تعد ساحة المعركة مادية بل رقمية، وحيث تهاجم كيانات الذكاء الإصطناعي وتدافع بسرعات لا يمكن لأي إنسان مراقبتها في الوقت الفعلي.
المجموعات الأكثر عرضة لخطر القرصنة التي تحركها الذكاء الإصطناعي هي تلك التي تعتمد بشكل كبير على الثقة الرقمية: المؤسسات المالية والحكومات والمؤسسات الإعلامية والمستهلكين اليوميين. يمكن التلاعب بالمصارف والأسواق المالية من خلال المعلومات المضللة الناتجة عن الذكاء الإصطناعي، مما يؤدي إلى محو المليارات من القيمة الاقتصادية في لحظات. يمكن للحكومات التي تفشل في تأمين أنظمة الذكاء الإصطناعي الخاصة بها أن ترى استغلالاً لبياناتها الحساسة، مما قد يؤثر على الدبلوماسية والأمن العالمي. وفي الوقت نفسه، تواجه صناعة الإعلام، التي تكافح بالفعل ضد المعلومات المضللة، تحدياً أكبر – التحقق من الحقيقة في عصر يمكن فيه إنتاج الأكاذيب الناتجة عن الذكاء الإصطناعي بوتيرة أسرع من التحقق من المعلومات. وفي صميم هذا المستخدمون الأفراد، الذين تتعرض بياناتهم الشخصية وأمنهم المالي وفهمهم للعالم للخطر من تدفق المعلومات المضللة التي يقودها الذكاء الإصطناعي.
إذًا، ما الذي يمكن عمله؟ الخطوة الأولى هي الوعي. يجب أن يدرك المستخدمون أن ليس كل المحتوى الرقمي – سواء كان نصاً أو فيديو أو صوتاً – أصلياً. يجب على الحكومات والشركات إنشاء أنظمة تحقق صارمة ومتطلبات شفافية الذكاء الإصطناعي لضمان تمييز المعلومات التي يتم إنشاؤها بواسطة الذكاء الإصطناعي عن المحتوى الذي أنشأه الإنسان. الخطوة الثانية هي الإستعداد للأمن السيبراني. كما يجب على المؤسسات إعطاء الأولوية للحلول الأمنية القائمة على الذكاء الإصطناعي والتي يمكنها مواجهة التهديدات التي يحركها الذكاء الإصطناعي، مما يضمن أن أنظمة الذكاء الإصطناعي ليست مجرد أدوات للإبتكار ولكنها أيضاً دروع ضد الهجمات الرقمية. أخيراً، يجب أن يكون هناك تعاون عالمي في تنظيم الذكاء الإصطناعي، مما يضمن عدم تمكن أي كيان واحد – حكومة أو شركة أو قراصنة – من استخدام الذكاء الإصطناعي دون رادع لتعطيل الإستقرار الرقمي في العالم.
الذكاء الخارجي، على الرغم من قوته، لا يزال في خدمة أولئك الذين يمارسونه. وإذا تُرِك الذكاء الإصطناعي دون تنظيم فقد يُساء استخدامه ليصبح التهديد نفسه الذي تم تصميمه لمنعه. لقد حان وقت التحرك الآن، قبل أن يتحول الذكاء الخارجي إلى فوضى خارجية، وتشكيل عالم لم تعد فيه الثقة الرقمية يقيناً بل مقامرة.
مواضيع مماثلة للكاتب:
5 محاضر ضبط بحق أصحاب مولدات ومحطات محروقات | بالصور – الجيش يستكمل الانتشار في منطقة جنوب الليطاني | تأثيرات غير متوقعة لمسكنات الألم على القدرات المعرفية… اكتشفوها |