أصلحت OpenAI الثغرة، لكن الهجوم كان يعتمد على أمر خبيث مخفي في ملف على Google Drive للتنقيب في المعلومات الشخصية للضحية وإرسالها إلى المخترق.
كشف باحثون أمنيون عن ثغرة خطيرة كان بإمكان المخترقين استغلالها للوصول إلى بيانات المستخدمين المخزنة في Google Drive عبر التكامل (Integration) مع ChatGPT.
الأخطر في هذا الهجوم أنه كان يمكن أن يحدث دون أي تفاعل من المستخدم سوى موافقته الأولية على ربط الخدمة الخارجية. ولو تم استغلال الثغرة، فربما لم يكن الضحية ليدرك أبدًا أن هجومًا قد وقع.
كشف الباحثان الأمنيان مايكل بارغوري وتمير إيشاي شربات عن هذه الثغرة خلال مؤتمر القراصنة "بلاك هات" (Black Hat) في لاس فيغاس. وأكد بارغوري لمجلة "Wired" أن شركة OpenAI قامت بمعالجة المشكلة بعد أن أبلغاها بالثغرة، لكن هذا لا يعني انتهاء المخاطر بالكامل.
تعمل الثغرة، التي أُطلق عليها اسم "AgentFlayer"، من خلال أداة "Connectors" في ChatGPT. ظهرت هذه الأداة لأول مرة في يونيو، وهي تتيح لك ربط خدمات خارجية، مثل المستندات وجداول البيانات، بحسابك على ChatGPT. يدعم التطبيق التكامل مع خدمات مثل Box و Dropbox و GitHub، بالإضافة إلى خدمات متنوعة من جوجل ومايكروسوفت للتقويم وتخزين الملفات وغيرها.
كانت الثغرة تسمح للمخترق بمشاركة ملف مباشرة إلى حساب جوجل درايف الخاص بالضحية، ويبدأ الهجوم في العمل فورًا. عند قيام ChatGPT بقراءة المعلومات الموجودة في الملف، كان سيجد أمرًا خبيثًا مخفيًا بداخله. وقد تمكن المخترقون من إخفاء هذا الأمر بجعله بخط حجمه 1 بكسل ونص أبيض، مما يجعله غير مرئي للعين المجردة.
يبلغ طول هذا الأمر الخفي حوالي 300 كلمة، وكان يسمح للمخترقين بالوصول إلى ملفات محددة من مناطق أخرى داخل Google Drive. في المثال الذي قدمه الباحثان، تمكن الأمر الخفي من سحب مفاتيح الواجهة البرمجية (API Keys) المخزنة في ملف آخر داخل Drive.
شرح تقني: مفاتيح الواجهة البرمجية (API Keys) هي رموز حساسة جدًا تُستخدم لربط التطبيقات والخدمات ببعضها، والوصول إليها يمنح المخترق صلاحيات واسعة للتحكم في تلك الخدمات.
كان الأمر الخفي سيسمح أيضًا للمخترقين بالاستمرار في التحكم بالذكاء الاصطناعي وتوجيهه. في هذا المثال، كان الذكاء الاصطناعي يبحث عن معلومات سرية لمشاركتها مباشرة مع المخترق، وربما كان سيستمر في فعل ذلك حتى يقوم الضحية بفصل التكامل مع Google Drive.
يُظهر هذا الهجوم كيف أصبح الذكاء الاصطناعي جبهة جديدة في عالم الأمن السيبراني. فهذا يعني أن المخترقين لديهم الآن أدوات أكثر قوة لمهاجمة الأشخاص، حيث يصبح الذكاء الاصطناعي نفسه، في هذا السيناريو، أداة تعمل ضد الضحية.
وكتب الباحث شربات في منشور على مدونة: "هذا الأمر لا يقتصر على جوجل درايف فقط؛ فأي مصدر متصل بـ ChatGPT يمكن استهدافه لتسريب البيانات".
إذا كنت قد استخدمت ميزة ربط أدوات خارجية مع أي روبوت محادثة يعمل بالذكاء الاصطناعي، فكن حذرًا بشأن البيانات التي تشاركها حتى لا تقع ضحية لهجوم مماثل. احفظ معلوماتك الحساسة في مكان آمن، وتجنب تخزين كلمات المرور والمعلومات الشخصية في الخدمات السحابية قدر الإمكان.