إنَّ رواج الذكاء الاصطناعي (AI) يُعتبر سيف ذو حدين. مثل كل تكنولوجيا مُزعزعة ، يُوفر الذكاء الاصطناعي إمكانات هائلة ولكن أيضًا مخاطر مُدمرة. على الرغم من الدفعة المُؤكدة لتنظيم الذكاء الاصطناعي ، يبدو أنَّ الجهات الفاعلة المُهددة قد تمكنت من الإستفادة من مُختلف التقنيات التي أصبحت مُتاحة من أجل نشر الذعر واستهداف المُستخدمين المُطمئين.
يكتسب روبوت دردشة جديد على غرار ChatGPT ، تم تسميته بـ FraudGPT ، قوة جذب بين مُجرمي الإنترنت ، مما يسمح لهم بأتمتة وتنفيذ جزء كبير من عمليات الاحتيال القياسية. يُمكن لأي شخص أن يصبح ضحية ، لذلك من المُهم أن تظل على اطلاع.
يُمكن استخدام FraudGPT لمجموعة متنوعة من الأغراض الضارة ، بما في ذلك نشر الأخبار المُزيفة والتحريض على العنف. يُمكن استخدامه أيضًا لسرقة المعلومات الشخصية أو الاحتيال على الأشخاص. إليك كل ما نعرفه عن FraudGPT حتى الآن. تحقق من لماذا لا يجب أن تثق في ChatGPT لمُشاركة المعلومات السرية معه.
روابط سريعة
ما هو FraudGPT؟
FraudGPT هو أداة ذكاء اصطناعي مدعومة بنموذج لغة كبير تم ضبطه بشكل دقيق لمُساعدة مُجرمي الإنترنت على ارتكاب الجرائم الإلكترونية. يسمح روبوت الدردشة المُستند إلى الاشتراك للجهات الفاعلة في التهديد بتسهيل أنشطتها الإجرامية مثل إنشاء البطاقات المُزيفة والتصيد الاحتيالي وإنشاء البرامج الضارة.
على الرغم من أنَّ التفاصيل حول روبوت الدردشة لا تزال محدودة للغاية ، فقد كشف باحثون من شركة Netenrich ، وهي شركة أبحاث أمنية ، عن العديد من الإعلانات على شبكة الويب المُظلم للإعلان عن هذا النموذج. وفقًا لتقرير بحثي من Netenrich ، تتراوح رسوم الاشتراك بين 200 دولار شهريًا و 1700 دولار سنويًا.
لتصور الأداة بشكل أفضل ، يُمكنك التفكير في FraudGPT على أنه ChatGPT ولكن مُخصص لتوفير مُختلف المعلومات المُتعلقة بالاحتيال. ولكن كيف يعمل FraudGPT بالضبط ، وكيف يستخدمه مجرمو الإنترنت؟
كيف يعمل FraudGPT؟
في جوهره ، لا يختلف FraudGPT اختلافًا كبيرًا عن أي نموذج يتم تشغيله بواسطة LLM. بمعنى آخر ، النموذج نفسه يُعتبر واجهة تفاعلية للمجرمين للوصول إلى نوع خاص من نماذج اللغة التي تم ضبطها لارتكاب جرائم إلكترونية.
هل لا تزال غير مُدرك لما يعنيه هذا؟ إليك فكرة تقريبية عما نتحدث عنه. في الأيام الأولى لإطلاق ChatGPT ، كان من الممكن استخدام روبوت الدردشة المزود بالذكاء الاصطناعي للقيام بأي شيء تقريبًا ، بما في ذلك مساعدة مجرمي الإنترنت على إنشاء برامج ضارة. كان هذا مُمكنًا لأن نموذج اللغة الأساسي لـ ChatGPT تم تدريبه على مجموعة بيانات تحتوي على الأرجح على عينات من مجموعة واسعة من البيانات ، بما في ذلك البيانات التي يُمكن أن تساعد مشروعًا إجراميًا.
عادةً ما يتم تغذية نماذج اللغة الكبيرة بكل شيء بدءًا من الأشياء الجيدة ، مثل النظريات العلمية ، والمعلومات الصحية ، والسياسة ، إلى البيانات غير الجيدة ، مثل عينات أكواد البرامج الضارة ، والرسائل من حملات الهندسة الإجتماعية والتصيد الاحتيالي ، والمواد الإجرامية الأخرى. عند التعامل مع نوع مجموعات البيانات اللازمة لتدريب نماذج اللغة مثل النوع الذي يدعم ChatGPT ، فمن المحتم تقريبًا أن يحتوي النموذج على عينات من المواد غير المرغوب فيها.
على الرغم من الجهود الدقيقة عادةً للتخلص من المواد غير المرغوبة في مجموعة البيانات ، فإنَّ بعضها يتسلل ، وعادة ما تكون كافية لمنح النموذج القدرة على إنشاء مواد لتسهيل الجرائم الإلكترونية. هذا هو السبب في أنه من خلال الهندسة السريعة الصحيحة ، يُمكنك الإستفادة من أدوات مثل ChatGPT و Google Gemini و Bing AI لمساعدتك في كتابة رسائل البريد الإلكتروني الاحتيالية أو البرامج الضارة للكمبيوتر.
إذا كانت أدوات مثل ChatGPT يُمكن أن تُساعد مجرمي الإنترنت في ارتكاب جرائم على الرغم من كل الجهود المبذولة لجعل روبوتات الدردشة الذكية هذه آمنة ، ففكر الآن في القوة التي يُمكن أن تُوفرها أداة مثل FraudGPT ، مع الأخذ في الاعتبار أنه تم تغذيتها على وجه التحديد بالكثير من المواد الضارة لجعلها مُناسبة للجرائم الإلكترونية. إنه مثل التوأم الشرير لـ ChatGPT الذي تم تعزيزه.
لذلك ، لاستخدام روبوت الدردشة ، يُمكن للمجرمين فقط مُطالبته كما يفعلون مع ChatGPT. يُمكن أن يطلبوا منها ، على سبيل المثال ، كتابة رسالة بريد إلكتروني للتصيد الاحتيالي لجين دو ، التي تعمل في شركة ABC ، أو ربما تطلب منه كتابة برامج ضارة باستخدام C++ لسرقة جميع ملفات PDF من كمبيوتر يعمل بنظام Windows 10. سيقوم المُجرمون في الأساس بإدخال مُطالبة شريرة ويتركون روبوت الدردشة يقوم بالرفع الثقيل. تحقق من هل سيتحول ChatGPT إلى تهديد للأمن السيبراني؟ إليك ما يجب الانتباه إليه.
كيف يُمكنك حماية نفسك من الاحتيال؟
على الرغم من كونه نوعًا جديدًا من الأدوات ، إلا أنَّ التهديد الذي يُمثله FraudGPT لا يختلف اختلافًا جوهريًا. يمكنك القول إنه يُقدم مزيدًا من الأتمتة والكفاءة للطرق المعمول بها بالفعل لتنفيذ الجرائم الإلكترونية.
سيكون المجرمون الذين يستخدمون النموذج ، من الناحية النظرية على الأقل ، قادرين على كتابة رسائل بريد إلكتروني تصيدية أكثر إقناعًا ، وتخطيط عمليات احتيال أفضل ، وإنشاء برامج ضارة أكثر فاعلية ، لكنهم لا يزالون يعتمدون في الغالب على الطرق الثابتة لتنفيذ خططهم الشائنة. نتيجة لذلك ، لا تزال الطرق المعمول بها لحماية نفسك عادةً سارية:
- كن حذرًا من الرسائل غير المرغوبة التي تطلب معلومات أو تُوجهك للنقر على الروابط. لا تقدم معلومات أو تنقر على روابط في هذه الرسائل ما لم تتحقق من المصدر.
- الاتصال بالشركات مباشرة باستخدام رقم مُستقل تم التحقق منه للتأكد من شرعيتها. لا تستخدم معلومات الاتصال الواردة في الرسائل المشبوهة.
- استخدم كلمات سر قوية وفريدة من نوعها يصعب اختراقها وتبني المُصادقة الثنائية عند توفرها لجميع الحسابات. لا تشارك أبدًا كلمات السر أو الرموز المرسلة إليك.
- تحقق بانتظام من كشوف الحساب بحثًا عن أي نشاط مشبوه.
- حافظ على تحديث التطبيقات واستخدم أدوات مكافحة الفيروسات أو مكافحة البرامج الضارة.
- تمزيق المستندات التي تحتوي على معلومات تعريف شخصية أو مالية عند عدم الحاجة إليها.
لمعرفة المزيد حول كيفية حماية نفسك ، اقرأ دليلنا حول كيفية حماية نفسك في عصر الذكاء الاصطناعي.
ابق على اطلاع لحماية نفسك
يُذكرنا ظهور أدوات مثل FraudGPT أنه على الرغم من كل الفوائد التي يُمكن أن يقدمها الذكاء الاصطناعي لنا ، إلا أنه لا يزال يمثل أداة قوية جدًا في أيدي الجهات المُهددة.
بينما تسير الحكومات وشركات الذكاء الاصطناعي الكبيرة في سباق محموم لسن طرق أفضل لتنظيم الذكاء الاصطناعي ، من المهم أن تكون على دراية بالتهديد الذي يشكله الذكاء الاصطناعي حاليًا واتخاذ الاحتياطات اللازمة لحماية نفسك. يُمكنك الإطلاع الآن على الذكاء الاصطناعي ومخاطر الخصوصية: حماية بياناتك في عالم آلي.