Trace Id is missing
تخطي إلى المحتوى الرئيسي
Security Insider

التعامل مع المخاطر عبر الإنترنت وتعزيز الدفاعات في عصر الذكاء الاصطناعي

صورة لمجموعة من الأشخاص يقفون على قرميد

المشكلة 6 لـ Cyber Signals

كل يوم، تعمل أكثر من 2.5 مليار عملية اكتشاف مستندة إلى السحابة ومعتمدة على الذكاء الاصطناعي على حماية عملاء Microsoft.

يشهد عالم الأمان عبر الإنترنت اليوم تحولاً هائلاً. يأتي الذكاء الاصطناعي (AI) في طليعة هذا التغيير، ما يشكل تهديداً وفرصة في آن واحد. في حين أن الذكاء الاصطناعي لديه القدرة على تمكين المؤسسات من هزيمة الهجمات الإلكترونية بسرعة الآلة ودفع الابتكار والكفاءة في اكتشاف المخاطر والمطاردة والاستجابة للحوادث، يمكن للخصوم استخدام الذكاء الاصطناعي كجزء من مآثرهم. لم يكن تصميم الذكاء الاصطناعي ونشره واستخدامه بشكل آمن أكثر أهمية بالنسبة لنا من أي وقت مضى.

في Microsoft، نستكشف إمكانات الذكاء الاصطناعي لتعزيز إجراءات الأمان لدينا، وفتح وسائل حماية جديدة ومتقدمة، وبناء برامج أفضل. بفضل الذكاء الاصطناعي، لدينا القدرة على التكيف جنباً إلى جنب مع المخاطر المتطورة، واكتشاف الحالات الشاذة على الفور، والاستجابة بسرعة لتحييد المخاطر، وتصميم الدفاعات لتناسب احتياجات المؤسسة.

يمكن أن يساعدنا الذكاء الاصطناعي أيضاً في التغلب على أحد أكبر التحديات التي تواجه الصناعة. في مواجهة النقص العالمي للقوى العاملة في مجال الأمان عبر الإنترنت مع الحاجة إلى ما يقرب من 4 ملايين متخصص في مجال الأمان عبر الإنترنت في جميع أنحاء العالم، يتمتع الذكاء الاصطناعي بالقدرة على أن يكون أداة محورية لسد فجوة المواهب ولمساعدة المدافعين على أن يتمتعوا بمزيد من الإنتاجية.

لقد رأينا بالفعل في  إحدى الدراسات كيفية مساعدة Microsoft Security Copilot محللي الأمن بغض النظر عن مستوى خبرتهم—عبر جميع المهام، كان المشاركون دقيقين 44 بالمائة أكثر و26 بالمائة أسرع.

بينما نتطلع إلى تأمين المستقبل، يجب علينا أن نضمن تحقيقنا التوازن بين الاستعداد الآمن للذكاء الاصطناعي والاستفادة من فوائده، لأن الذكاء الاصطناعي لديه القدرة على رفع الإمكانات البشرية وحل بعض من أخطر التحديات التي تواجهنا.

سيتطلب المستقبل الأكثر أماناً مع الذكاء الاصطناعي تطورات أساسية في هندسة البرمجيات. وسوف يتطلب منا أن نفهم ونواجه التهديدات التي يحركها الذكاء الاصطناعي بوصفها مكونات أساسية لأي استراتيجية أمنية. ويجب علينا أن نعمل معاً لبناء تعاون عميق وشراكات عبر القطاعين العام والخاص لمكافحة ممثلي المخاطر السيئين.

كجزء من هذا الجهد ومبادرة المستقبل الآمن الخاصة بنا، تنشر OpenAI وMicrosoft معلومات استخباراتية جديدة توضح بالتفصيل محاولات ممثلي لاختبار مدى فائدة نماذج اللغة الطبيعية (LLMs) واستكشافها في تقنيات الهجوم.

نأمل أن تكون هذه المعلومات مفيدة عبر الصناعات حيث نعمل جميعاً من أجل مستقبل أكثر أماناً. لأننا في النهاية جميعنا مدافعون.

بريت أرسينولت، 
نائب رئيس المؤسسة وكبير مستشاري الأمان عبر الإنترنت

شاهد موجز Cyber Signals الرقمي حيث يعقد فاسو جاكال، نائب رئيس المؤسسة في Microsoft Security Business مقابلات مع خبراء التحليل الذكي للمخاطر الأساسية بشأن المخاطر عبر الشبكات في عصر الذكاء الاصطناعي، والطرق التي تستخدم بها Microsoft الذكاء الاصطناعي لتوفير أمان محسن، وما يمكن أن تفعله المؤسسات للمساعدة على تعزيز الدفاعات.

المهاجمون يكتشفون تقنيات الذكاء الاصطناعي

لقد أصبح مشهد المخاطر عبر الإنترنت مليئاً بالتحديات بشكل متزايد حيث أصبح المهاجمون أكثر حماساً وتطوراً وأفضل موارد. يتطلع ممثلو المخاطر والمدافعون على حد سواء إلى الذكاء الاصطناعي، بما في ذلك نماذج اللغات الطبيعية لتعزيز إنتاجيتهم والاستفادة من المنصات التي يمكن الوصول إليها والتي يمكن أن تناسب أهدافهم وتقنيات الهجوم.

نظراً لمشهد المخاطر سريع التطور، نعلن اليوم عن مبادئ Microsoft التي توجه أعمالنا والتي تخفف من مخاطر ممثلي المخاطر بما في ذلك المخاطر المستمرة المتقدمة (APTs) والمتلاعبين المستمرين المتقدمين (APMs) وعصابات مجرمي الإنترنت، باستخدام أنظمة الذكاء الاصطناعي الأساسية وواجهات برمجة التطبيقات. تتضمن هذه المبادئ تحديد إجراءات واتخاذها ضد استخدام ممثلي المخاطر الخبيثون للذكاء الاصطناعي، وإخطار مقدمي خدمات الذكاء الاصطناعي الآخرين، والتعاون مع أصحاب المصلحة الآخرين، والشفافية.

على الرغم من اختلاف دوافع ممثلي المخاطر وتطورهم، يشتركون في مهام متماثلة عند نشر الهجمات. وتشمل هذه الاستطلاعات، مثل البحث عن صناعات الضحايا المحتملين ومواقعهم وعلاقاتهم؛ والترميز، بما في ذلك تحسين البرامج النصية وتطوير البرامج الضارة؛ والمساعدة في تعلم كل من اللغات البشرية والآلية واستخدامها.

تحاول الدول القومية الاستفادة من الذكاء الاصطناعي

بالتعاون مع OpenAI، نشارك التحليل الذكي للمخاطر الذي يظهر الخصوم التابعين للدولة المكتشفين - المتتبعين مثل Forest Blizzard وEmerald Sleet وCrimson Sandstorm وCharcoal Typhoon وSalmon Typhoon - باستخدام نماذج اللغة الطبيعية لتعزيز العمليات عبر الإنترنت.

الهدف من شراكة Microsoft البحثية مع OpenAI هو ضمان الاستخدام الآمن والمسؤول لتقنيات الذكاء الاصطناعي مثل ChatGPT، والحفاظ على أعلى معايير التطبيق الأخلاقي لحماية المجتمع من سوء الاستخدام المحتمل.

إعلام بريد إلكتروني: مستند للمراجعة والتوقيع في 7 نوفمبر 2023

استهدفت Forest Blizzard (STRONTIUM)، وهي جهة استخباراتية عسكرية روسية فعالة للغاية ومرتبطة بالمديرية الرئيسية لهيئة الأركان العامة للقوات المسلحة الروسية أو الوحدة 26165 GRU، الضحايا ذوي الاهتمام التكتيكي والاستراتيجية للحكومة الروسية. تمتد أنشطتها إلى مجموعة متنوعة من القطاعات بما في ذلك الدفاع، والنقل/اللوجستيات، والحكومة، والطاقة، والمنظمات غير الحكومية، وتكنولوجيا المعلومات

Emerald Sleet (Velvet Chollima) ممثل مخاطر كوري شمالي وجدت Microsoft أنه يستخدم تكتيكاً فريداً: انتحال شخصية المؤسسات الأكاديمية والمنظمات غير الحكومية ذات السمعة الطيبة لجذب الضحايا إلى الرد بنتائج تحليلات وتعليقات الخبراء حول السياسات الخارجية المتعلقة بكوريا الشمالية.

يتضمن استخدام Emerald Sleet لبرامج الماجستير في القانون إجراء أبحاث في مؤسسات الفكر والرأي والخبراء في كوريا الشمالية، بالإضافة إلى إنشاء محتوى من المحتمل استخدامه في حملات التصيد الاحتيالي. تفاعلت Emerald Sleet أيضاً مع نماذج اللغات الطبيعية لفهم الثغرات الأمنية المعروفة بشكل عام، واستكشاف المشكلات الفنية وإصلاحها، وللمساعدة في استخدام تقنيات الويب المختلفة.

Crimson Sandstorm (CURIUM) هو ممثل مخاطر إيراني يُعتقد أنه مرتبط بالحرس الثوري الإسلامي (IRGC). يتضمن استخدام نماذج اللغة الطبيعية طلبات للحصول على الدعم بشأن الانتحال بالهندسة الاجتماعية، والمساعدة في استكشاف الأخطاء وإصلاحها، وتطوير .NET، والطرق التي قد يتجنب بها المهاجم اكتشافه عندما يكون على جهاز مخترق.
Charcoal Typhoon (CHROMIUM) ممثل مخاطر تابع للصين ويركز في الغالب على تعقب المجموعات في تايوان وتايلاند ومنغوليا وماليزيا وفرنسا ونيبال والأفراد على مستوى العالم الذين يعارضون سياسات الصين. في العمليات الأخيرة، لوحظ أن Charcoal Typhoon يشرك نماذج اللغة الطبيعية للحصول على نتائج تحليلات حول البحث لفهم تقنيات ومنصات ونقاط ضعف محددة، ما يدل على المراحل الأولية لجمع المعلومات.

قيمت مجموعة أخرى مدعومة من الصين، وهي  Salmon Typhoon، فعالية استخدام نماذج اللغة الطبيعية طوال عام 2023 للحصول على معلومات حول مواضيع قد تكون حساسة، وأفراد بارزين، والجغرافيا السياسية الإقليمية، ونفوذ الولايات المتحدة، والشؤون الداخلية. ومن الممكن أن تعكس هذه المشاركة المبدئية مع حاملي شهادة الماجستير في القانون توسعاً في مجموعة أدوات جمع المعلومات الاستخبارية ومرحلة تجريبية في تقييم قدرات التقنيات الناشئة.

لم يحددبحثنا مع OpenAI الهجمات المهمة التي تستخدم حاملي شهادات الماجستير التي نراقبها من كثب.

تخذنا تدابير لتعطيل الأصول والحسابات المرتبطة بممثلي المخاطر هؤلاء وتشكيل حواجز الحماية وآليات السلامة حول نماذجنا.

مخاطر الذكاء الاصطناعي الناشئة الأخرى

الاحتيال المدعوم بالذكاء الاصطناعي مصدر قلق بالغ آخر. التركيب الصوتي مثال على ذلك، حيث يمكن لعينة صوتية مدتها ثلاث ثوانٍ تدريب النموذج ليبدو مثل أي شخص. حتى شيء غير ضار مثل تحية البريد الصوتي الخاص بك يمكن استخدامه للحصول على عينة كافية.

تعتمد الكثير من كيفية تفاعلنا مع بعضنا البعض وممارسة الأعمال على إثبات الهوية، مثل التعرف على صوت الشخص أو وجهه أو عنوان بريده الإلكتروني أو أسلوب كتابته.

من المهم أن نفهم كيف يستخدم الممثلون الخبيثون الذكاء الاصطناعي لتقويض أنظمة إثبات الهوية القديمة حتى نتمكن من معالجة حالات الاحتيال المعقدة وغيرها من مخاطر الانتحال بالهندسة الاجتماعية الناشئة التي تحجب الهويات.

يمكن أيضاً استخدام الذكاء الاصطناعي لمساعدة الشركات على تعطيل محاولات الاحتيال. على الرغم من أن Microsoft أوقفت تعاملنا مع شركة في البرازيل، فقد اكتشفت أنظمة الذكاء الاصطناعي لدينا محاولاتها لإعادة تشكيل نفسها من أجل الدخول مرة أخرى إلى نظامنا البيئي.

حاولت المجموعة باستمرار إخفاء معلوماتها وإخفاء جذور الملكية وإعادة الدخول، لكن اكتشافات الذكاء الاصطناعي لدينا استخدمت ما يقرب من اثنتي عشرة إشارة خطر للإبلاغ عن الشركة الاحتيالية وربطها بسلوك مشبوه تعرفت عليه مسبقاً، وبالتالي عرقلة محاولاتها.

تلتزم Microsoft بالذكاء الاصطناعي المسؤول الذي يقوده الإنسان والذي يتميز بالخصوصية والأمان، حيث يوفر البشر الإشراف وتقييم الطعون وتفسير النُهج واللوائح.

تثقيف الموظفين والجمهور حول المخاطر عبر الإنترنت:

  • استخدم نُهج الوصول المشروط: توفر هذه النُهج إرشادات واضحة ذاتية النشر لتعزيز وضع الأمان لديك والذي سيحمي المستأجرين تلقائياً بناءً على إشارات المخاطر والترخيص والاستخدام. نُهج الوصول المشروط قابلة للتخصيص وستتكيف مع المشهد المتغير للمخاطر على الشبكات.
  • تدريب الموظفين وإعادة تدريبهم على تقنيات الانتحال بالهندسة الاجتماعية:
    قم بتثقيف الموظفين والجمهور العام للتعرّف على هجمات الانتحال بالهندسة الاجتماعية (الرسائل النصية القصيرة/النصية) ورسائل البريد الإلكتروني التصيدية والتصيد الصوتي (البريد الصوتي) والتصيد الاحتيالي عبر الرسائل النصية القصيرة وتطبيق أفضل ممارسات الأمان لـ Microsoft Teams.
  • حماية البيانات بشكل صارم:
    تأكد من أن البيانات تظل خاصة وخاضعة للتحكم بشكل شامل.
  • الاستفادة من أدوات الأمان بالذكاء الاصطناعي التوليدي: يمكن لأدوات مثل Security Copilot توسيع نطاق القدرات وتحسين وضع أمان المؤسسة.
  • تمكين المصادقة متعددة العوامل: قم بتمكين المصادقة متعددة العوامل لدى جميع المستخدمين، خاصة لوظائف المسؤول، حيث أنها تقلل من خطر الاستيلاء على الحساب بنسبة تزيد عن 99 بالمائة.

التصدي للهجمات

تظل Microsoft في الطليعة بفضل الأمان الشامل المقترن بالذكاء الاصطناعي التوليدي

تكتشف Microsoft قدراً هائلاً من حركة المرور الضارة — أكثر من 65 تريليون إشارة أمان عبر الإنترنت يومياً. يعمل الذكاء الاصطناعي على تعزيز قدرتنا على تحليل هذه المعلومات والتأكد من ظهور الأفكار الأكثر قيمة للمساعدة في إيقاف المخاطر.. نستخدم أيضاً ذكاء الإشارة هذا لتشغيل الذكاء الاصطناعي التوليدي للحماية المتقدمة من المخاطر وأمان البيانات، وأمان الهوية لمساعدة المدافعين في اكتشاف ما يفوته الآخرون.

تستخدم Microsoft عدة طرق لحماية نفسها وعملائها من المخاطر عبر الإنترنت بما في ذلك الكشف عن المخاطر المدعومة بالذكاء الاصطناعي لاكتشاف التغييرات في كيفية استخدام الموارد أو نسبة استخدام الشبكة؛ والتحليلات السلوكية للكشف عن عمليات تسجيل الدخول المحفوفة بالمخاطر والسلوك الشاذ؛ ونماذج التعلم الآلي (ML) لاكتشاف عمليات تسجيل الدخول والبرامج الضارة الخطرة؛ ونماذج الثقة المعدومة حيث يجب أن تُجرى مصادقة كل طلب وصول وتفويضه وتشفيره بشكل كامل؛ والتحقق من صحة الجهاز قبل أن يتمكن الجهاز من الاتصال بشبكة الشركة.

نظرًا لأن المخاطر عبر الإنترنت تدرك أن Microsoft تستخدم المصادقة متعددة العوامل (MFA) بصرامة لحماية نفسها - حيث أُعد جميع موظفينا للمصادقة متعددة العوامل أو الحماية بدون كلمة مرور - فقد رأينا مهاجمين يميلون إلى الانتحال بالهندسة الاجتماعية في محاولة لتعريض موظفينا للخطر.

وتشمل النقاط الفعالة لذلك المجالات التي يُجرى فيها نقل الأشياء ذات القيمة، مثل التجارب المجانية أو الأسعار الترويجية للخدمات أو المنتجات. في هذه المناطق، ليس من المربح للمهاجمين سرقة اشتراك واحد في كل مرة، لذلك يحاولون تفعيل تلك الهجمات وتوسيع نطاقها دون كشفهم.

وبطبيعة الحال، نبني نماذج الذكاء الاصطناعي لاكتشاف هذه الهجمات لصالح Microsoft وعملائنا. نكشف عن حسابات الطلاب والمؤسسات التعليمية المزيفة والشركات أو المنظمات المزيفة التي بدلت بياناتها الرسمية أو أخفت هوياتها الحقيقية للتهرب من العقوبات أو التحايل على الضوابط أو إخفاء التجاوزات الإجرامية السابقة مثل إدانات الفساد ومحاولات السرقة وما إلى ذلك.

يساعد استخدام GitHub Copilot وMicrosoft Security Copilot وميزات الدردشة المساعدة الأخرى المدمجة في البنية التحتية للعمليات والهندسة الداخلية لدينا على منع الأحداث التي قد تؤثر على العمليات.

نتائج الاستطلاع حول مخاطر GenAI: مصدر القلق الأساسي لخصوصية البيانات، 42%

ولمعالجة مخاطر البريد الإلكتروني، تعمل Microsoft على تحسين قدراتها على جمع الإشارات إلى جانب تكوين البريد الإلكتروني لفهم ما إذا كانت ضارة. مع وجود الذكاء الاصطناعي في أيدي ممثلي المخاطر، كان هناك تدفق لرسائل البريد الإلكتروني المكتوبة بشكل مثالي والتي تعمل على تحسين اللغة الواضحة والأخطاء النحوية التي غالباً ما تكشف عن محاولات التصيد الاحتيالي، ما يجعل  كشف محاولات التصيد أكثر صعوبة.

هناك حاجة إلى استمرار حملات تثقيف الموظفين وتوعية الجمهور للمساعدة في مكافحة الانتحال بالهندسة الاجتماعية وهي الرافعة الوحيدة التي تعتمد بنسبة 100 بالمائة على الخطأ البشري. علمنا التاريخ أن حملات التوعية العامة الفعالة تعمل على تغيير السلوك.

تتوقع Microsoft أن يطور الذكاء الاصطناعي تكتيكات الانتحال بالهندسة الاجتماعية ما يؤدي إلى إنشاء هجمات أكثر تعقيداً بما في ذلك التزييف العميق واستنساخ الصوت، خاصة إذا وجد المهاجمون أن تقنيات الذكاء الاصطناعي تعمل بدون ممارسات مسؤولة وضوابط أمنية مدمجة.

الوقاية أمر أساسي لمكافحة جميع المخاطر عبر الإنترنت سواء كانت تقليدية أو مدعومة بالذكاء الاصطناعي.

توصيات:

تطبيق ضوابط الذكاء الاصطناعي للبائع وتقييم مدى ملاءمتها باستمرار: بالنسبة لأي ذكاء اصطناعي مُقدم في مؤسستك، ابحث عن الميزات المضمنة للبائعين المعنيين لتوسيع نطاق وصول الذكاء الاصطناعي إلى الموظفين والفرق باستخدام التكنولوجيا لتعزيز اعتماد الذكاء الاصطناعي الآمن والمتوافق. يمكنك جمع أصحاب المصلحة في المخاطر عبر الإنترنت عبر المؤسسة معاً للتوافق مع حالات استخدام موظفي الذكاء الاصطناعي المحددة وضوابط الوصول. يجب على قادة المخاطر ورؤساء أمان المعلومات أن يحددوا بانتظام ما إذا كانت حالات الاستخدام والنُهج كافية، أو ما إذا كان يجب أن تتغير مع تطور الأهداف والتعلم.
الحماية من الحقن السريعة:  تنفيذ التحقق الصارم من صحة المدخلات والتطهير للمطالبات المقدمة من المستخدم. استخدم التصفية المدركة للسياق وترميز الإخراج لمنع المعالجة السريعة. يمكنك تحديث وضبط نماذج اللغة الطبيعية بانتظام لتحسين فهمها للمدخلات الضارة وحالات الحافة. مراقبة وتسجيل تفاعلات نماذج اللغة الطبيعية لاكتشاف وتحليل محاولات الحقن الفوري المحتملة.
تفويض الشفافية عبر سلسلة توريد الذكاء الاصطناعي: من خلال ممارسات واضحة ومفتوحة، يمكنك تقييم جميع المجالات التي يمكن أن يتصل فيها الذكاء الاصطناعي ببيانات مؤسستك، بما في ذلك من خلال الشركاء والموردين الخارجيين. استخدم علاقات الشركاء وفرق المخاطر عبر الإنترنت متعددة الوظائف لاستكشاف الدروس المستفادة وسد أي فجوات ناتجة. الحفاظ على الثقة المعدومة وبرامج حوكمة البيانات الحالية أكثر أهمية من أي وقت مضى في عصر الذكاء الاصطناعي.
واصل التركيز على الاتصالات: يجب على قادة المخاطر عبر الإنترنت أن يدركوا أن الموظفين يشهدون تأثير الذكاء الاصطناعي وفوائده في حياتهم الشخصية وسيرغبون بطبيعة الحال في استكشاف تطبيق تقنيات مماثلة عبر بيئات العمل المختلطة. يمكن لرؤساء أقسام تكنولوجيا المعلومات وغيرهم من القادة الذين يديرون المخاطر عبر الإنترنت أن يشاركوا بشكل استباقي ويوسعوا سياسات مؤسساتهم بشأن استخدام ومخاطر الذكاء الاصطناعي، بما في ذلك أدوات الذكاء الاصطناعي المخصصة المعتمدة للمؤسسات ونقاط الاتصال للوصول والمعلومات. تساعد الاتصالات الاستباقية في إبقاء الموظفين على اطلاع وتمكينهم، مع تقليل مخاطر ربط الذكاء الاصطناعي غير المُدار بأصول تكنولوجيا المعلومات في المؤسسة.

لم تعد الأدوات التقليدية تواكب المخاطر التي يشكلها مجرمون الإنترنت. تتطلب السرعة المتزايدة والحجم والتعقيد للهجمات الإلكترونية الأخيرة اتباع نهج جديد للأمان. بالإضافة إلى ذلك، ونظراً لنقص القوى العاملة في مجال الأمان عبر الإنترنت، ومع تزايد المخاطر على الشبكات من حيث معدل تكرارها وخطورتها، فإن هناك حاجة ملحة لسد هذه الفجوة في المهارات.

يمكن للذكاء الاصطناعي أن يقلب الموازين للمدافعين. أظهرت إحدى الدراسات الحديثة لـ Microsoft Security Copilot (حالياً متوفر كمعاينة عميل اختبارية) زيادة في سرعة محللي الأمان ودقتهم، بغض النظر عن مستوى خبرتهم، عبر المهام الشائعة مثل تحديد البرامج النصية التي يستخدمها المهاجمون وإنشاء تقارير الأحداث وتحديد خطوات المعالجة المناسبة.1

  • دقة 44 بالمائة أكثر عبر جميع المهام لمستخدمي Microsoft Security Copilot1
  • 26 بالمائة أسرع عبر جميع المهام لمستخدمي Microsoft Security Copilot1
  • ذكر 90 بالمائة أنهم يريدون Copilot في المرة التالية التي يؤدون فيها المهمة ذاتها1
  1. [1]
    المنهجية:تمثل بيانات لقطة شاشة واحدة تجربة عشوائية مُتحكم بها (RCT)، حيث اختبرنا 149 شخصاً لقياس تأثير الإنتاجية الناتج عن استخدام Microsoft Security Copilot. في تجربة RCT هذه، أعطينا Copilot لبعض المحللين بشكل عشوائي دون غيرهم، ثم طرحنا أدائهم وتوجههم للحصول على تأثير Copilot بشكل منفصل عن أي تأثير أساسي. كان لدى الأشخاص الخاضعين للاختبار مهارات أساسية في مجال تكنولوجيا المعلومات، لكنهم كانوا مبتدئين في مجال الأمان، لذلك تمكنا من اختبار كيفية مساعدة Copilot المحللين “المبتدئين”. تم إجراء تجربة RCT هذه لـ Microsoft Security Copilot بواسطة مكتب كبير الاقتصاديين في Microsoft، نوفمبر 2023. بالإضافة إلى ذلك، يوفر Microsoft Entra ID بيانات مجهولة المصدر حول أنشطة المخاطر، مثل حسابات البريد الإلكتروني الضارة ورسائل البريد الإلكتروني التصيدية وحركة المهاجمين داخل الشبكات. نتائج التحليلات الإضافية هي من 65 تريليون إشارة أمان يومية تم الحصول عليها عبر Microsoft، بما في ذلك السحابة ونقاط النهاية والحافة الذكية وفرق الكشف وممارسة الاسترداد للأمان عند الاختراق لدينا وبيانات تتبع الاستخدام من أنظمة Microsoft الأساسية وخدماتها، بما في ذلك Microsoft Defender وتقرير تقرير الدفاع الرقمي من Microsoft لعام 2023.

المقالات ذات الصلة

البقاء في صدارة ممثلي المخاطر الذين يشكلون تهديداً في عصر الذكاء الاصطناعي

تنشر Microsoft، بالتعاون مع OpenAI، بحثاً حول المخاطر الناشئة في عصر الذكاء الاصطناعي، مع التركيز على الأنشطة المحددة المرتبطة بممثلي المخاطر المعروفين مثل Forest Blizzard وEmerald Sleet وCrimson Sandstorm وغيرها. يتضمن النشاط الملحوظ الحقن الفوري ومحاولة إساءة استخدام نماذج اللغة الطبيعية (LLM) والاحتيال.

ملف تعريف الخبير: هوما حياتيفار

تصف مديرة البيانات والعلوم التطبيقية الرئيسية هوما حياتيفار استخدام نماذج التعلم الآلي لتعزيز الدفاعات، وهي إحدى الطرق العديدة التي يغير بها الذكاء الاصطناعي وجه الأمان.

الأمان جيد تماماً مثل التحليل الذكي للمخاطر الخاص بك

وصلت مزيد من التعزيزات. يشرح جون لامبرت، قائد التحليل الذكي للمخاطر كيف يعزز الذكاء الاصطناعي مجتمع التحليل الذكي للمخاطر.

متابعة الأمان من Microsoft