شمشیر دو لبه هوش مصنوعی:

رشد سریع قابلیت‌های سایبری در مدل‌های هوش مصنوعی

رشد سریع قابلیت‌های سایبری در مدل‌های هوش مصنوعی

 

OpenAIبه اطلاع می رساند  تأکید کرده است که قابلیت‌های سایبری در مدل‌های پیشرفته هوش مصنوعی (( AI به‌سرعت در حال بهبود است. این پیشرفت می‌تواند یک مزیت بزرگ برای دفاع سایبری باشد، اما در عین حال، خطرات دوگانه‌ای را به همراه دارد که باید به دقت مدیریت شود.

  • چند آمار کلیدی از پیشرفت:

  مدل GPT-5 در آگوست ۲۰۲۵: کسب امتیاز ۲۷٪ در چالش‌های Capture The Flag (CTF).

  مدل GPT-5.1-Codex-Max در نوامبر ۲۰۲۵: کسب امتیاز ۷۶٪ در چالش‌های CTF.

  • ریسک دوگانه(Dual-use) چیست؟

همانطور که در این گزارش توضیح داده شده، مدل‌های استدلال‌گر جدید (مانند مدل‌های آتی که در سطح High Capability ارزیابی می‌شوند) توانایی‌های قابل‌توجهی در حل مسائل پیچیده دارند:

  • سمت مدافع (Blue Team):

توانایی مدل در کشف خودکار آسیب‌پذیری‌ها و پیشنهاد پچ‌های امنیتی برای تقویت دفاع.

  • سمت مهاجم (Red Team):

توانایی مدل در بهره‌برداری (Exploitation) از آسیب‌پذیری‌ها و کمک معنادار به عملیات‌های نفوذ سازمانی پیچیده یا توسعه اکسپلویت‌های Zero-Day، به صورت هک خودکار.

  • استراتژی OpenAI برای مدیریت ریسک:

OpenAI اعلام کرده است که در حال سرمایه‌گذاری بر روی تقویت مدل‌ها برای کاربردهای دفاعی و ایجاد ابزارهایی مانند Aardvark)محقق امنیتی هوشمند برای یافتن و رفع آسیب‌پذیری‌ها در کدها) است. همچنین برنامه‌هایی نظیر Trusted Access Program برای ارائه دسترسی لایه‌بندی‌شده به مدافعان در دستور کار قرار دارد.

  1. این گزارش تأکید می‌کند که هیچ تدبیر امنیتی واحدی کافی نیست و رویکرد «دفاع در عمق» برای مدیریت ریسک هوش مصنوعی حیاتی است.

منبع:

https://openai.com/index/strengthening-cyber-resilience/