pay

Yapay Zeka ve Siber Güvenlik: İşte yapay zeka çağındaki yeni siber saldırılar

Yapay zeka, siber güvenlik için ikili bir zorluğu temsil ediyor: Bir yandan siber tehditlere karşı savunulması gerekiyor, diğer yandan siber suçlular tarafından giderek daha karmaşık hale gelen saldırılar için kullanılıyor. İşte kimlik avı, deepfake ve jailbreak gibi yeni yapay zeka tabanlı saldırı türleri ve hangilerinin yeni teknolojiye aykırı olduğu

Yapay Zeka ve Siber Güvenlik: İşte yapay zeka çağındaki yeni siber saldırılar

L 'yapay zeka bir meydan okumayı temsil ediyor sadece sosyal düzeyde değil ama aynı zamanda siber güvenlik alanında da. Bağlantı teknolojisinin genişlemesiyle birlikte siber tehditlerin hem karmaşıklığı hem de sıklığı artıyor. Siber güvenlik alanında artan endişe, siber saldırılar yapay zekayı (AI) kullananlar.

Ve aynı zamanda sürekli artıyorlar Siber saldırıların küresel maliyetleri. 2023 yılında, küresel kayıplar 8 trilyon dolara ulaştı. Her yılSiber suçlulardan kaynaklanan veri ihlallerinin bireylere maliyeti 318 milyar dolardır.ortalama ekonomik etki KOBİ'ler için 120.000 ila 1,24 milyon dolar arasında değişmektedir. tarafından yayınlanan en son rapor Ibm üzerinde "Veri İhlalinin Maliyeti” ortalama siber saldırının 4,45 milyon dolar kayıpla sonuçlanmasıyla tüm zamanların rekorunu ortaya koyuyor. İçinde sağlık sektörüortalama yıllık kayıplar ise 10,93 milyon dolar gibi oldukça yüksek. Amerika Birleşik DevletleriYıllık ortalama 9,48 milyon dolar zararla en çok etkilenen ülkeler arasında yer alırken, onu yıllık ortalama 8,07 milyon dolar zararla Ortadoğu takip ediyor.

Yapay zeka teknolojisinin yükselişiyle birlikte, maliyetlerin daha da artmasıtahminler yüzde 11'lik bir artışa işaret ediyor 10 trilyon dolar 2025 yılında ise maliyetlerin 2024 yılı için 9,5 trilyon olacağı tahmin ediliyor.

Yapay zeka ile daha karmaşık siber saldırılar

Yapay zeka, suç dünyasında üretkenliği önemli ölçüde artırdı. Yapay zeka teknolojisindeki ilerleme, siber suçluların yeni model ve teknikleri denemek siber saldırıdan. Bir örnek SolucanGPTEtik kısıtlamalar olmadan bilgisayar korsanlarına yardımcı olmak için oluşturulan ve medyanın ilgisini çektikten sonra kapatılan bir yapay zeka dil modeli. O zamandan beri siber suçlular, yeni yapay zeka modelleri geliştirmek yerine güvenilir şekilde çalışan mevcut araçları kullanmayı tercih ediyor.

Göre MIT Technology ReviewAI tabanlı saldırılar yapılabilir bazı ana türlere ayrılmıştır: kimlik avı, derin sahtekarlıklar, sahte belgeler oluşturma ve özel bilgilerin çevrimiçi olarak ifşa edilmesi ve jailbreak yapan yapay zeka modellerinin her biri belirli risklere sahiptir. Bunları ayrıntılı olarak görelim:

  • Phishing: Suçlular arasında üretken yapay zekanın birincil kullanımı, kimlik avı veya hassas bilgileri elde etmeleri için insanları kandırmaktır. ChatGPT'nin spam oluşturma hizmetlerine entegrasyonu şunları yapmanızı sağlar: mağdurlara gönderilen mesajları iyileştirmek. OpenAI, ürünlerinin yasa dışı amaçlarla kullanılmasını engellemeye çalışıyor ancak her şeyi kontrol etmek zor.
  • Deepfake ses: AI beni yaptı daha gerçekçi deepfake'ler. Örneğin, Hong Kong'daki bir çalışan, şirketinin CFO'sunun sahtekarlığı yoluyla 25 milyon dolar dolandırıldı. Ses deepfake'leri ucuz ve yapımı kolay ve dolandırıcılığı ikna etmek için kullanılabilir.
  • Kimlik kontrollerini geçin: Suçlular deepfake'leri kullanarak bypass doğrulama sistemleri bankaların ve kripto para platformlarının kimlikleri. Doğrulama sistemlerini yanıltmak için derin sahte bir görüntüyü gerçek bir yüze yerleştirerek sahte kimlikler oluşturabilirler.
  • Hizmet olarak jailbreak: Suçlular şu kişiler için jailbreak hizmetleri sunuyor: AI modellerini manipüle etmek ve korumalarını atlayın. Bu, fidye yazılımı için kod yazmak gibi yasa dışı etkinliklerin nasıl yapılacağına dair yanıtlar almanızı sağlar. Bu, yapay zeka şirketleri ile kötü aktörler arasında sürekli bir kedi-fare oyunu.
  • Doxxing ve gözetim: Yapay zeka dil modelleri kişisel bilgi toplama için mükemmeldir; ör. özel bilgilerin çevrimiçi olarak ifşa edilmesi. İnternet'teki verilerden kişisel bilgiler çıkarabiliyorlar, bu da insanların savunmasızlığını artırıyor.

Yapay zekaya karşı siber saldırılar

Daha karmaşık saldırılar oluşturmak için kullanılmasının yanı sıra, şunları da düşünmek önemlidir: Siber saldırılara karşı yapay zeka savunması. Yapay zeka sistemlerine yönelik siber saldırılara karşı savunmanın yetersiz olduğu ve ulusal kritik altyapıya yönelik zorlukların arttığı bir dönemde, Ulusal Standartlar ve Teknoloji Enstitüsü (nist), teknoloji standartları ve yönergeleri geliştiren bir ABD hükümet kurumu, “başlıklı bir rapor yayınladı.Çekişmeli Makine Öğrenimi: Saldırıların ve Azaltmaların Taksonomisi ve Terminolojisi (NIST.AI.100-2)”. Bu rapor, yapay zeka sistemlerinin karşı karşıya olduğu tehditlerin karmaşıklığını ve çeşitliliğini ele almak için sağlam karşı önlemler uygulamayı amaçlamaktadır.

Yapay zeka sistemlerine yönelik tehditleri ele almak çok önemlidir sağlam karşı önlemlerin uygulanması. NIST raporu şunları tanımlar: dört ana saldırı kategorisi:

  • kaçınma saldırıları: Bu saldırılar, yapay zeka sistemi devreye alındıktan sonra meydana gelir ve otonom araçların kafasını karıştırmak için yanlış tabela eklemek gibi, sistemin tepkisini etkilemek için bir girişi değiştirmeyi amaçlar.
  • Zehirlenme saldırıları: Sistemin öğrenme aşamasında meydana gelirler ve uygunsuz dil gibi bozuk verileri sohbetlere sokarlar ve bu da chatbot'un bunu gelecekteki etkileşimlerde kullanmasına yol açar.
  • Gizlilik saldırıları: Bu saldırılar, yapay zekadan hassas bilgiler çıkarmayı veya bir sohbet robotuna meşru sorular göndererek bir modelin tersine mühendislik yapılması gibi kötüye kullanım amacıyla eğitim verilerini çıkarmayı amaçlar.
  • Kötüye kullanım saldırıları: Yapay zekanın kötü verilerini meşru ancak güvenliği ihlal edilmiş bir kaynaktan beslemeyi ve kullanım amacını değiştirmeyi amaçlıyorlar. Zehirleme saldırılarından farklı olarak bunlar, yanlış bilgi sunmak için meşru kaynakları kullanır.

Mevcut zorluk siber güvenliğin bu nedenle denemeliyim yapay zeka sistemlerini koruyun e kötü niyetli kullanımlarını önlemek Siber saldırılar yoluyla.

Yoruma