Çevrimiçi suçlular, Claude Chatbot’un üreticisi ABD merkezli AI geliştiricisi Antropic, Çarşamba günü tehdit istihbarat raporunda uyardı.
Antropic, Claude ağlara sızmak, verileri çalmak ve analiz etmek ve “psikolojik olarak hedeflenen gasp talepleri” yapmak için yanlış kullanıldı.
Şirket, bazı durumlarda, saldırganların 500.000 dolardan fazla ödeme yapmadıkça çalıntı bilgileri serbest bırakmakla tehdit ettiğini söyledi.
Rapora göre, sadece geçtiğimiz ay sağlık, hükümet ve dini sektördeki 17 kuruluş hedeflendi. Claude, güvenlik açıklarının belirlenmesine yardımcı oldu ve hangi ağı hedefleyeceğine ve hangi verilerin çıkarılacağına karar verdi.
Antropik yönetici Jacob Klein, Tech Outlet’e bu tür operasyonların daha önce uzman ekipler gerektirdiğini söyledi, ancak AI şimdi tek bir bireyin sofistike saldırılar yapmasına izin veriyor.
Antropik ayrıca, ABD şirketlerinin “Kuzey Kore’nin silah programlarını finanse etmesi” için uzak programcılar olarak poz verirken Claude kullanan Kuzey Koreli operatörlerin vakalarını da belgeledi. AI, işverenlerle iletişim kurmalarına ve kendileri yapma becerilerinden yoksun oldukları görevleri yerine getirmelerine yardımcı oldu.
Tarihsel olarak, Kuzey Koreli işçiler bunun için yıllarca eğitimden geçti, ancak “Claude ve diğer modeller bu kısıtlamayı etkili bir şekilde kaldırdı” dedi.
Suçlular ayrıca, kurbanları duygusal olarak birden fazla dilde duygusal olarak manipüle eden romantizm dolandırıcılığı için kullanılan bir telgraf botu da dahil olmak üzere çevrimiçi satış için AI destekli sahtekarlık planları geliştirdi.
Antropik kötüye kullanımı önlemek için önlemler uygularken, saldırganlar etraflarında yollar bulmaya devam ediyor. Bu olaylardan öğrenilen dersler, AI özellikli siber suçlara karşı korumaları güçlendirmek için kullanılmaktadır.