Haber

Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?

Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?

 

Beatles, yakın zamanda eski bir kaydın parçalarını birleştirerek yapay zeka (AI) sayesinde ses kalitesini de iyileştirerek yeni müzikler yayınladı ve dünya çapında milyonlarca hayranını bir kez daha sevindirdi. Ancak grubun yeni başyapıtının sevincini bir kenara bırakırsak, sahte sesler ve görüntüler oluşturmak için yapay zekayı kullanmanın da karanlık tarafları var.

Neyse ki bu tür derin sahtekarlıklar ve bunları yapmak için kullanılan araçlar henüz çok gelişmiş veya yaygın değil. Ancak bunların dolandırıcılıkta kullanılma potansiyelleri son derece yüksek ve teknoloji yerinde durmuyor.

Derin ses sahtekarlığıyla ne yapılabilir?

Open AI yakın zamanda gerçekçi insan konuşmasını ve ses girişi metnini sentezleyebilen bir Ses API modelini gösterdi. Bu Open AI yazılımı şimdilik gerçek insan konuşmasına en yakın şey.

Gelecekte bu tür modeller saldırganların elinde yeni bir araç haline gelebilir. Voice API belirtilen metni sesli olarak söylerken kullanıcılar, metni önerilen ses seçeneklerinden hangisiyle seslendireceklerini seçebilirler. Open AI modeli, mevcut haliyle deepfake ses oluşturmak için kullanılamasa da ortaya çıkardığı nitelikler, ses üretim teknolojilerinin hızla geliştiğinin bir göstergesi.

Günümüzde gerçek insan konuşmasından ayırt edilemeyecek yüksek kalitede derin sahte ses üretebilen neredeyse hiçbir cihaz mevcut değil. Ancak son birkaç ayda insan sesi oluşturmaya yönelik daha fazla araç piyasaya sürüldü. Daha önce kullanıcıların bunları kullanabilmesi için temel programlama becerilerine ihtiyacı vardı ancak gün geçtikçe bunları kullanmak çok daha kolay hale geliyor. Yakın gelecekte hem kullanım kolaylığını hem de kaliteli sonuçları bir araya getirecek modelleri görmemiz oldukça muhtemel.

Yapay zekayı kullanan dolandırıcılık nadirdir. Ancak halihazırda “başarılı” vakaların örnekleri var. Ekim 2023’ün ortalarında Amerikalı risk sermayedarı Tim Draper, Twitter takipçilerini dolandırıcıların sesini kullanabileceği konusunda uyardı. Tim, kendi sesiyle yapılan para taleplerinin her geçen gün akıllanan yapay zekanın bir sonucu olduğunu paylaştı.

Kendinizi bundan nasıl koruyabilirsiniz?

Şu ana kadar ses taklitleri toplumda olası bir siber tehdit olarak algılanmamış olabilir. Kötü niyetle kullanıldığı çok az durum vardır. Bu nedenle korumaya yönelik teknolojilerin ortaya çıkışı yavaştır.

Şimdilik kendinizi bu durumdan korumanın en iyi yolu, arayan kişinin telefonda anlattıklarını dikkatle dinlemektir. Kayıt kalitesizse, gürültü varsa ve ses robotik geliyorsa bu duyduğunuz bilgiye güvenmemeniz için yeterli bir nedendir.

Karşınızdaki kişinin “insanlığını” test etmenin bir başka iyi yolu da alışılmadık sorular sormaktır. Örneğin sizi arayan bir ses modeliyse, en sevdiği renkle ilgili soracağınız bir soru onu şaşırtabilir çünkü çoğu zaman karşılaşmayı beklediği türden bir şey değildir. Saldırgan bu noktada yanıtı manuel olarak çevirip oynatsa bile yanıttaki zaman gecikmesi aldatıldığınızı açıkça ortaya koyuyor.

Bir diğer güvenli seçenek ise güvenilir ve kapsamlı bir güvenlik çözümü kullanmaktır. Deepfake sesleri yüzde 100 tespit edemeseler de, tarayıcıları koruyarak ve bilgisayardaki tüm belgeleri kontrol ederek kullanıcıların şüpheli web sitelerinden, ödemelerden ve kötü amaçlı yazılım indirmelerinden kaçınmasına yardımcı olabilirler.

Kaspersky Kıdemli Bilgi Bilimcisi Dmitry Anikin, diyor: “Şu an için genel tavsiyemiz, tehdidi abartmamak veya ses taklitlerinin olmadığı yerde onları tanımaya çalışmamanızdır. Mevcut teknolojinin, insanların ayırt edemeyeceği kalitede bir ses yaratacak kadar güçlü olması pek olası değildir. Ancak, dikkatli olmalısınız.” Potansiyel tehditlerin farkındayız ve bunların yakın gelecekte yeni bir gerçeklik haline geleceğini düşünüyoruz.” “Oluşan gelişmiş deepfake dolandırıcılıklarına hazırlıklı olmanız gerekiyor.”

Kaynak: (BYZHA) Beyaz Haber Ajansı

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
istanbul escort
istanbul escort
istanbul escort