7 Kasım 2025, Cuma
No Result
View All Result
G24 BORSA
G24 SPOR
G24 Haber - 24 Saat Haber
No Result
View All Result
  • GLOBAL
  • MANŞET
  • EKONOMİ
  • MAGAZİN
  • MODA
  • SAĞLIK
  • SANAT
  • SPOR
  • TEKNOLOJİ
  • GLOBAL
  • MANŞET
  • EKONOMİ
  • MAGAZİN
  • MODA
  • SAĞLIK
  • SANAT
  • SPOR
  • TEKNOLOJİ
No Result
View All Result
G24 Haber - 24 Saat Haber
No Result
View All Result
Home GUNDEM

Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?

by
15 Kasım 2023
0
325
SHARES
2.5k
VIEWS
FacebookTwitterWhatsappTelegramE-Posta
Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?

 

Beatles, geçenlerde yapay zeka (AI) sayesinde eski bir kaydın parçalarını birleştirerek ve tıpkı vakitte ses kalitesini geliştirerek yeni bir müzik yayınladı ve dünyanın dört bir yanındaki milyonlarca hayranını bir sefer daha sevindirdi. Fakat kümenin yeni başyapıtından ötürü duyulan sevinci bir tarafa bırakırsak, yapay zekanın geçersiz sesler ve imgeler yaratmak için kullanılmasının karanlık tarafları da var.

Neyse ki bu cins derin düzmeceler ve bunları yapmak için kullanılan araçlar şimdilik çok gelişmiş yahut yaygın değil. Yeniden de dolandırıcılık alanında kullanılma potansiyelleri son derece yüksek ve teknoloji de yerinde durmuyor.

Derin ses sahtekarlığıyla neler yapılabilir?

Open AI kısa müddet evvel gerçekçi insan konuşması ve sesli giriş metni sentezleyebilen bir Audio API modeli sergiledi. Bu Open AI yazılımı, şimdilik gerçek insan konuşmasına en yakın olan şey.

Gelecekte bu tıp modeller saldırganların elinde yeni bir araç haline gelebilir. Ses API’si belirtilen metni yine seslendirirken, kullanıcılar metnin önerilen ses seçeneklerinden hangisiyle söylem edileceğini seçebilir. Open AI modeli mevcut haliyle deepfake sesler yaratmak için kullanılamasa da, ortaya koyduğu nitelikler ses üretme teknolojilerinin süratle geliştiğinin bir göstergesi niteliğinde.

Günümüzde gerçek insan konuşmasından ayırt edilemeyen yüksek kaliteli derin uydurma ses üretebilen neredeyse hiçbir aygıt mevcut değil. Lakin son birkaç ay içinde insan sesi üretmeye yönelik daha fazla araç piyasaya sürüldü. Evvelce bunları kullanabilmek için kullanıcıların temel programlama maharetlerine muhtaçlığı vardı, fakat gün geçtikçe bunları kullanmak çok daha kolay hale geliyor. Yakın gelecekte hem kullanım kolaylığını hem de kaliteli sonuçları bir ortaya getirecek modeller görmemiz pekala mümkün.

Yapay zeka kullanarak dolandırıcılık yapmak az görülen bir durum. Fakat halihazırda “başarılı” hadise örnekleri mevcut. Ekim 2023’ün ortalarında Amerikalı risk sermayedarı Tim Draper, Twitter takipçilerini dolandırıcıların sesini kullanabileceği konusunda uyardı. Tim, sesiyle yapılan para taleplerinin her geçen gün daha akıllı hale gelen yapay zekanın bir sonucu olduğunu paylaştı.

Kendinizi bundan nasıl koruyabilirsiniz?

Şimdiye dek toplumda ses taklitleri mümkün bir siber tehdit olarak algılanmamış olabilir. Berbat niyetle kullanıldıkları çok az olay var. Bu nedenle korunmaya yönelik teknolojilerinin ortaya çıkışı da yavaş seyrediyor.

Şimdilik bu durumdan kendinizi müdafaanın en düzgün yolu, arayan kişinin telefonda size söylediklerini dikkatle dinlemekten geçiyor. Şayet kayıt kalitesizse, ortada gürültüler varsa ve ses robotik geliyorsa, bu duyduğunuz bilgilere güvenmemeniz için kâfi sebep.

Karşınızdakinin “insanlığını” test etmenin bir öteki düzgün yolu da alışılmışın dışında sorular sormak. Örneğin sizi arayan bir ses modeliyse, en sevdiği renkle ilgili soracağınız bir soru çoklukla müsabakayı beklediği cinsten bir şey olmadığı için onu şaşkına çevirebilir. Saldırgan bu noktada manuel olarak çevirip yanıtı oynatsa bile, karşılıktaki vakit gecikme kandırıldığınızı açıkça ortaya koyar.

Bir başka inançlı seçenek de sağlam ve kapsamlı bir güvenlik çözümü kullanmak. Bunlar deepfake sesleri yüzde 100 tespit edemeseler de, tarayıcıları koruyarak ve bilgisayardaki tüm belgeleri denetim ederek kullanıcıların kuşkulu web sitelerinden, ödemelerden ve makus hedefli yazılım indirmelerinden kaçınmalarına yardımcı olabilirler.

Kaspersky Kıdemli Data Bilimcisi Dmitry Anikin, şunları söylüyor: “Şu an genel tavsiyemiz, tehdidi abartmamak ya da var olmadıkları yerde ses taklitlerini tanımaya çalışmamak tarafındadır. Şimdilik mevcut teknolojinin insanların ayırt edemeyeceği kalitede bir ses yaratacak kadar güçlü olması pek muhtemel değil. Tekrar de muhtemel tehditlerin farkında olmanız ve yakın gelecekte yeni bir gerçeklik haline gelecek olan gelişmiş deepfake dolandırıcılığına hazırlıklı olmanız gerekiyor.”

Kaynak: (BYZHA) Beyaz Haber Ajansı

Tags: İnsanses
Previous Post

İndirimli alışveriş döneminde ferdî bilgilerimiz inançta mi?

Next Post

Depsaş güç spor kulübü muvaffakiyet serisini sürdürmekte kararlı

Next Post
Depsaş güç spor kulübü muvaffakiyet serisini sürdürmekte kararlı

Depsaş güç spor kulübü muvaffakiyet serisini sürdürmekte kararlı

Bir yanıt yazın Yanıtı iptal et

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

No Result
View All Result

Kategoriler

  • Analizler (1)
  • Basketbol (46)
  • Borsa (74)
  • Borsa Haberleri (59)
  • Borsa Şirketleri (1)
  • Diğer (1)
  • DÖVİZ (89)
  • Döviz Haberleri (84)
  • Eğlence (1)
  • EKONOMİ (4.793)
  • Ekonomi Haberleri (1.464)
  • Emtia Haberleri (94)
  • Finans (55)
  • Futbol (1.838)
  • Gezi (3)
  • GLOBAL (2.940)
  • GUNDEM (24.839)
  • Haberler (9.211)
  • Halka Arz (3)
  • Hisse Senedi (3)
  • Kripto Haberleri (5)
  • MAGAZİN (536)
  • MANŞET (11.008)
  • MODA (6)
  • Piyasalar (57)
  • SAĞLIK (1.368)
  • SANAT (2.917)
  • Şirketler (16)
  • SPOR (1.813)
  • TEKNOLOJİ (1.689)
  • Tv & Sinema (21)
  • Voleybol (23)
  • Yaşam (6)
Kızılay Web Banner 336X280

Son Gönderiler

BM Suriye Cumhurbaşkanı Şara’ya yönelik yaptırımları kaldırdı

BM Suriye Cumhurbaşkanı Şara’ya yönelik yaptırımları kaldırdı

6 Kasım 2025
Orkun Kökçü ve Sergen Yalçın’ın aldığı cezalar belli oldu

Orkun Kökçü ve Sergen Yalçın’ın aldığı cezalar belli oldu

6 Kasım 2025
Galatasaray’da şok sakatlık: Yunus Akgün ilk yarıyı kapattı

Galatasaray’da şok sakatlık: Yunus Akgün ilk yarıyı kapattı

6 Kasım 2025
Kazakistan ve ABD’den kritik mineraller alanında işbirliği

Kazakistan ve ABD’den kritik mineraller alanında işbirliği

6 Kasım 2025
AFAD duyurdu: Sındırgı’da 4.3 büyüklüğünde deprem

AFAD duyurdu: Sındırgı’da 4.3 büyüklüğünde deprem

6 Kasım 2025
Erdoğan’dan Özel’e 500 bin TL’lik manevi tazminat davası

Erdoğan’dan Özel’e 500 bin TL’lik manevi tazminat davası

6 Kasım 2025
LGS 2026 merkezi sınav tarihi belli oldu

LGS 2026 merkezi sınav tarihi belli oldu

6 Kasım 2025
Merkez Bankası rezervlerinde gerileme

Merkez Bankası rezervlerinde gerileme

6 Kasım 2025
Cumhurbaşkanı’ndan Özel’e: Ağzından çıkanı kulağı duymuyor

Cumhurbaşkanı’ndan Özel’e: Ağzından çıkanı kulağı duymuyor

6 Kasım 2025
Fenerbahçe Çekya deplasmanında… Rakip Viktoria Plzen

Fenerbahçe Çekya deplasmanında… Rakip Viktoria Plzen

6 Kasım 2025
Twitter Instagram

Kategoriler

  • Analizler (1)
  • Basketbol (46)
  • Borsa (74)
  • Borsa Haberleri (59)
  • Borsa Şirketleri (1)
  • Diğer (1)
  • DÖVİZ (89)
  • Döviz Haberleri (84)
  • Eğlence (1)
  • EKONOMİ (4.793)
  • Ekonomi Haberleri (1.464)
  • Emtia Haberleri (94)
  • Finans (55)
  • Futbol (1.838)
  • Gezi (3)
  • GLOBAL (2.940)
  • GUNDEM (24.839)
  • Haberler (9.211)
  • Halka Arz (3)
  • Hisse Senedi (3)
  • Kripto Haberleri (5)
  • MAGAZİN (536)
  • MANŞET (11.008)
  • MODA (6)
  • Piyasalar (57)
  • SAĞLIK (1.368)
  • SANAT (2.917)
  • Şirketler (16)
  • SPOR (1.813)
  • TEKNOLOJİ (1.689)
  • Tv & Sinema (21)
  • Voleybol (23)
  • Yaşam (6)

Copyright © 2023 | www.globalmediaas.com.tr

Sayfalar

  • Künye ve İletişim
  • Gizlilik ve Çerez Politikaları
  • Üye ve Ziyaretçi Aydınlatma Metni
  • Ziyaretçi Aydınlatma Metni
  • Çalışan ve Stajyer Aydınlatma Metni
  • Müşteri Adayı KVKK Aydınlatma Metni

No Result
View All Result
  • GLOBAL
  • MANŞET
  • EKONOMİ
  • MAGAZİN
  • MODA
  • SAĞLIK
  • SANAT
  • SPOR
  • TEKNOLOJİ