Bay72
Forum Üyesi
HABER MERKEZİ -Detaylı bir analiz çalışmasına göre, kullanıcıların sıkça başvurduğu yapay zeka araçları, güvenli şifre üretme konusunda bekleneni tam olarak veremediği gibi, sanılanın aksine önemli güvenlik açığını da beraberinde getiriyor. Güvenlik firması Irregular tarafından yapılan araştırmada, OpenAI’nin ChatGPT’si, Google’ın Gemini modeli ve Anthropic tarafından geliştirilen Claude gibi sistemlerin ürettiği parolalar mercek altına alındı. Sonuçlar ise oldukça dikkat çekici.
Yapılan bu yeni araştırmada, yapay zekadan özel karakter, rakam ve harf içeren altı karakterli güvenli şifreler üretmesi istendi. Ancak ortaya çıkan sonuçlar, beklenenin aksine yüksek oranda tekrar eden ve belirli kalıplara bağlı parolalardan oluştu.
Örneğin Claude tarafından üretilen 50 şifreden yalnızca 30’u benzersiz çıktı, geri kalanların büyük bölümü birebir aynıydı. Bazı karakterlerin neredeyse her şifrede tekrarlandığı, alfabedeki pek çok harfin ise hiç kullanılmadığı görüldü.
ŞİFRE BELİRLERKEN DİKKAT
Benzer bir tablo diğer modellerde de ortaya çıktı. ChatGPT çoğu zaman şifreye aynı harfle başlarken, Gemini da belirli harf ve sembolleri sürekli tercih etti. Bu durum, dışarıdan bakıldığında karmaşık görünen parolaların aslında oldukça öngörülebilir olmasına yol açtı. İlginç bir şekilde, hiçbir şifrede tekrar eden karakter bulunmaması da güvenlik hissi verse de, istatistiksel olarak bunun da rastgelelikten uzak olduğu belirtiliyor.
Uzmanlara göre sorunun temelinde, büyük dil modellerinin çalışma mantığı yatıyor. Bu sistemler gerçek rastgelelik üretmek yerine, olasılıklara dayalı olarak “mantıklı” ve “makul” görünen desenler oluşturuyor. Bu da şifrelerin karmaşık görünmesine rağmen düşük entropiye, yani düşük rastgelelik seviyesine sahip olmasına neden oluyor. Güvenlik dünyasında ise asıl önemli olan şey karmaşıklık değil, tahmin edilemezlik.
Araştırma, insanların yıllardır yaptığı hataların yapay zeka tarafından da tekrarlandığını gösteriyor. Kullanıcıların “E” yerine “3” yazması veya belirli kalıpları sürekli kullanması gibi alışkanlıklar, artık yapay zeka çıktılarında da kendini gösteriyor. Sonuç olarak, yapay zeka güven veren bir dil kullansa bile, ürettiği içerikler her zaman güvenilir olmayabiliyor.
Yapay zeka yarışında yeni bir rekor geldi: Google Gemini 3.1 Pro çıktı
Irregular yetkilileri, doğrudan yapay zekâdan alınan şifrelerin güvenlik açısından “temelden sorunlu” olduğunu ve bunun istem ayarlarıyla ya da farklı komutlarla düzeltilemeyeceğini vurguluyor. Çünkü bu modeller, doğaları gereği tahmin edilebilir çıktılar üretmeye odaklanıyor ve bu durum güvenli parola üretimiyle örtüşmüyor.
Yani yapay zekadan şifre üretmesini istemek pratik görünse de, güvenlik açısından ciddi riskleri de beraberinde getiriyor diyebiliriz. Bunun yerine, güvenilir parola yöneticileri kullanarak gerçekten rastgele ve yüksek güvenlikli şifreler oluşturmak daha sağlıklı olacaktır. Ayrıca her platform için farklı parola kullanmak, iki aşamalı doğrulamayı aktif etmek ve düzenli olarak şifrelerini güncellemek, dijital güvenliğinizi arttırmak için oldukça önemli.
Ziyaretçiler için gizlenmiş link,görmek için
Giriş yap veya üye ol.