Yapay Zeka

Yapay Zekâ Tarafından Yazılan Koda Güvenmeden Önce Bunu Okuyun! Dijital dünyanın hızla geliştiği bu dönemde, yapay zekâ tarafından yazılan kodlar, geliştiricilerin ve teknoloji meraklılarının dikkatini çekiyor. Ancak, bu kodlara tamamen güvenmeden önce bilmeniz gereken bazı önemli noktalar var. İşte yapay zekâ kodlarını değerlendirmeden önce göz önünde bulundurmanız gerekenler: 1. Hatalara Dikkat Edin: Yapay zekâ mükemmel değil. Üretilen kodlarda hatalar ve eksiklikler bulunabilir. Kodunuzu test etmek ve doğrulamak için zaman ayırın. 2. Güvenlik Açıklarını Unutmayın: AI’nın yazdığı kodlar bazen güvenlik açıklarına yol açabilir. Kodlarınızı incelemeli ve gerekli güvenlik önlemlerini almalısınız. 3. Bağlam Önemlidir: Yapay zekâ, tam olarak ne istediğinizi anlamayabilir. Kodun amacını ve gereksinimlerini açıkça belirtin. 4. Sürekli Öğrenin: Yapay zekâ teknolojisi sürekli gelişiyor, bu yüzden güncel kalmanız önemli. Yeni araçlar ve tekniklerle bilgi ve becerilerinizi güncelleyin. Yapay zeka destekli kodlama hayatı kolaylaştırabilir, ancak dikkatli ve bilinçli hareket etmek de bir o kadar önemli. Baştan sona kontrol etmeyi ve gerekli ayarlamaları yapmayı unutmayın!

Yazılım dünyasında artık yapay zekanın geliştirici talimatlarına göre kod oluşturduğu “vibe coding” dönemindeyiz. Ne yazık ki, bu işin arka planında her şey o kadar da parlak değil. Veracode adlı veri güvenliği şirketinin yayınladığı son rapora göre, yapay zeka tarafından üretilen kodların yaklaşık yarısı güvenlik açıkları barındırıyor.

Veracode, 100’den fazla büyük dil modelini farklı kodlama dillerini kullanmaktan çeşitli uygulamalar oluşturmaya kadar uzanan toplam 80 görevle sınamış. Her bir görevin potansiyel güvenlik açıkları olduğu biliniyordu, yani modeller bu zorlukları güvenli veya güvensiz bir şekilde tamamlama potansiyeline sahipti. Eğer önceliğiniz güvenlikse, sonuçlar pek iç açıcı değil: Görevlerin sadece %55’i “güvenli” kod üretmiş.

Bu güvenlik açıkları ufak tefek ve kolayca giderilebilir türden olsaydı işler daha basit olurdu. Ancak genellikle oldukça ciddi açıklardan bahsediyoruz. Güvenlik kontrolünden geçemeyen kodların %45’i, Open Worldwide Application Security Project’in ilk 10 güvenlik açıkları listesinde yer alan sorunları içeriyor—örneğin, bozuk erişim kontrolü, kriptografik hatalar ve veri bütünlüğü hataları. Yani, bu tür bir kodu üzerinde iyileştirme yapmadan doğrudan kullanmak, hacklenmek istiyorsanız mantıklı olabilir.

Bununla birlikte, çalışmanın en ilginç bulgusu, yapay zeka modellerinin düzenli olarak güvensiz kod üretmesinden ziyade, bu durumun düzelmiyor olması. Son iki yılda söz dizimi büyük ölçüde gelişmiş olsa da, LLM’ler neredeyse her zaman derlenebilir kod üretiyor, ancak bu kodun güvenlik seviyesi aynı düzeyde kalmış durumda. Daha büyük ve yeni modeller bile daha güvenli kod oluşturmada ciddi bir gelişim gösteremiyor.

Yapay zeka tarafından üretilen kodun güvenli çıkış temelinin iyileşmemesi bir sorun, çünkü yapay zekanın programlamada kullanımı gittikçe yaygınlaşıyor ve saldırı yüzeyi artıyor. Bu ayın başlarında, 404 Media bir hacker’ın, Amazon’un AI kodlama aracını GitHub deposuna gizli talimatlarla kötü amaçlı kod enjekte ederek bilgisayarlardaki dosyaları silmesini sağladığını bildirdi.

Bu arada, AI ajanları yaygınlaştıkça, kodları kırabilen ajanlar da artıyor. California Üniversitesi, Berkeley’den yeni bir araştırma, yapay zeka modellerinin kodlardaki sömürülebilir hataları tespit etmede oldukça iyi hale geldiğini ortaya koydu. Yani, yapay zeka modelleri sürekli olarak güvensiz kodlar üretirken, diğer yapay zeka modelleri bu açıkları tespit edip kullanmada oldukça yetkin hale geliyor. Belki de bu pek sorun yaratmaz.

Bir yanıt yazın