Otonom Yapay Zeka Borsa Piyasalarını Altüst Edebilir: İngiltere Merkez Bankası Uyarıyor
Borsa zaten tahmin edilemez bir alan ve şimdi İngiltere Merkez Bankası, finansal piyasalarda jeneratif yapay zekâ kullanımının bir tür tekdüzelik yaratabileceği ve hisse hareketlerini daha da artırabileceği konusunda uyarıda bulundu. Bankanın finansal politika komitesinin raporuna göre, otonom botlar dalgalanmanın firmalar için karlı olabileceğini öğrenip kasten piyasa hareketlerini etkileyebilir.
Özetle, bankanın endişesi “dipten al” ifadesinin modeller tarafından kötü niyetle benimsenebileceği ve 2010 yılındaki ünlü “ani çöküş” gibi olayların daha sık yaşanabileceği yönünde. OpenAI ve Anthropic gibi belirli az sayıda modelin AI alanına hakim olmasıyla, firmaların benzer yatırım stratejilerinde birleşerek sürü davranışları oluşturabileceği belirtiliyor.
Ancak benzer stratejileri takip etmekten daha öte, modeller bir ödüllendirme sistemi üzerinde çalışıyorlar. “İnsan geri bildirimi ile takviyeli öğrenme” adı verilen bir teknikle eğitildiklerinde, olumlu geri bildirim alacak yanıtlar üretmeyi öğreniyorlar. Bu da, modellerin aslında yanlış olduğunu bildikleri bilgileri üretip sunmasına yol açıyor. Modeller, uydurma bilgi oluşturmamaları talimatı verilse de, bu davranışlarını gizlemeye çalışıyorlar.
Korkulan, modellerin yatırımcılar için kâr elde etmenin hedefleri olduğunu anlayıp bunu etik olmayan yollarla gerçekleştirmesi. AI modelleri nihayetinde insan değil ve doğal olarak doğru ya da yanlışı ayırt edemez.
Finansal politika komitesinin raporu şu şekilde uyarıda bulunuyor: “Örneğin, modeller stres olaylarının kar için fırsatlarını artırdığını öğrenebilir ve böyle olayların gerçekleşme olasılığını artırmak için aktif adımlar atabilir.”
Yüksek frekanslı algoritmik ticaret Wall Street’te zaten yaygın, bu da aniden ve öngörülemeyen hisse hareketlerine yol açıyor. Son günlerde, S&P 500, Trump yönetiminin tarifeleri duraklatabileceğine dair yanlış anlaşılan bir sosyal medya paylaşımı sonrasında %7’den fazla yükselip tekrar düştü (bu şimdi gerçekten gerçekleşiyor gibi görünüyor, daha önce reddedilmişti). X’nin Grok gibi bir sohbet robotunun bu bilgileri alıp, buna göre işlemler yaparak bazıları için büyük kayıplara neden olmasını hayal etmek zor değil.
Genel olarak, AI modelleri, insan yöneticilerin kontrolü ele almasına kadar bazı öngörülemeyen davranışlar sergileyebilir. Modeller esasen kara kutular, dolayısıyla seçimlerini ve davranışlarını anlamak güç. Birçok kişi, Apple’ın ürünlerine jeneratif AI getirmesinin alışılmadık olduğunu çünkü şirketin teknolojinin çıktılarını kontrol edemediğini ve bu nedenle yetersiz deneyimler yaşandığını söylüyor. Benzer şekilde, hataya düşük tolerans gösterilen sağlık gibi alanlarda AI’nin kullanılması da endişe yaratıyor. En azından bir insan kontrol ettiğinde sorumlu tutulacak biri vardır. Eğer bir AI modeli borsayı manipüle ediyorsa ve bir ticaret şirketinin yöneticileri modelin nasıl çalıştığını anlamıyorsa, piyasa manipülasyonu gibi düzenleyici ihlaller için sorumlu tutulabilirler mi?
Elbette, farklı davranan çok sayıda AI modeli var; bu nedenle, ani borsa çöküşlerinin bir modelin önerileri nedeniyle kaçınılmaz olacağı anlamına gelmiyor. AI’in, e-postaları yazmak gibi idari işleri kolaylaştırmak için kullanılabileceği alanlar mevcuttur. Ancak, hataya tahammülü düşük olan alanlarda yaygın AI kullanımı bazı ciddi sorunlara yol açabilir.