GÜNDEM 3.02.2025 19:34:43 0

Yapay zekâya ne kadar güvenebiliriz?

Yapay zekâya ne kadar güvenebiliriz?
Haberi Sesli Oku

Yapay zekâ asistanınıza güvenmeden önce iki kez düşünmelisiniz zira veri tabanı zehirlenmesi asistanınızın çıktılarını önemli ölçüde hatta tehlikeli bir şekilde değiştirebilir.

Siber güvenlik şirketi ESET güvenlik, gizlilik ve güvenden ödün vermeden yapay zekânın potansiyelini nasıl ortaya çıkarabilirizi araştırdı, önerilerini paylaştı.

Sürekli ortaya çıkan sayısız güvenlik açığından da görebileceğimiz gibi modern teknoloji kusursuz olmaktan çok uzak. Tasarım açısından güvenli sistemler tasarlamak denenmiş ve doğrulanmış bir en iyi uygulama olsa da bunu yapmak kaynakları kullanıcı deneyimi (UX) tasarımı, performans optimizasyonu ve diğer çözümler ve hizmetlerle birlikte çalışabilirlik gibi diğer alanlardan uzaklaştırabilir.

Bu nedenle, güvenlik genellikle arka planda kalır ve yalnızca asgari uyumluluk gerekliliklerini yerine getirir. Bu değiş tokuş özellikle hassas veriler söz konusu olduğunda endişe verici hale gelir çünkü bu tür veriler kritiklikleriyle orantılı korumalar gerektirir. Günümüzde, yetersiz güvenlik önlemlerinin riskleri, verilerin işlevselliklerinin temelini oluşturduğu yapay zekâ ve makine öğrenimi (AI/ML) sistemlerinde giderek daha belirgin hale gelmektedir.

Veri zehirlenmesi nedir?

Yapay zekâ ve makine öğrenimi modelleri, denetimli ve denetimsiz öğrenme yoluyla sürekli olarak güncellenen temel eğitim veri kümeleri üzerine inşa edilir. Makine öğrenimi yapay zekânın gelişmesinde önemli rol oynar. Makine öğrenimi sayesinde gerçekleşen derin öğrenme, diğer etkenlerle birlikte yapay zekânın yeteneklerini ilerletmesini mümkün kılar. Veriler ne kadar çeşitli ve güvenilir olursa modelin çıktıları da o kadar doğru ve kullanışlı olacaktır. Bu nedenle, eğitim sırasında bu modellerin büyük miktarda veriye erişmesi gerekir. Öte yandan, doğrulanmamış veya iyi incelenmemiş veri kümeleri güvenilmez sonuçların ortaya çıkma olasılığını artırdığından veri yığınlarına güvenmek riskleri de beraberinde getirmektedir. Üretken yapay zekânın, özellikle de büyük dil modellerinin (LLM'ler) ve bunların yapay zekâ asistanları şeklindeki uzantılarının, modelleri kötü niyetli amaçlarla kurcalayan saldırılara karşı özellikle savunmasız olduğu bilinmektedir.  En sinsi tehditlerden biri, düşmanların modelin davranışını değiştirmeye çalıştığı ve yanlış, önyargılı ve hatta zararlı çıktılar üretmesine neden olduğu veri (veya veri tabanı) zehirlenmesidir. Bu tür tahrifatların sonuçları uygulamalar arasında dalgalanarak güveni sarsabilir ve hem insanlar hem de kuruluşlar için sistemik riskler doğurabilir.

Veri zehirlenmesi türleri

Veri zehirleme saldırılarının çeşitli türleri vardır, örneğin:

"Veri enjeksiyonu: Saldırganlar, bir yapay zekâ modelinin davranışını değiştirmesini sağlamak için eğitim verilerine kötü amaçlı veri noktaları enjekte eder. Çevrimiçi kullanıcıların Tay Twitter botunu saldırgan tweetler atacak şekilde yavaşça değiştirmesi buna iyi bir örnektir.

İçeriden saldırılar: Normal içeriden tehditlerde olduğu gibi, çalışanlar erişimlerini kötüye kullanarak bir modelin eğitim setini değiştirebilir, davranışını değiştirmek için parça parça değiştirebilirler. İçeriden saldırılar özellikle sinsidir çünkü meşru erişimden faydalanırlar.

Tetikleyici enjeksiyonu: Bu saldırı, bir tetikleyici oluşturmak için yapay zekâ modelinin eğitim setine veri enjekte eder. Bu, saldırganların bir modelin güvenliğini aşmasına ve belirlenen tetikleyiciye göre durumlarda çıktısını manipüle etmesine olanak tanır. Bu saldırının tespit edilmesindeki zorluk, tetikleyicinin tespit edilmesinin zor olabilmesinin yanı sıra tetikleyici etkinleştirilene kadar tehdidin uykuda kalmasıdır.

Tedarik zinciri saldırısı: Bu saldırıların etkileri özellikle korkunç olabilir. Yapay zekâ modelleri genellikle üçüncü taraf bileşenleri kullandığından tedarik zinciri sürecinde ortaya çıkan güvenlik açıkları sonuçta modelin güvenliğini tehlikeye atabilir ve onu istismara açık hale getirebilir."

Yapay zekâ modelleri hem iş hem de tüketici sistemlerine derinlemesine gömüldükçe asistanlar veya verimlilik artırıcılar olarak hizmet verdikçe bu sistemleri hedef alan saldırılar önemli bir endişe kaynağı haline geliyor. Kurumsal yapay zekâ modelleri verileri üçüncü taraflarla paylaşmasa da çıktılarını iyileştirmek için şirket içi verileri silip süpürmeye devam ediyor. Bunu yapmak için hassas bilgi hazinesine erişmeleri gerekir, bu da onları yüksek değerli hedefler haline getirir. Genellikle hassas verilerle dolu olan kullanıcı komutlarını diğer taraflarla paylaşan tüketici modelleri için riskler daha da artmaktadır.

Makine öğrenimi ve yapay zekâ gelişimi nasıl güvence altına alınır?

ML/AI modelleri için önleyici stratejiler hem geliştiricilerin hem de kullanıcıların farkındalığını gerektirir. Temel stratejiler şunları içerir:

"Sürekli kontroller ve denetimler: Kötü niyetli manipülasyon veya önyargılı verilerin onları tehlikeye atmasını önlemek için AI/ML modellerini besleyen veri kümelerinin bütünlüğünü sürekli olarak kontrol etmek ve doğrulamak önemlidir.

Güvenliğe odaklanın: Yapay zekâ geliştiricilerinin kendileri de saldırganların hedefinde olabilir, bu nedenle proaktif önleme, erken tespit ve sistemik güvenlik kontrolleri ile saldırı yüzeyini en aza indirmeye yönelik önleme öncelikli bir yaklaşım sağlayabilecek bir güvenlik kurulumuna sahip olmak, güvenli geliştirme için olmazsa olmazdır.

Çekişmeli eğitim: Daha önce de belirtildiği gibi, modeller genellikle öğrenmelerini yönlendirmek için profesyoneller tarafından denetlenir. Aynı yaklaşım, modellere kötü niyetli ve geçerli veri noktaları arasındaki farkı öğretmek için de kullanılabilir ve sonuçta zehirleme saldırılarının engellenmesine yardımcı olur.

Sıfır güven ve erişim yönetimi: Hem içeriden hem de dışarıdan gelen tehditlere karşı savunmak için bir modelin temel verilerine yetkisiz erişimi izleyebilen bir güvenlik çözümü kullanın. Bu şekilde şüpheli davranışlar daha kolay tespit edilebilir ve önlenebilir. Ek olarak, sıfır güven ile hiç kimseye varsayılan olarak güvenilmez ve erişim izni verilmeden önce birden fazla doğrulama yapılması gerekir." (İLKHA)

Anahtar Kelimeler: yapay zekâya ne kadar güvenebiliriz?

UNRWA: 3 bin yardım tırı Gazze sınırında bekletiliyor

HAMAS'tan ABD'ye tepki: UNRWA'nın yasaklanmasına verilen destek, siyonist soykırıma ortaklıktır

Kassam Tugayları'ndan Refah'ta siyonistlere pusu

Siyonist rejim Şam'da başkanlık sarayı yakınına hava saldırısı düzenledi

Pakistan ordusundan gerçek mühimmatla tatbikat

Rusya ve Kuzey Kore arasında Tumen Nehri üzerinde köprü inşasına başlandı

Trump ulusal güvenlik danışmanını kovdu

Gazze'den dünyaya "çocukların açlıktan ölmemesi" için çağrı

Filipinler'de otobüs kazası: 12 ölü

Kütahya'da 3.8 büyüklüğünde deprem

Antalya'da zincirleme trafik kazası: 1 yaralı

ABD’yi fırtına vurdu: 6 ölü

Mardin’de fırtına etkisini sürdürüyor: Ağaçlar devrildi, camlar kırıldı

Ankara için kuvvetli yağış uyarısı

Bingöl’de Valilikten fırtına uyarısı

Yalova'da uyuşturucu operasyonu: 3 tutuklama

Bingöl’de fırtına: çatılar uçtu, maddi zarar büyük

BM: Gazze'de bebeklerin yüzde 92'si açlık tehlikesi altında

Diyarbakır'da sanayi sitesindeki patlama anı kameralara yansıdı

Meteorolojiden 16 il için sarı kodlu alarm!

Bakan Kurum: Muhalefete rağmen 81 ilimizi afetlere hazırlayacağız

Diyarbakır'da sanayi sitesinde patlama

Yapıcıoğlu: Şiddetin ve gözyaşının durması için elimizden gelen bütün çabayı ortaya koyacağız

Antalya'da 3.9 büyüklüğünde deprem

HÜDA PAR Bağlar İlçe Başkanı Zeren'den Nevroz Parkı'na mescit çağrısı

Rus gazının Türk Akımı üzerinden Avrupa'ya ihracatı yüzde 13 arttı

Diyarbakır'da çatının uçma anı kameraya yansıdı

ABD-İran görüşmeleri ertelendi

Selden etkilenen Somali için acil yardım çağrısı

1 Mayıs olaylarında 384 kişi gözaltına alındı

Yükleniyor