CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında!

CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında! CyberPet 2. sayısı yayında!

Yapay Zeka Hukuku Röportajı

Yapay Zeka Hukuku Röportajı

BY Tuğsem Soner

Teknoloji

24 Şubat 2025

AB Yapay Zeka Yasası, küresel olarak yapay zeka için şu anda mevcut olan en kapsamlı yasal çerçevedir.

Yürürlükteki mevzuatlar, yapay zeka tarafından üretilen eserlerde telif hakkını tanımamaktadır, ancak yasal değişiklikler kaçınılmaz görünmektedir.

Eğer bir yapay zeka modeli, eğitim süreci sırasında izinsiz olarak telif hakkıyla korunan materyalleri kullanırsa, bu telif hakkı ihlali olarak kabul edilebilir.

Yapay zeka sistemlerindeki önyargı sorunu tekrar eden bir meseledir. Bu modeller, sistemik ayrımcılığı içerebilecek tarihsel verilerden öğrenme eğiliminde oldukları için, çıktıları doğal olarak bu önyargıları yansıtır.

Amerika Birleşik Devletleri'nde, bireylerin yeniden suç işleme olasılığını değerlendirmek için ceza adalet sisteminde COMPAS adında bir yapay zeka modeli kullanılmıştır. Ancak, bu model özellikle siyah bireylere beyaz bireylere kıyasla orantısız bir şekilde yüksek risk puanları atfetmesi nedeniyle ciddi eleştirilerle karşılaşmıştır.

Bir başka örnek, otomobillerde kullanılan AI tabanlı 'uyku tespit' sistemleridir, bu sistemler Asyalı sürücüleri yanlışlıkla yorgun olarak işaretlemiştir.

Örneğin, Türkçe'den İngilizce'ye çeviri yaparken, Google Translate "O bir doktor" ifadesini otomatik olarak "He is a doctor" olarak çevirmekteydi, bir kadın doktor ihtimalini göz ardı ederek.

Tek bir büyük dil modelini eğitmek, ömrü boyunca ortalama bir arabanın ürettiği karbon emisyonlarının beş katı kadar emisyon ürettiği tahmin edilmektedir.

Veri merkezlerini soğutmak için büyük miktarda su gerekmektedir. Yalnızca 2021 yılında Google’ın ABD’deki veri merkezleri tahmini 12.7 milyar litre su tüketmiştir. Bu sorunlara karşı yasal önlemler alınarak yapay zeka sistemleri için enerji verimliliği standartları getirilmesi ve uyumun zorunlu kılınması gerekmektedir.

Markalar, ticari kampanyalarda giderek daha fazla yapay zeka ile üretilmiş dijital modeller ve sanal influencerlar kullanmaktadır. Yapay zeka ile üretilen modeller daha gerçekçi hale geldikçe, gerçek modeller için iş olanakları azalabilir.

Markalar, daha düşük maliyetler ve daha fazla kontrol nedeniyle sanal modelleri tercih edebilir. Sonuç olarak, insan modeller sadece birbirleriyle değil, aynı zamanda yapay zeka ile üretilen dijital modellerle de rekabet etmek zorunda kalacak. Ayrıca, sanal influencerlar tarafından sergilenen gerçek dışı güzellik standartları ve yaşam tarzları, özellikle genç izleyiciler arasında gerçeklik algısını daha da bozabilir.

Bu bağlamda, Deniz Çelikkaya ile yapay zeka üzerine gerçekleştirdiğimiz röportajdan seçilmiş soru ve cevaplarını paylaşıyoruz.

Yapay zeka sistemlerine veri toplama süreçlerinde nasıl yasal düzenlemeler gelecektir? GDPR (Genel Veri Koruma Yönetmenliği) yeter mi?

Yapay zeka sistemlerinde, özellikle ChatGPT gibi büyük dil modellerinin öğrenim sürecinde çok büyük miktarda veri kullanılmakta. GDPR, veri koruması için güçlü bir temel sağlıyor ancak yapay zeka sistemlerinin öğrenim ve çalışma biçimlerini zeka sistemlerinin öğrenim ve çalışma biçimlerini göz önünde bulundurmadığı için yetersiz kalıyor. Yetersizliğin en büyük nedenlerinden biri de GDPR'ın birey odaklı olması ancak yapay zeka sistemleri çeşitli kaynaklardan toplanan büyük veri setlerine dayanıyor.

Örneğin, GDPR kapsamında mahkemelerin gözünden kaçan bir madde var. GDPR, bireylerin kredi onay sistemleri gibi otomatik karar verme süreçlerine açık rızaları olmadan tabi tutulmama haklarını güvence altına alır. Ancak, bu düzenleme yapay zeka sistemlerinin karmaşıklığı ve karar verme süreçlerinin belirsizliği karşısında yetersiz kalabilir. Yapay zekanın kararlarını nasıl oluşturduğu tam olarak anlaşılmadığı için, bireylerin bu süreçlere karşı itiraz etmeleri zorlaşmaktadır.

Avrupa Birliği, Yapay Zeka Kanunu bu kapsamda önemli bir role sahip ve GDPR'daki eksiklikleri önemli ölçüde tamamlayacak veri koruma düzenlemeleri getirdi. Bu kapsamda risk ve insan hakları etki değerlendirmeleri, risk azaltma stratejileri, şeffaflık ve insan denetimi gerektiren yüksek riskli yapay zeka sistemlerine yönelik hükümler içeriyor.

Gelecekteki düzenlemerin yapay zeka sistemlerinde şeffaflık ve açıklanabilirliği vurgulaması muhtemel. Bu kapsamda yapay zeka sistemi geliştiricilerinin yapay zeka modellerinin nasıl çalıştığı ve kararların nasıl alındığı hakkında bilgi sağlamaları gerekir. Bu, yapay zeka etiği için çok önemlidir.

Eğer yapay zeka bir zarara veya hataya sebep olursa, sorumluluk kimde olmalı?

Bu sorunun cevabı, sistemin kontrolü ve ne kadar özerkliğe sahip olduğuna bağlı olarak değişir. Ama şunu net olarak söyleyebilirim: bazı yapay zeka modelleri her ne kadar otonom karar verme becerisine sahip olsa da gerçek kişi değildir. Gerçek kişi olmayan varlıkların ise cezai sorumluluğu yoktur. En azından mevcut hukuk kuralları çerçevesinde bunu söyleyebilirim.

Peki yapay zeka sorumlu değilse kim sorumludur? Mesela ortada fiziksel bir zarar varsa (otonom bir otomobilin karıştığı bir kazada yaralanan bir kişi olması gibi) genellikle ürün sorumluluk ve tüketici haklarına ilişkin yasalara bakılır. Burada yasalara bağlı olarak satıcının veya üreticinin sorumluluğuna gidilebilir. Tabii kullanıcının etkisi de önem arz eder. Mesela bir vakada Uber'in otonom araç kazasında, Uber hem geliştirme ekibiyle hem de araç sürücüsü ile birlikte sorumlu tutuldu.

Fiziksel olmayan zararlarda ise (mesela yapay zeka tarafından yönlendirilen bir yatırım kararı nedeniyle oluşan mali kayıp) sorumluluğun belirlenmesi daha zor. Burada yapay zeka sistemini geliştiren veya dağıtanların önlenebilir zararları engellemek için uygun adımları atıp atmadıkları incelenebilir ve sorumluluk buna bağlı olarak değişebilir. Burada yine mevcut hukuki düzenlemeler yetersiz kalmakta. Özellikle yapay zeka sistemleri daha özerk hale geldikçe, bireylerin eylemlerinden ne ölçüde sorumlu tutulabilecekleri konusunda daha büyük sorular ortaya çıkıyor. Yeni düzenlemelerin bu konuda sorumluluğu belirlemek ve hesap verebilirliği sağlamak için daha net yönergeler sağlaması gerekecektir.

Tam röportaj için linke tıklayın: LINK