Bunlar size “robot” gibi görünmeyebilir ancak yapay zekâ çoktan kapıdan girdi, masaya oturdu, hatta sizin adınıza kararlar bile vermeye başladı. Peki bu kararlar yanlış çıkarsa, kim hesap verecek? İşte işin püf noktası burada: Türk hukukunda “yapay zekâ yaptı” diye sorumluluktan kurtulmak mümkün değil. Mevzuatta henüz AI’ya özel bir kanun yok ancak Türk Borçlar Kanunu, Türk Ticaret Kanunu ve KVKK çerçevesinde tüm risk hâlâ sizin omzunuzda. Yani, sistem hata yaparsa “kabahat algoritmanın” deyip aradan sıyrılmak mümkün değil.
Hele işin içine veri gizliliği girince tablo daha da karmaşıklaşıyor. Yapay zekâ doğru çalışmak için veriyle beslenir; bu veri müşteri bilgisi, çalışan kaydı ya da tedarikçi verisi olabilir. KVKK uyarınca, bu verilerin hangi amaçla işlendiğini net biçimde belirtmek, gerekliyse açık rıza almak ve güvenliğini sağlamak zorundasınız. Dahası, KVKK’nın 11. maddesi kişilere “otomatik sistemlerle yapılan işlemlere itiraz” hakkı tanır. Yani bir çalışanınız, “performansımı yapay zekâ değerlendirdi ve terfi alamadım” derse, buna itiraz edebilir. Yargıtay’ın iş hukukunda verdiği bazı kararlar, yalnızca dijital veriye veya otomatik sisteme dayalı fesihlerin hukuken geçerli sebep oluşturmayacağını açıkça ortaya koyuyor. Bu bakış açısı, AI destekli değerlendirmeler için de geçerlidir.
Bir de işin fikri mülkiyet tarafı var. AI ile üretilen raporlar, görseller, yazılım kodları… Türk Fikir ve Sanat Eserleri Kanunu’na göre eser sahibi onu meydana getiren kişidir. Yapay zekâ ise hukuken kişi olmadığı için, eserin sahibi ya onu tasarlayan ya da kullanan sizsiniz. Ne güzel, değil mi? Ta ki yapay zekânız, farkında olmadan başkasına ait telifli bir materyali “esinlenme” adı altında alıntılayana kadar. Bu noktada, ABD ve AB ülkelerinde görülen davalarda, AI tarafından üretilen içeriklerde telif hakkı ihlali tespit edildiğinde sorumluluğun doğrudan işletmelere yüklendiği görüldü. Türkiye’de henüz böyle bir emsal olmasa da, mevcut mevzuat yapısı aynı sonucu doğurur.
Bu nedenle sözleşmelerde yeni nesil maddeler eklemek artık lüks değil, ihtiyaç. İş sözleşmelerine ve tedarikçi anlaşmalarına “yapay zekâ kullanım şartları” eklemek, hangi durumlarda kullanılabileceğini, hangi verilerin kesinlikle yüklenemeyeceğini, gizlilik ve veri güvenliği taahhütlerini yazmak, gelecekteki ihtilafların önüne geçer. Unutmayın, yazılmamış kural, dava dosyasında hiçbir işe yaramaz.
Hukukun izin verdiği her şey itibarınıza iyi gelmeyebilir. Müşteriye AI ile yanıt vermek serbesttir ancak bunu haber vermeden yaparsanız, güven ilişkisi zarar görebilir. Bir finans şirketi düşünün; yatırım tavsiyelerini AI ile veriyor ama bunu müşteriye söylemiyor. Bir yatırım zarara dönüştüğünde müşteri, “Kararımı robot mu verdi?” diye sorduğunda, teknik olarak haklı olmasa da, güven tamamen sarsılır. İşte bu yüzden şirketler için “etik yönerge” oluşturmak, yalnızca yasal riskleri değil, marka değerini de korur.
Olası davalar henüz Türkiye’de çok az sayıdadır ancak bu, “hiç olmayacak” anlamına gelmez. Yurt dışındaki örnekler, yanlış teşhis koyan tıbbi yapay zekâ yazılımlarından, yanlış yatırım tavsiyesi veren algoritmalara kadar pek çok dava türünü şimdiden vitrine çıkardı. Örneğin İngiltere’de, bir hukuk bürosu AI ile hazırlanan belgelerdeki hatalar yüzünden davayı kaybetti ve milyonlarca sterlin tazminat ödedi. Türkiye’de de benzer bir olayda, Yargıtay’ın “işverenin gözetim borcu” ve “özen yükümlülüğü” ilkelerini AI süreçlerine uyarlaması kuvvetle muhtemeldir.
Şirketler için pratik birkaç tedbir şimdiden hayata geçirilebilir: AI sistemlerini besleyen veri setlerini düzenli denetlemek, çalışanlara yapay zekâ kullanımı ve veri güvenliği konusunda eğitim vermek, yüksek riskli kararlarda (işten çıkarma, kredi onayı, yatırım tavsiyesi gibi) mutlaka insan onayı mekanizması eklemek, AI çıktılarını rastgele seçilmiş örneklerle düzenli test etmek ve tüm bu süreçleri yazılı olarak belgelendirmek. Bunlar yalnızca olası davalarda elinizi güçlendirmekle kalmaz, aynı zamanda şirket içi farkındalığı artırır.
Bugün atacağınız adımlar bu yüzden kritik: Veri işleme süreçlerinizi KVKK’ya uygun hale getirin, sözleşmelerinize yapay zekâ maddeleri ekleyin, AI’nın verdiği kararları düzenli kontrol edin, etik ilkeler belirleyin ve personelinizi bu konuda eğitin. Yapay zekâ, doğru yönetildiğinde işlerinizi hızlandıran bir asistan olabilir; yönetilmediğinde ise sonu bilinmeyen bir hukuki maceranın başrolünü size bırakır. Bazen öngörülü olmak gerekir, öyle değil mi?
Avukat & Hukuk Müşaviri





