Günümüzde her şeyi Chat GPT’ye sorar olduk. Tabii sorarken de birçok kişisel verimizi, hayat hikayemizi, sağlık verilerimizi, psikolojik durumumuzu, rutinlerimizi paylaşıyoruz. Bu bilgileri bizden isteyen kanlı canlı bir insan olsaydı muhtemelen paylaşmaktan imtina edecekken; karşımızda bir bilgisayar ekranı olunca hemen yelkenleri suya indiriyoruz. Bu bizi savunmasız kılmaz mı?
Maalesef kılar. Bu yüzden de yapay zeka sistemlerini güvenli şekilde kullanmak için bazı önlemler almak gerekir. Paylaştığımız kişisel verileri sınırlı tutmak, mümkünse anonimleştirerek paylaşmak veya genel geçer ifadeler kullanmak bir nebze de olsa veri güvenliğini sağlamanıza yardımcı olacaktır. Bireysel olarak hukuk farkındalığına sahip olup; yapay zekayı kullanırken de bu farkındalıkla hareket etmek gereklidir.
Bir de şirketlerin gözünden bakalım. Şirketlerde birçok çalışan Chat GPT’ye işiyle ilgili sorular soruyor, işinde kullandığı görsel veya yazılı materyali Chat GPT’den alıyor. Bu yolla şirketlerin ticari sırları açık edildiği gibi bir de Chat GPT çıktılarının kullanılmasından dolayı telif sorunlarıyla karşılaşma riski doğuyor. Bu durumda şirketler ne yapabilir?
Şirketlerin; genel ve herkese açık yapay zeka algoritmaları yerine kendine özgü sistemleri kullanmaları veri güvenliği bakımından ilk önlem olacaktır. Tabiri caizse kapalı devre bir sistem kurarak; şirkete ait verilerin, ticari sırların, know-how’ın kontrolsüzce sızdırılmasının önüne geçilmelidir. Çalışanların yapay zeka kullanımı sırasında dikkat etmesi gereken bilgi güvenliği ve hukuki esaslar konusunda bilgilendirilmesi, düzenli olarak bu konularda eğitim verilmesi gerekmektedir. Böylelikle şirket kültürü oluşabilir ve yapay zekada hem bireysel hem de kurumsal hukuk farkındalığı sağlanabilir.