Yapay zekâ teknolojileri hayatımıza akıl almaz bir hızla giriyor. Bununla birlikte, etik sorunlar, hukuki tartışmalar ve yaptırımlar da gündemimizin en önemli başlıklarından biri haline geldi. Bu çerçevede, İtalya’da kabul edilen Yapay Zekâ Yasası dikkat çekici bir örnek. İtalya Hükümeti tarafından Parlamento’ya sunulan ve onaylanan bu yasa, yalnızca yasaklardan ibaret değil; aynı zamanda devletin özel sektörle iş birliğini ve teknolojinin doğru kullanımını da içeren kapsamlı maddelerden oluşuyor. Bu haftaki yazımızla beraber, önümüzdeki birkaç hafta boyunca hem fırsatları hem de tehditleri değerlendirerek ilgili yasayı tahlil edeceğiz
Şunu özellikle vurgulamak gerekir ki, yapay zekâ teknolojisinin sunduğu büyük fırsatların yanı sıra beraberinde getirdiği riskleri ve tehlikeleri de görmezden gelemeyiz. Teknolojiyi en verimli şekilde kullanırken, doğru kullanım ilkelerine bağlı kalmak, etik değerlere riayet etmek ve özellikle nesillerimizi faydalı yönde yönlendirmek bizim için hayati önem taşımaktadır. Dijital sahtekârlıkların akıl almaz boyutlara ulaştığı günümüzde, yapay zekâya ilişkin mutlaka ciddi tedbirler alınması gerektiğine inanıyoruz.
Öncelikle yaptırımlardan bahsedelim.
İtalya’da kabul edilen yeni düzenlemelerle yapay zekâ kullanılarak işlenen suçlara ağır cezalar getirildi. Artık suçların yapay zekâ sistemleri aracılığıyla işlenmesi ağırlaştırıcı sebep sayılacak. Bu kapsamda; yapay zekâ ile işlenen aldatma suçları için 2–6 yıl hapis, deepfake içeriklerin izinsiz yayılması için ise 1–5 yıl hapis cezası öngörülüyor. Ayrıca piyasa manipülasyonu ve finansal suçların yapay zekâ kullanılarak işlenmesi durumunda cezalar 7 yıla kadar hapis ve 6 milyon avroya kadar para cezasına çıkabiliyor. Bunun yanında, fikir ve sanat eserlerinin izinsiz kopyalanması veya veri çıkarımında yapay zekâ kullanılması da artık suç kapsamına alındı. (1)
Çocuklara gelince…
İtalya ve Türkiye’deki haber kaynaklarına göre 14 yaşın altındaki çocuklar yapay zekâ teknolojilerine ancak ebeveynlerinin onayıyla erişebilecek.
Bu düzenleme, çocukları yapay zekâ kaynaklı risklerden korumayı amaçlıyor ve üç önemli noktaya dikkat çekiyor: (2) (Not. Resmi belgedeki metinler italik ve altı çizili yazılmıştır.)
- Çocuklara yönelik yapay zekâ tabanlı hedeflenmiş reklamcılık,
- Psikolojik gelişimi olumsuz etkileyen manipülatif içerikler,
- Çocukların verilerinin izinsiz toplanması ve işlenmesi.
Uzun yıllar eğitim dünyasının içinde bulunmuş biri olarak, bu üç başlığın altını kalınca çizmek gerektiğini düşünüyorum. Eğitim kurumları, çocuklara dijital okuryazarlık ve yapay zekâ farkındalığı kazandırmak zorunda. Ancak reel durumda öğrencilerin ilgisi daha çok ödevlerini yapay zekâya yaptırmak veya vakit geçirici uygulamalara yönelmek üzerine.
Hatırlıyorum, arama motorlarının yeni yaygınlaştığı yıllarda öğretmen arkadaşlarımızla, ödevlerin yorum ve anlamaya dayalı olması için çaba sarf ediyorduk. Bugünse öğrenci, yapay zekâ ile klasik bir ödevi analiz ettirip öğretmenine sunabiliyor. Bazı öğrenciler ise sistemi daha zekice kullanarak eğitimcinin fark etmesini engelleyebiliyor.
Çözüm, önce öğretmenlerin bu teknolojiyi derslerinde nasıl verimli kullanacaklarını keşfetmeleridir. Böylece yapay zekâ, öğrencinin bireysel öğrenme gücünü artıran bir araç haline gelir. Aksi takdirde, bu süreç büyük bir tehlikeye dönüşebilir.
Yukarıda bahsedilen üç önemli maddeye yeniden dönelim:
1) Çocuklara Yönelik Yapay Zekâ Tabanlı Hedeflenmiş Reklamcılık
Yapay zekâ ile kişiye özel reklamlar hazırlanması “yapay zekâ tabanlı hedeflenmiş reklamcılık” olarak tanımlanabilir. Buradaki en büyük risk, kontrol mekanizması henüz gelişmemiş olan çocuklara sunulabilecek içeriklerdir. Bu tür uygulamalar, çocukların psikolojisini, tüketim alışkanlıklarını ve hatta değer yargılarını olumsuz etkileyebilir.
2) Psikolojik Gelişimi Olumsuz Etkileyen Manipülatif İçerikler
Büyük bir tehlike de kötü niyetli kişilerin, klasik internet risklerini aşarak bireysel analizlerle çocukları yönlendirmesidir. Yapay zekâ aracılığıyla kişiye özel uyarılar, öneriler veya içerik akışları oluşturmak; çocukların davranışlarını, tercihlerini ve dünyaya bakış açılarını şekillendirebilir. Bu nedenle bu tür manipülasyonlara karşı güçlü ve önleyici tedbirler alınması şarttır.
3) Çocukların Verilerinin İzinsiz Toplanması ve İşlenmesi
Buradaki en temel kural, özel bilgilerin çevrimiçi ortamlarda paylaşılmamasıdır. Güvenli olmayan yapay zekâ araçları kullanıldığında, verilerin başkalarının eline geçebileceğini unutmamak gerekir. Çocuklar açısından bakıldığında bu durum çok daha tehlikelidir; çünkü onların hangi veriyi çevrimiçi ortamlarda paylaşabileceklerini ayırt etmeleri çok daha zordur.
Sonuç olarak, çocuklarımız açısından hızlı ve kararlı adımlar atmak zorundayız. Yapay zekâ okuryazarlığını onlara kazandırmak artık temel bir yetkinlik olarak görülmelidir. Bu noktada, yerli ve millî yapay zekâ araçlarının geliştirilmesiyle hem fayda artırılmalı hem de riskler en aza indirilmelidir. Ayrıca, yalnızca özel sektörün ticari kaygılarına bırakılmadan, resmî kurumların öncülüğünde ve STK’ların aktif katkısıyla bu alanda ciddi çalışmalar yapılması büyük önem taşımaktadır.
https://www.senato.it/leggi-e-documenti/disegni-di-legge/scheda-ddl?tab=votazioni&did=58262 (İlgili linkteki PDF’e bakınız.)