ChatGPT ve Etik: Yapay Zekânın Ötesinde

Yapay zekâ konusunda bir dönüm noktasındayız. ChatGPT ile birlikte popülerleşen ve somutlaşan yapay zekâ artık birçok alanda kullanılıyor ve insanların hayatına etki ediyor. Hayatımızda sadece Siri ve Alexa varken, durum bu kadar ciddi değildi belki. Bu durumda, kuvvetle muhtemel bundan 10 yıl sonra yapay zekânın elinin değmediği hiçbir teknoloji çıktısı, hiçbir dijital ürün, hiçbir karar mekanizması kalmayacak. O zaman şimdi durup düşünme vakti. Böyle bir dönemeçte, toplumsal düzene ve bireylerin hayatına derinlemesine nüfuz etmenin eşiğinde olan yapay zekâ, hâlihazırda derin eşitsizlikler barından bir dünyada, eşitsizliği derinleştirecek mi, yoksa hafifletecek mi? Bu sorunun yanıtını bugünden vermek çok zor. Ama ben her zaman teknolojinin insanlığı ileriye taşıdığını ancak mevcut risklerin de mutlaka ortaya konması ve bertaraf edilmesi için ortak aklın çalıştırılması gerektiğini düşünürüm. Bu konuda okuduğum en iyi kitaplardan biri, Brian Christian’ın “The Alignment Problem: Machine Learning and Human Values” adlı kitabı (Önceki kitapları: The Most Human Human ve Algorithms to Live By). 2020 yılında basılan ve yazarın yapay zekâ konusundaki üçüncü çalışması olan kitap, yapay zekânın insanlığın temel değerleri ile uyumlanma sorunundan söz ediyor, ahlaki ve varoluşsal risklerin ortaya çıkacağı konusunda uyarıyor ve alarm zillerinin çalmakta olduğunu söylüyor. Christian’a göre karar mekanizmalarında sözü geçen yapay zekâ modelleri insan muhakemesinin ve açık bir şekilde programlanmış yazılımların yerine geçtikçe, önemli varoluşsal risklerin ortaya çıkması kaçınılmaz olabilir.

ChatGPT ve “uyumlanma”

Uyumlanma (alignment) terimi yapay zekâ sistemlerinin insanların temel etik değerleri ve amaçları ile uyumlu olması anlamına geliyor. Elbette Christian’ın uyumlanma konusunda söz ettiği riskler bugünden yarına çözülebilecek konular değil. Ancak bu alanda tartışmaların artması da insanlığın bir ortak akıl geliştirme çabası olarak değerlendirildiğinde, umut verici. Konuyu daha kolay anlaşılabilir kılmak, biraz sınırlandırmak ve zihinlerimizde somutlaştırmak için ChatGPT özelinde değerlendirmek istiyorum. ChatGPT’nin yaratıcısı OpenAI da elbette bu risklerin farkında ve bugün belki de tartışmasız en popüler yapay zekâ aracının sahibi olarak biraz da eleştirilerin odağında. Peki OpenAI, otonom çalışan sistemlerden oluşan genel yapay zekâya (Artificial General Intelligence – AGI) giden bu yolda yapay zekânın insanlığın faydasına kullanılması için ne gibi ilkeler benimsiyor. Gelin önce bunlara biz göz atalım. OpenAI misyonunu gerçekleştirme sürecinde bağlı olduğu ilkeleri dört ana başlıkta açıklıyor:

  1. Faydanın geniş kesimlere dağıtılması: Yapay zekânın yarattığı etkinin, insanlığın zararı veya gücün bir yerde yoğunlaşması için değil, insanlığın genel faydası için kullanılması
  2. Uzun Dönemli Güvenlik: Yapay zekânın uzun vadede güvenli olması için gerekli araştırmaların yapılması, bunların yapay zekâ topluluğu içinde kabul görmesinin sağlanması; değer odaklı, güvenlik düzeyi yüksek bir yapay zekâ sisteminin oluşturulması durumunda, bu sistemin yaratıcısı ile rekabet edilmemesi, işbirliği yapılması
  3. Teknik Liderlik: Teknik yeteneklerin en üst düzeyde tutulması ve bu alana liderlik edilmesi
  4. İşbirlikçi Yaklaşım: Diğer araştırma ve politika kurumlarıyla aktif işbirliği yapılması, küresel sorunlara birlikte çözüm sunmak için bir topluluk oluşturulması

Bunun yanında OpenAI, sistemlerinin uyumluluk seviyesini yüksek tutmak için sürekli olarak araştırma yaptığını belirtiyor, yapay zekâ sistemlerinin insan geri bildirimlerinden öğrenme ve yapay zekâyı değerlendirme konusunda insanlara yardımcı olma yeteneklerini geliştirdiklerini ekliyor. Bu uyumluluk araştırmasında, insan niyeti ile uyumlu yapay zekâ sistemleri için üç ana konuya odaklanılıyor:

  • Yapay zekâ sistemlerinin insan geribildirimleri ile eğitilmesi: Yapay zekâ sistemlerinin insan geribildirimiyle ödüllendirme yoluyla öğrenmesi (reinforcement learning), OpenAI’ın kullandığı ana teknik. Raporda bu tekniğin, başarılı sonuçları olmasına karşın, bazen yanlış sonuçlar vermek ve önyargılı olmak gibi bazı eksiklerinin olduğu, bunun da sürekli araştırma ve iyileştirmelerle minimize edileceği belirtiliyor.
  • Yapay zekâ sistemlerinin insan değerlendirmesini güçlendirmek için eğitilmesi: İnsan geribildiriminden yola çıkarak yapılan öğrenmenin bazı zorluk ve sınırlamaları olduğu, çünkü yapay zekâ sistemleri karmaşıklaştıkça insanların durumları doğru şekilde yargılamalarının zorlaştığı ve insanlara yardımcı olacak modelleri eğitmek için bazı farklı teknikler kullanıldığı ifade ediliyor.
  • Yapay zekâ sistemlerinin uyumluluk araştırması için eğitilmesi: Raporda, insanlardan daha hızlı ve etkili bir şekilde uyum araştırması yapabilecek yapay zekâ sistemleri geliştirmek ve en nihayetinde bu sistemlere bilişsel çalışmanın çoğunu yüklemek, insanların ise araştırmalarını değerlendirmeye odaklanmasını sağlamaktan da söz ediliyor.

Bunun dışında, OpenAI, “Kullanıcı Politikaları”nda ChatGPT’nin kötüye kullanımının önüne geçmek, kullanıcıların güvenli ve sorumlu şekilde kullanımını sağlamak için bir dizi politika uyguladığını ve bunlara uyulmaması durumunda ilgili kullanımı durduracağını belirtiyor. Ürünlerinin, illegal aktivite, çocuk istismarı, silah üretimi, akademik intihal, kumar, siyasal kampanya ve daha birçok amaçla kullanımının açıkça politikalarına aykırı olduğunu söylüyor. OpenAI, tıp, finans, hukuk, basın/yayın alanlarında son kullanıcıyı etkileyecek kullanımlarda, son kullanıcının yapay zekâ kullanımına dair uyarılması gerektiğini, sohbet robotu kullanımlarında yine açık bir bilgilendirme yapılması gerektiğini ekliyor. Etik ve uyumlanma konuları etrafındaki yoğun tartışmalar OpenAI’ı bu konuda gerekli araştırmaları yapmaya, politikaları üretmeye ve yayınlamaya itmiş görünüyor.

Peki ChatGPT’nin etik ve uyumlanma konusundaki eksikleri, kısıtları neler?

OpenAI bu konuda bir dizi politika ve araştırma açıkladı, ancak diğer yandan ChatGPT’nin etik ve uyumlanma konularındaki eksikleri, kısıtları birçok makaleye, webinar’a ve röportaja konu oluyor. ChatGPT’nin etik konulardaki eksikleri konusunda genel bir mutabakat söz konusu. Gelin şimdi de ChatGPT’nin hangi konularda etik ile uyumlanamadığına bir göz atalım.

Önyargılı veya doğru olmayan yanıtlar

Elbette ChatGPT’nin geniş eğitim verisi içinde açık önyargılar da yer alıyor ve bu durum cinsiyet, ırk veya başka açılardan bu önyargıları yansıtan çıktılar üretmesine sebep oluyor. Bu, tüm yapay zekâ sistemlerinin en fazla eleştirildiği konu aslında. Yapay zekânın toplumun aynası olma ve mevcut önyargıları yeniden yaratma gibi kötü bir huyu var. Bir diğer önemli eksiklik, ChatGPT’nin doğru ve gerçek olmayan çıktılar üretmesi. Bu durumun, hakikat sonrası (post-truth) dönemde yaşadığımız göz önüne alınırsa, nesnel gerçekliği yok sayma eğilimini derinleştirmeye hizmet edeceğini söyleyebiliriz. Bir başka konu ChatGPT’nin eğitildiği kaynaklar ve karar verme süreçleri hakkındaki şeffaflık eksikliği. Genel kanı, ChatGPT çıktılarının, kritik amaçlarla kullanılabileceğinden, insan muhakemesi süzgecinden geçirilmeden kullanılmaması yönünde.

Telif hakkı ihlali

ChatGPT’nin eğitildiği geniş kaynak havuzunda telif hakkı ile korunan içerikler de bulunuyor. Ancak ChatGPT bu telif hakkı ile korunan içeriği kullanıcılara çıktı olarak sunarak çoğaltmış oluyor.  Bunun sadece etik değil, aynı zamanda bir yasal sorun olduğu açık. OpenAI, çıktıların içeriğine dair sorumluluğun kullanıcılarda olduğunu belirtiyor ve bu, ChatGPT çıktılarının yayınlanması durumunda ortaya çıkabilecek telif hakkı sorunları için kullanıcıların sorumlu olması anlamına geliyor. Ancak ChatGPT eğitildiği kaynaklar için alıntı sağlayamadığı için kullanıcı olarak bizlerin bir telif hakkının ihlal edilip edilmediğini bilmemiz pek mümkün değil. Dünyanın en büyük akademik dergi yayıncılarından bazıları, yanlış veya intihal edilmiş çalışmaların akademik literatüre girebileceği endişesi ile yazarlarının ChatGPT kullanmalarını yasakladı. Ancak, farklı bir bakış açısı ile ChatGPT’yi bir dijital araştırma asistanı olarak düşünmek de mümkün. Ama şu sorunun yanıtı hâlâ verilmiş değil, ChatGPT’nin ürettiği bir çıktının telif hakkı kime ait? Belki de yakın gelecekte, üretici yapay zekâ sistemlerini eğitmek için kullanılan içeriklerin sahiplerine bir telif hakkı ödeme yöntemi bulunabilir.

Mahremiyet ihlali

ChatGPT’deki diyaloglarımız modellerin eğitimi için saklanıyor ve kişisel bir veri girilmesi durumunda ChatGPT bunu sonraki çıktılarda tekrar üretebiliyor. Tekrar üretme söz konusu olmasa bile, kişisel verinin izinsiz saklanması bile kişisel veri gizliliğine aykırı. OpenAI kişisel veri toplamadığını, saklamadığını ve kullanmadığını belirtiyor. Geçtiğimiz Nisan ayında İtalyan veri koruma otoritesi Garante, OpenAI’dan veri gizliliğine dair bir dizi önlem almasını istemiş, bunların tamamlanmasına dair bir tarih vermiş ve bu tarihe kadar İtalyan kullanıcıların ChatGPT’ye erişimini engellemişti. Önlemlerin tamamlanması ile ChatGPT İtalyan kullanıcıların erişimine tekrar açıldı. Ancak, bu örnek olay, konunun ciddiyetini ortaya koydu. Yapay zekâ önümüze yeni imkanlar koydukça veri koruma, gizlilik, uyum gibi konular önem kazanıyor ve bir denge unsuru oluşturuyor. Gartner 2024 itibariyle dünya çapında veri koruma ve uyumluluk teknolojisi üzerinde gizlilik odaklı harcamaların yıllık 15 milyar doları aşacağını tahmin ediyor. 

Akademik intihal

Akademik bağlamda, yapay zekâ tarafından üretilen içeriği orijinal bir çalışma gibi sunmak, bir metni yapay zekâ ile tekrar yazarak kaynak belirtmeden orijinal çalışma gibi sunmak, araştırmayı desteklemek için veri yaratmak, intihal ve hile anlamına geliyor ve üniversite yönergeleri tarafından yasaklanmış durumda. Bu durum akademik dürüstlük ile bağdaşmayacağı gibi, oluşturulan tezi veya makaleyi kaynak olarak kullanan araştırmacıları da yanlış yönlendiriyor. Bu sebeple, akademik intihal ChatGPT ile birlikte oluşan kaygı alanlarından bir diğeri olarak karşımıza çıkıyor. ChatGPT’nin özellikleri, öğrencilerin neredeyse tespit edilemeyecek şekilde intihal yapmasını kolaylaştırıyor ve eğitim kurumları, her ne kadar yapay zekâ tarafından yazılan içeriği tespit etmek için geliştirilen yapay zekâ ürünleri kullansalar da öğrenciler tarafından sunulan çalışmaların özgünlüğü konusunda endişe duyuyor.

Bititirken

Karmaşık durumları analiz etmeye çalışırken hep en temel noktadan bakmaya çalışırım. Böylece konunun ana eksenini kaçırmadığımı düşünürüm. ChatGPT ile ilgili düşünürken de insanlığın bin yıllardır oluşturduğu temel etik değerlerin, bugünkü yaşantımızın farklı alanlarında ne kadar önemsendiği ve dikkate alındığı sorusu hep aklımın bir kenarında duruyor. Elbette içinde yaşadığımız karmaşık dünya bu değerlerin önemsenmediği örneklerle dolu. Durum böyle olunca, yapay zekâ da kurduğumuz dünyanın bir yansımasını sunuyor bize. Bu teknoloji cinsiyet eşitsizliğinden akademik intihale, fikir eserlerinin ve kişisel verilerin korunamamasından yanlış bilgilere kadar birçok “uyumsuzluk” içeriyor. Ancak ben bilimin ve teknolojik ilerlemenin toplumsal sorunlara çözüm getireceğine inanıyorum. ChatGPT ve diğer yapay zekâ uygulamaları eğitim, sağlık, tarım, kalkınma gibi alanlarda kullanılmak üzere muazzam bir potansiyele sahip. Sözünü ettiğim uyumsuzlukların hepsi üretici yapay zekâ daha fazla kullanım alanı buldukça aşılacak. Bunun da tek yolu bu konuların her platformda tartışılması ve ortak aklın işletilmesi. İş dünyasının, teknoloji şirketlerinin, kamu otoritesinin ve eğitim kurumlarının artık ChatGPT veya diğer üretici yapay zekâ sistemleriyle birlikte çalışmamızın kaçınılmaz olduğunu kabul edip işbirliği yapması kritik. ChatGPT’nin insanlığın temel değerleriyle uyumlanması ve onları gözetir şekilde geliştirilmesi ve kullanılması konusunda tam bir yol ayrımındayız.

Bir Cevap Yazın