G
Gözde Ulukan
Misafir
Yapay zeka, özellikle son dönemde günümüzü vazgeçilmez teknolojilerinden biri haline dönüşse de birçoğumuzun kafasında hala bazı soru işaretleri mevcut. İnsan hayatını böylesine kolaylaştıran bir teknoloji ilerleyen dönemde ayağımızı kaydırır mı, şu an için bu konuda kesin bir şey söylemek mümkün değil. Ancak iyi eğitilmemiş yapay zeka kimi zaman korkunç bir hal alabiliyor.
OpenAI'ın güvenliğe yaklaşımını anlatmadan önce, yapay zeka güvenliğinin ve yapay zekada etiğin neden önemli olduğunu bir örnekle anlatmak istiyorum. Sabah bir haberle karşılaştım, haberde ChatGPT'nin gerçekte yaşanmamış bir taciz haberiyle gerçek bir hukuk profesörü suçladığını bilgisi yer alıyordu. USA Today'e yaşadıklarını anlatan George Washington University hukuk profesörü Jonathan Turley, ChatGPT'nin, herhangi birine cinsel tacizde bulunan hukukçularla ilgili bir araştırma projesinin parçası olarak kendisinin adını verdiğini fark etti.
Profesör, ChatGPT'de profesörlerin cinsel taciziyle ilgili yürüttüğü bir araştırma yapan arkadaşından ilginç bir e-posta aldığını yazdı. Turley, "ChatGPT, hukuk öğrencilerini Alaska gezisinde taciz ettikten sonra 2018 Washington Post makalesinde cinsel tacizle suçlandığımı söyledi." dedi. Ancak kendisi gerçekte öğrencilerle Alaska'ya hiç gitmedi ve The Post da asla böyle bir makale yayınlamadı. Bunun ne kadar korkunç olabileceğini sanırım hepimiz fark edebiliyoruz. İşte bu yüzden yapay zekanın çok doğru eğitilmesi ve gerekli tüm güvenlik önlemlerinin alınması şart. Tabii ki OpenAI da bunun farkında ve bu kapsamda alınan güvenlik önlemlerini detaylı bir şekilde paylaştı.
OpenAI ekibi, güçlü yapay zekayı güvenli ve genel olarak faydalı tutmaya kararlı olduklarını; güvenliğin sisteme her düzeyde dahil edildiğinden emin olmak için çalıştıklarını söyledi.
Paylaşılanlara göre şirket, herhangi bir yeni sistemi piyasaya sürmeden önce sıkı testlerden geçiriyor ve geri bildirim için harici uzmanlarla çalışıyor. İnsan geri bildirimiyle pekiştirmeli öğrenme gibi tekniklerle modelin davranışını iyileştirmek için çalışan OpenAI, geniş güvenlik ve izleme sistemleri oluşturuyor. Şirket, en son model olan GPT-4'ün eğitimini tamamladıktan sonra, onu genel kullanıma sunmadan önce daha güvenli ve daha uyumlu hale getirmek için kuruluş genelinde 6 aydan fazla çalıştığını belirtiyor. Güçlü yapay zeka sistemlerinin titiz güvenlik değerlendirmelerine tabi olması gerektiğine inanan OpenAI, bu tür uygulamaların benimsenmesini sağlamak için düzenlemeye ihtiyaç duyulduğunu ve bu tür düzenlemelerin alabileceği en iyi biçim konusunda hükümetlerle aktif olarak ilişki kurduklarını söylüyor.
Öngörülebilir riskler konusunda dikkatli olmaya çalışan şirket, laboratuvarda öğrenilenlerin bir sınırı olduğunu ve kapsamlı araştırma ve testlere rağmen, insanların teknolojiyi kullanacağı tüm yararlı ve zararlı yolları tahmin edemediklerini söylüyor. Tıpkı yukarıdaki örnekte olduğu gibi, zira o tür bir bilgi kötü niyetli kişilerin elinde bir insanın hayatının bitmesine bile neden olabilir.
Şirket bu nedenle, sürekli olarak genişleyen bir insan grubuna yeni yapay zeka sistemlerini, önemli koruma önlemleriyle birlikte, dikkatli bir şekilde ve kademeli olarak yayınlıyor ve öğrendiğimiz derslere dayalı olarak sürekli iyileştirmeler yapıyor.
OpenAI, en yetenekli modellerini kendi hizmetleri ve bir API aracılığıyla kullanıma sunuyor, böylece geliştiriciler bu teknolojiyi doğrudan uygulamalarına yerleştirebiliyor. Bu, kötüye kullanımı izlemeye, bunlarla ilgili önlem alınmasına ve yalnızca kötüye kullanımın nasıl görünebileceğine dair teoriler değil, insanların sistemi kötüye kullanma biçimlerine yanıt veren hafifletme önlemleri oluşturmamıza olanak tanıyor. Şirket böylece politikalarında değişikliğe gidebiliyor.
Güvenlik çabalarının en önemli maddelerinden biri olarak çocukları korumayı gösteren OpenAI'da aslında bir yaş sınırı var; 18. Ancak 13 yaşındaki çocukların da programı ebeveyn kontrolünde kullanmasına izin veriliyor. Tabii bunun önüne geçmek için bazı doğrulama kriterleri getiriliyor. Şirket, teknolojinin nefret dolu, taciz edici, şiddet içeren veya yetişkinlere uygun içerik oluşturmak için kullanılmasına izin vermediklerini söylüyor.
OpenAI, en son model olan GPT-4'ün, GPT-3.5'e kıyasla izin verilmeyen içerik taleplerine yanıt verme olasılığının yüzde 82 daha düşük olduğunu ve kötüye kullanımı izlemek için sağlam bir sistem kurduklarını söylüyor. Şirket, modellerin çocuklara zarar veren içerik üretme potansiyelini en aza indirmek için büyük çaba sarf edildiğini belirtiyor. Örneğin; kullanıcılar resim araçlarına Çocukların Cinsel İstismarı Materyali yüklemeye çalıştığında, bu engelliyor ve yetkililere bildirim gönderiliyor.
Şirket, gizliliğe saygı duyulduğunun da altını çiziyor. Verileri hizmetleri satmak, reklam yapmak veya kişilerin profillerini oluşturmak için kullanmıyor. ChatGPT, insanların onunla yaptığı konuşmalar hakkında daha fazla eğitim alarak gelişiyor. Eğitim verilerinin bir kısmı halka açık internette bulunan kişisel bilgileri içerse de, modellerin bireyleri değil dünyayı öğrenmesi isteniyor. Bu nedenle şirket, eğitim veri kümesinden kişisel bilgileri kaldırmak için çalışıyor, özel kişilerin kişisel bilgi taleplerini reddetmek için modellerde ince ayar yapıyor ve bireylerin kişisel bilgilerinin sistemlerden silinmesine yönelik taleplerine yanıt veriyor. Bu adımlar, modellerin özel kişilerin kişisel bilgilerini içeren yanıtlar üretme olasılığını en aza indiriyor.
İşte bu nokta, bana kalırsa oldukça önemli çünkü şirket gerçek doğruluğu artırmanın, OpenAI ve diğer birçok AI geliştiricisi için önemli bir odak noktası olduğunu söylüyor. Bu alanda ilerleme kaydettiklerini belirten şirket, ana veri kaynağı olarak yanlış olarak işaretlenen ChatGPT çıktılarıyla ilgili kullanıcı geri bildirimlerinden yararlanarak GPT-4'ün olgusal doğruluğunu iyileştirdiklerini söylüyor.
Paylaşılanlara bakıldığında GPT-4'ün gerçeğe dayalı içerik üretme olasılığı GPT-3.5'e göre yüzde 40 daha fazla. OpenAı da kullanıcılar aracı kullanmak için kaydolduğunda, ChatGPT'nin her zaman doğru olmayabileceği konusunda olabildiğince şeffaf olmaya çalışıyor. Yani yanlış bilgiler konusunda aslında daha önemli adımlar atılmaya başlanıyor.
Şirket bu kapsamda güvenlik önlemleri almaya devam edeceğini belirtiyor.
Bu yazıyı yazarken fark ettiğim en önemli nokta şu oldu; GPT-4, diğer modellere göre daha önyargısız ve daha doğru bilgiler sunuyor. Ancak şu anda birçok kişi hala GPT-3 ve 3.5'i kullanıyor. Sistem ne kadar güvenilir olursa olsun ChatGPT ve diğer yapay zeka botları tarafından oluşturulan içeriklerin güvenliğini her daim birkaç kere kontrol etmekte fayda var. Kişisel olarak yapay zekayı kullanmayı seviyorum ve kendimi korumaya almak için bu programları kullanırken her zaman analog olarak doğrulama yapmayı tercih ediyorum. Şu ana kadar bunun bir zararını görmediğimi belirteyim. Yatırım tavsiyesidir.
Görsel Kaynak: Deposit Photos
Kaynak : Webrazzi
OpenAI'ın güvenliğe yaklaşımını anlatmadan önce, yapay zeka güvenliğinin ve yapay zekada etiğin neden önemli olduğunu bir örnekle anlatmak istiyorum. Sabah bir haberle karşılaştım, haberde ChatGPT'nin gerçekte yaşanmamış bir taciz haberiyle gerçek bir hukuk profesörü suçladığını bilgisi yer alıyordu. USA Today'e yaşadıklarını anlatan George Washington University hukuk profesörü Jonathan Turley, ChatGPT'nin, herhangi birine cinsel tacizde bulunan hukukçularla ilgili bir araştırma projesinin parçası olarak kendisinin adını verdiğini fark etti.
Profesör, ChatGPT'de profesörlerin cinsel taciziyle ilgili yürüttüğü bir araştırma yapan arkadaşından ilginç bir e-posta aldığını yazdı. Turley, "ChatGPT, hukuk öğrencilerini Alaska gezisinde taciz ettikten sonra 2018 Washington Post makalesinde cinsel tacizle suçlandığımı söyledi." dedi. Ancak kendisi gerçekte öğrencilerle Alaska'ya hiç gitmedi ve The Post da asla böyle bir makale yayınlamadı. Bunun ne kadar korkunç olabileceğini sanırım hepimiz fark edebiliyoruz. İşte bu yüzden yapay zekanın çok doğru eğitilmesi ve gerekli tüm güvenlik önlemlerinin alınması şart. Tabii ki OpenAI da bunun farkında ve bu kapsamda alınan güvenlik önlemlerini detaylı bir şekilde paylaştı.
OpenAI ekibi, güçlü yapay zekayı güvenli ve genel olarak faydalı tutmaya kararlı olduklarını; güvenliğin sisteme her düzeyde dahil edildiğinden emin olmak için çalıştıklarını söyledi.
Uzun süren test süreçleri ve hükümetlerle yapılan iş birlikleri
Paylaşılanlara göre şirket, herhangi bir yeni sistemi piyasaya sürmeden önce sıkı testlerden geçiriyor ve geri bildirim için harici uzmanlarla çalışıyor. İnsan geri bildirimiyle pekiştirmeli öğrenme gibi tekniklerle modelin davranışını iyileştirmek için çalışan OpenAI, geniş güvenlik ve izleme sistemleri oluşturuyor. Şirket, en son model olan GPT-4'ün eğitimini tamamladıktan sonra, onu genel kullanıma sunmadan önce daha güvenli ve daha uyumlu hale getirmek için kuruluş genelinde 6 aydan fazla çalıştığını belirtiyor. Güçlü yapay zeka sistemlerinin titiz güvenlik değerlendirmelerine tabi olması gerektiğine inanan OpenAI, bu tür uygulamaların benimsenmesini sağlamak için düzenlemeye ihtiyaç duyulduğunu ve bu tür düzenlemelerin alabileceği en iyi biçim konusunda hükümetlerle aktif olarak ilişki kurduklarını söylüyor.
İnsanların teknoloji hangi amaçla kullanacaklarını anlamak kolay değil
Öngörülebilir riskler konusunda dikkatli olmaya çalışan şirket, laboratuvarda öğrenilenlerin bir sınırı olduğunu ve kapsamlı araştırma ve testlere rağmen, insanların teknolojiyi kullanacağı tüm yararlı ve zararlı yolları tahmin edemediklerini söylüyor. Tıpkı yukarıdaki örnekte olduğu gibi, zira o tür bir bilgi kötü niyetli kişilerin elinde bir insanın hayatının bitmesine bile neden olabilir.
Şirket bu nedenle, sürekli olarak genişleyen bir insan grubuna yeni yapay zeka sistemlerini, önemli koruma önlemleriyle birlikte, dikkatli bir şekilde ve kademeli olarak yayınlıyor ve öğrendiğimiz derslere dayalı olarak sürekli iyileştirmeler yapıyor.
OpenAI, en yetenekli modellerini kendi hizmetleri ve bir API aracılığıyla kullanıma sunuyor, böylece geliştiriciler bu teknolojiyi doğrudan uygulamalarına yerleştirebiliyor. Bu, kötüye kullanımı izlemeye, bunlarla ilgili önlem alınmasına ve yalnızca kötüye kullanımın nasıl görünebileceğine dair teoriler değil, insanların sistemi kötüye kullanma biçimlerine yanıt veren hafifletme önlemleri oluşturmamıza olanak tanıyor. Şirket böylece politikalarında değişikliğe gidebiliyor.
Çocuklar için alınan bazı önlemler
Güvenlik çabalarının en önemli maddelerinden biri olarak çocukları korumayı gösteren OpenAI'da aslında bir yaş sınırı var; 18. Ancak 13 yaşındaki çocukların da programı ebeveyn kontrolünde kullanmasına izin veriliyor. Tabii bunun önüne geçmek için bazı doğrulama kriterleri getiriliyor. Şirket, teknolojinin nefret dolu, taciz edici, şiddet içeren veya yetişkinlere uygun içerik oluşturmak için kullanılmasına izin vermediklerini söylüyor.
OpenAI, en son model olan GPT-4'ün, GPT-3.5'e kıyasla izin verilmeyen içerik taleplerine yanıt verme olasılığının yüzde 82 daha düşük olduğunu ve kötüye kullanımı izlemek için sağlam bir sistem kurduklarını söylüyor. Şirket, modellerin çocuklara zarar veren içerik üretme potansiyelini en aza indirmek için büyük çaba sarf edildiğini belirtiyor. Örneğin; kullanıcılar resim araçlarına Çocukların Cinsel İstismarı Materyali yüklemeye çalıştığında, bu engelliyor ve yetkililere bildirim gönderiliyor.
Gizliliğe saygı duyuluyor
Şirket, gizliliğe saygı duyulduğunun da altını çiziyor. Verileri hizmetleri satmak, reklam yapmak veya kişilerin profillerini oluşturmak için kullanmıyor. ChatGPT, insanların onunla yaptığı konuşmalar hakkında daha fazla eğitim alarak gelişiyor. Eğitim verilerinin bir kısmı halka açık internette bulunan kişisel bilgileri içerse de, modellerin bireyleri değil dünyayı öğrenmesi isteniyor. Bu nedenle şirket, eğitim veri kümesinden kişisel bilgileri kaldırmak için çalışıyor, özel kişilerin kişisel bilgi taleplerini reddetmek için modellerde ince ayar yapıyor ve bireylerin kişisel bilgilerinin sistemlerden silinmesine yönelik taleplerine yanıt veriyor. Bu adımlar, modellerin özel kişilerin kişisel bilgilerini içeren yanıtlar üretme olasılığını en aza indiriyor.
GPT-4'ün gerçeğe dayalı içerik üretme olasılığı GPT-3.5'e göre yüzde 40 daha fazla
İşte bu nokta, bana kalırsa oldukça önemli çünkü şirket gerçek doğruluğu artırmanın, OpenAI ve diğer birçok AI geliştiricisi için önemli bir odak noktası olduğunu söylüyor. Bu alanda ilerleme kaydettiklerini belirten şirket, ana veri kaynağı olarak yanlış olarak işaretlenen ChatGPT çıktılarıyla ilgili kullanıcı geri bildirimlerinden yararlanarak GPT-4'ün olgusal doğruluğunu iyileştirdiklerini söylüyor.
Paylaşılanlara bakıldığında GPT-4'ün gerçeğe dayalı içerik üretme olasılığı GPT-3.5'e göre yüzde 40 daha fazla. OpenAı da kullanıcılar aracı kullanmak için kaydolduğunda, ChatGPT'nin her zaman doğru olmayabileceği konusunda olabildiğince şeffaf olmaya çalışıyor. Yani yanlış bilgiler konusunda aslında daha önemli adımlar atılmaya başlanıyor.
Şirket bu kapsamda güvenlik önlemleri almaya devam edeceğini belirtiyor.
Bu yazıyı yazarken fark ettiğim en önemli nokta şu oldu; GPT-4, diğer modellere göre daha önyargısız ve daha doğru bilgiler sunuyor. Ancak şu anda birçok kişi hala GPT-3 ve 3.5'i kullanıyor. Sistem ne kadar güvenilir olursa olsun ChatGPT ve diğer yapay zeka botları tarafından oluşturulan içeriklerin güvenliğini her daim birkaç kere kontrol etmekte fayda var. Kişisel olarak yapay zekayı kullanmayı seviyorum ve kendimi korumaya almak için bu programları kullanırken her zaman analog olarak doğrulama yapmayı tercih ediyorum. Şu ana kadar bunun bir zararını görmediğimi belirteyim. Yatırım tavsiyesidir.
Görsel Kaynak: Deposit Photos
Kaynak : Webrazzi