OpenAI, güvenli ve genel olarak faydalı olan yapay zeka (AI) geliştirmeyi taahhüt eden yeni bir blog yazısı yayınladı.

OpenAI’nin en yeni modeli GPT-4 tarafından desteklenen ChatGPT, üretkenliği artırabilir, yaratıcılığı geliştirebilir ve özel öğrenme deneyimleri sağlayabilir.

Ancak OpenAI, yapay zeka araçlarının güvenlik önlemleri ve sorumlu dağıtım yoluyla ele alınması gereken doğal risklere sahip olduğunu kabul eder.

İşte şirketin bu riskleri azaltmak için yaptığı şey.

AI Sistemlerinde Güvenliğin Sağlanması

OpenAI kapsamlı testler yürütür, uzmanlardan harici rehberlik ister ve yeni sistemler piyasaya sürmeden önce yapay zeka modellerini insan geri bildirimleriyle iyileştirir.

Örneğin, GPT-4’ün piyasaya sürülmesinden önce, güvenliğini ve kullanıcı gereksinimleriyle uyumluluğunu sağlamak için altı aydan fazla test yapıldı.

OpenAI, sağlam yapay zeka sistemlerinin sıkı güvenlik değerlendirmelerine tabi tutulması gerektiğine inanıyor ve düzenleme ihtiyacını destekliyor.

Gerçek Dünya Kullanımından Öğrenmek

Gerçek dünya kullanımı, güvenli AI sistemleri geliştirmede kritik bir bileşendir. OpenAI, kademeli olarak genişleyen bir kullanıcı tabanına dikkatli bir şekilde yeni modeller sunarak, öngörülemeyen sorunları ele alan iyileştirmeler yapabilir.

OpenAI, API’si ve web sitesi aracılığıyla yapay zeka modelleri sunarak kötüye kullanımı izleyebilir, uygun eylemi gerçekleştirebilir ve riski dengelemek için incelikli politikalar geliştirebilir.

Çocukları Korumak ve Mahremiyete Saygı Göstermek

OpenAI, yaş doğrulamasını zorunlu kılarak ve teknolojisinin zararlı içerik oluşturmak için kullanılmasını yasaklayarak çocukların korunmasına öncelik verir.

Gizlilik, OpenAI’nin çalışmasının bir başka önemli yönüdür. Kuruluş, kullanıcıları korurken modellerini daha yararlı hale getirmek için verileri kullanır.

Ek olarak OpenAI, kişisel bilgi taleplerini reddetmek için eğitim veri kümelerinden kişisel bilgileri kaldırır ve modellerde ince ayar yapar.

OpenAI, kişisel bilgilerin sistemlerinden silinmesine yönelik taleplere yanıt verecektir.

Olgulara Dayalı Doğruluğu İyileştirme

Olgulara dayalı doğruluk, OpenAI için önemli bir odak noktasıdır. GPT-4’ün doğru içerik üretme olasılığı, selefi GPT-3.5’e göre %40 daha fazladır.

Kuruluş, kullanıcıları yapay zeka araçlarının sınırlamaları ve yanlışlık olasılığı hakkında eğitmeye çalışıyor.

Sürekli Araştırma ve Etkileşim

OpenAI, etkili hafifletme ve hizalama tekniklerini araştırmaya zaman ve kaynak ayırmaya inanır.

Ancak bu tek başına yapabileceği bir şey değil. Güvenlik konularını ele almak, paydaşlar arasında kapsamlı tartışma, deneyim ve katılım gerektirir.

OpenAI, güvenli bir yapay zeka ekosistemi oluşturmak için işbirliğini ve açık diyaloğu geliştirmeye kararlıdır.

Varoluşsal Risklere Eleştiri

OpenAI’nin AI sistemlerinin güvenliğini ve geniş faydalarını sağlama taahhüdüne rağmen, blog gönderisi sosyal medyada eleştirilere yol açtı.

Twitter kullanıcıları, OpenAI’nin AI gelişimiyle ilişkili varoluşsal riskleri ele almada başarısız olduğunu belirterek hayal kırıklığını dile getirdiler.

Bir Twitter kullanıcısı hayal kırıklığını dile getirerek OpenAI’yi kuruluş misyonuna ihanet etmekle ve pervasızca ticarileştirmeye odaklanmakla suçladı.

Kullanıcı, OpenAI’nin güvenliğe yaklaşımının yüzeysel olduğunu ve gerçek varoluşsal riskleri ele almaktan çok eleştirmenleri yatıştırmakla ilgilendiğini öne sürüyor.

Başka bir kullanıcı, gerçek sorunları örtbas ettiğini ve muğlak kaldığını savunarak duyurudan duyduğu memnuniyetsizliği dile getirdi. Kullanıcı ayrıca, raporun yapay zeka öz farkındalığına bağlı kritik etik sorunları ve riskleri göz ardı ettiğini vurgulayarak, OpenAI’nin güvenlik sorunlarına yaklaşımının yetersiz olduğunu ima eder.

Eleştiri, AI gelişiminin ortaya koyduğu varoluşsal riskler hakkında daha geniş endişelerin ve devam eden tartışmaların altını çiziyor.

OpenAI’nin duyurusu güvenlik, mahremiyet ve doğruluk taahhüdünün ana hatlarını çizse de, daha önemli endişeleri ele almak için daha fazla tartışma ihtiyacını kabul etmek önemlidir.


Öne Çıkan Resim: TY Lim/Shutterstock

Kaynak: OpenAI