OpenAI’nin ChatGPT’yi başlatmasının ve manşetlere çıkmaya başlamasının üzerinden daha dün gibi (neredeyse altı ay geçmiş olsa da).

ChatGPT, üç ay içinde 100 milyon kullanıcıya ulaşarak on yıllardır en hızlı büyüyen uygulama oldu. Karşılaştırma için, aynı dönüm noktasına ulaşması TikTok’un dokuz ayını ve Instagram’ın iki buçuk yılını aldı.

Artık ChatGPT, kullanıcı istemlerini yanıtlamak için GPT-4’ün yanı sıra internette gezinme ve Expedia, Zapier, Zillow gibi markaların eklentilerini ve daha fazlasını kullanabilir.

Microsoft gibi büyük teknoloji şirketleri, AI destekli müşteri çözümleri oluşturmak için OpenAI ile ortaklık kurdu. Google, Meta ve diğerleri dil modellerini ve yapay zeka ürünlerini oluşturuyor.

Teknoloji CEO’ları, profesörler, araştırma bilimcileri ve politikacılar da dahil olmak üzere 27.000’den fazla kişi, GPT-4’ten daha güçlü sistemlerin yapay zeka geliştirmesini durdurmak için bir dilekçe imzaladı.

Şimdi soru, ABD hükümetinin yapay zekayı düzenlemesi gerekip gerekmediği olmayabilir – eğer çok geç değilse.

Aşağıda, AI düzenlemesindeki son gelişmeler ve bunların AI ilerlemesinin geleceğini nasıl etkileyebileceği yer almaktadır.

Federal Ajanslar Önyargılarla Mücadele Ediyor

Dört önemli ABD federal kurumu – Tüketici Mali Koruma Bürosu (CFPB), Adalet Bakanlığı’nın Sivil Haklar Bölümü (DOJ-CRD), Eşit İstihdam Fırsatı Komisyonu (EEOC) ve Federal Ticaret Komisyonu (FTC) – hakkında bir bildiri yayınladı. otomatik sistemlerde ve yapay zekada önyargı ve ayrımcılığı engellemeye yönelik güçlü taahhüt.

Bu ajanslar, adalet, eşitlik ve adalet ilkelerini desteklemelerini sağlamak için bu yeni teknolojilere mevcut düzenlemeleri uygulama niyetlerinin altını çizdiler.

  • Finans piyasasında tüketicinin korunmasından sorumlu olan CFPB, mevcut tüketici mali yasalarının karmaşıklığına veya yeniliğine bakılmaksızın tüm teknolojiler için geçerli olduğunu yeniden teyit etti. Ajans, AI teknolojisinin yenilikçi doğasının bu yasaları ihlal etmek için bir savunma olarak kullanılamayacağı konusundaki duruşunda şeffaf olmuştur.
  • Hayatın çeşitli yönlerinde ayrımcılığa karşı koruma sağlamakla görevli ajans DOJ-CRD, Adil Konut Yasasını algoritma tabanlı kiracı tarama hizmetlerine uygular. Bu, mevcut medeni haklar yasalarının sistemleri ve yapay zekayı otomatikleştirmek için nasıl kullanılabileceğini örneklemektedir.
  • İstihdamda ayrımcılıkla mücadele yasalarını uygulamaktan sorumlu olan EEOC, Engelli Amerikalılar Yasası’nın istihdam kararlarının alınmasında kullanılan yapay zeka ve yazılıma nasıl uygulanacağı konusunda bir kılavuz yayınladı.
  • Tüketicileri adil olmayan ticari uygulamalardan koruyan FTC, yapay zeka araçlarının doğası gereği önyargılı, hatalı veya ayrımcı olma potansiyeline ilişkin endişelerini dile getirdi. AI’yı yeterli risk değerlendirmesi olmadan dağıtmanın veya AI hakkında asılsız iddialarda bulunmanın FTC Yasasının ihlali olarak görülebileceği konusunda uyardı.

Örneğin, Yapay Zeka ve Dijital Politika Merkezi, FTC’ye OpenAI’nin “önyargılı, aldatıcı ve mahremiyet ve kamu güvenliği riski taşıyan” bir ürün olan GPT-4’ü piyasaya sürmesi hakkında şikayette bulundu.

Senatör, AI Şirketlerini Güvenlik ve Kötüye Kullanım Konusunda Sorguluyor

ABD Senatörü Mark R. Warner, Anthropic, Apple, Google, Meta, Microsoft, Midjourney ve OpenAI dahil olmak üzere önde gelen AI şirketlerine mektuplar gönderdi.

Bu mektupta Warner, yapay zeka (AI) sistemlerinin geliştirilmesi ve kullanımındaki güvenlik hususlarıyla ilgili endişelerini dile getirdi. Mektubun alıcılarından çalışmalarında bu güvenlik önlemlerine öncelik vermelerini istedi.

Warner, veri tedarik zinciri sorunları, veri zehirlenmesi saldırıları, düşmanca örnekler ve yapay zeka sistemlerinin potansiyel kötüye veya kötü niyetli kullanımı gibi bir dizi yapay zekaya özgü güvenlik riskinin altını çizdi. Bu endişeler, yapay zekanın güvenlik önlemlerine duyulan ihtiyacın altını çizen sağlık ve finans gibi ekonominin çeşitli sektörlerine artan entegrasyonunun zemininde belirlendi.

Mektup, AI güvenliğini sağlamak için alınan önlemler hakkında 16 soru sordu. Ayrıca, zararlı etkileri önlemek ve AI’nın uygun önlemler olmadan ilerlememesini sağlamak için sahada bir düzeyde düzenlemeye ihtiyaç duyulduğunu da ima etti.

AI şirketlerinden 26 Mayıs 2023’e kadar yanıt vermeleri istendi.

Beyaz Saray, Yapay Zeka Liderleriyle Buluştu

Biden-Harris Yönetimi, yapay zekada (AI) sorumlu inovasyonu teşvik etmeye, vatandaşların haklarını korumaya ve güvenliği sağlamaya yönelik girişimleri duyurdu.

Bu önlemler, federal hükümetin AI ile ilişkili riskleri ve fırsatları yönetme çabasıyla uyumludur.

Beyaz Saray, insanları ve toplulukları ilk sıraya koymayı, kamu yararı için AI inovasyonunu teşvik etmeyi ve toplumu, güvenliği ve ekonomiyi korumayı amaçlıyor.

Başkan Yardımcısı Kamala Harris de dahil olmak üzere üst düzey yönetim yetkilileri, bu yükümlülüğü ve sorumlu ve etik yenilik ihtiyacını tartışmak için Alphabet, Anthropic, Microsoft ve OpenAI liderleriyle bir araya geldi.

Spesifik olarak, şirketlerin LLM’lerin ve yapay zeka ürünlerinin güvenliğini halka dağıtımdan önce sağlama yükümlülüğünü tartıştılar.

Yeni adımlar ideal olarak, AI Haklar Bildirgesi, AI Risk Yönetimi Çerçevesi ve Ulusal AI Araştırma Kaynağı planları gibi sorumlu inovasyonu teşvik etmek için idare tarafından zaten alınmış olan kapsamlı önlemleri tamamlayacaktır.

Yapay zeka dahil olmak üzere yeni teknolojilerin tasarımında ve kullanımında önyargıyı ortadan kaldırmak için bir yürütme emri gibi, yapay zeka çağında kullanıcıları korumak için ek önlemler alınmıştır.

Beyaz Saray, FTC, CFPB, EEOC ve DOJ-CRD’nin, Amerikalıları AI ile ilgili zararlardan korumak için yasal yetkilerinden yararlanmayı toplu olarak taahhüt ettiklerini kaydetti.

Yönetim ayrıca yapay zeka siber güvenliği ve biyogüvenlik ile ilgili ulusal güvenlik endişelerini de ele aldı.

Yeni girişimler arasında Ulusal Bilim Vakfı’nın yedi Ulusal Yapay Zeka Araştırma Enstitüsüne sağladığı 140 milyon dolarlık fon, mevcut üretken yapay zeka sistemlerinin kamuya açık değerlendirmeleri ve Yönetim ve Bütçe Ofisi’nin ABD hükümeti tarafından yapay zeka kullanımına ilişkin yeni politika rehberliği yer alıyor.

Yapay Zeka İşitme Gözetimi, Yapay Zeka Düzenlemesini Keşfediyor

Gizlilik, Teknoloji ve Yasa Alt Komitesi üyeleri, AI düzenlemesini tartışmak için AI topluluğunun önde gelen üyeleriyle bir AI Gözetim duruşması düzenledi.

Düzenlemeye Hassasiyetle Yaklaşmak

IBM’in Baş Gizlilik ve Güven Sorumlusu Christina Montgomery, yapay zekanın önemli ölçüde ilerleme kaydetmesine ve artık hem tüketici hem de iş alanlarının ayrılmaz bir parçası olmasına rağmen, aldığı artan kamuoyu ilgisinin, önyargı ve kötüye kullanım da dahil olmak üzere potansiyel toplumsal etkinin dikkatli bir şekilde değerlendirilmesini gerektirdiğini vurguladı.

Devletin sağlam bir düzenleyici çerçeve geliştirmedeki rolünü destekledi, IBM’in teknolojinin kendisinden ziyade belirli kullanım durumu kurallarına odaklanan “hassas düzenleme” yaklaşımını önerdi ve ana bileşenlerini özetledi.

Montgomery ayrıca, yeniliği engellemeyen riske dayalı bir düzenleyici yaklaşımı savunan üretken yapay zeka sistemlerinin zorluklarını da kabul etti. IBM’in yönetişim uygulamalarını ve yapay zeka ile ilgili tüm şirketlerde bir yapay zeka etik kurulunun gerekliliğini detaylandırarak, işletmelerin yapay zekayı sorumlu bir şekilde devreye almadaki önemli rolünün altını çizdi.

GPT-4 ve Ötesinin Potansiyel Ekonomik Etkilerini Ele Alma

OpenAI CEO’su Sam Altman, şirketin güvenlik, siber güvenlik ve AI teknolojilerinin etik sonuçlarına olan derin taahhüdünü özetledi.

Altman’a göre firma, acımasız dahili ve üçüncü taraf sızma testleri ve güvenlik kontrollerinin düzenli denetimlerini yürütüyor. OpenAI, AI sistemlerini ortaya çıkan siber tehditlere karşı güçlendirmek için yeni stratejilere de öncülük ediyor.

Altman, ChatGPT bazı işleri otomatikleştirebileceğinden, AI’nın işgücü piyasası üzerindeki ekonomik etkilerinden özellikle endişe duyuyor gibi görünüyordu. Altman’ın liderliğinde OpenAI, bu etkileri değerlendirmek ve potansiyel zararı azaltmak için politikalar tasarlamak için ekonomistler ve ABD hükümeti ile birlikte çalışıyor.

Altman, politika araçlarını araştırmadaki proaktif çabalarından ve işsizlik yardımlarının modernleştirilmesi ve işçi yardım programları oluşturma gibi gelecekte teknolojik bozulmanın darbesini yumuşatabilecek Worldcoin gibi programları destekleme konusundaki proaktif çabalarından bahsetti. (Bu arada İtalya’daki bir fon, yakın zamanda AI’dan ayrılma riski en yüksek olan işçilere yönelik hizmetlere yatırım yapmak için 30 milyon avro ayırdı.)

Altman, etkili AI düzenlemesine duyulan ihtiyacı vurguladı ve OpenAI’nin politika yapıcılara yardım etme konusundaki desteğini sürdüreceğini taahhüt etti. Altman, şirketin amacının hem güvenliği teşvik eden hem de yapay zekanın faydalarına geniş erişim sağlayan düzenlemelerin formüle edilmesine yardımcı olmak olduğunu onayladı.

AI teknolojisinin güvenli ve faydalı gelişimini sağlamak için çeşitli paydaşların toplu katılımının, küresel düzenleyici stratejilerin ve uluslararası işbirliğinin önemini vurguladı.

Yapay Zeka Zararı Potansiyelini Keşfetmek

NYU’da Psikoloji ve Sinir Bilimi Profesörü olan Gary Marcus, yapay zekanın, özellikle de GPT-4 gibi güçlü ve etkili dil modellerinin potansiyel kötüye kullanımına ilişkin artan endişelerini dile getirdi.

Endişesini, kendisinin ve bir yazılım mühendisinin, ABD Senatosunu kontrol eden uzaylılar hakkında tamamen hayali bir anlatı uydurmak için sistemi nasıl manipüle ettiğini göstererek gösterdi.

Bu açıklayıcı senaryo, yapay zeka sistemlerinin inandırıcı bir şekilde hikayeler uydurma tehlikesini ortaya çıkardı ve bu tür bir teknolojinin seçim müdahalesi veya piyasa manipülasyonu gibi kötü niyetli faaliyetlerde kullanılma potansiyeli hakkında alarm verdi.

Marcus, asılsız suçlamaları teşvik etmekten potansiyel olarak zararlı tavsiyeler sağlamaya kadar ciddi toplumsal sonuçlara yol açabilecek mevcut yapay zeka sistemlerinin doğasında var olan güvenilmezliğin altını çizdi.

Bir örnek, bir kişinin kendi canına kıyma kararını etkileyen açık kaynaklı bir sohbet robotuydu.

Marcus ayrıca, yapay zekanın fikirleri ince bir şekilde şekillendirebildiği ve muhtemelen sosyal medyanın etkisini aştığı ‘datokrasi’nin ortaya çıkışına da dikkat çekti. Dikkat çektiği bir diğer endişe verici gelişme, OpenAI’nin ChatGPT eklentileri ve ardından doğrudan internet erişimi, kod yazma yeteneği ve gelişmiş otomasyon güçleri olan ve potansiyel olarak güvenlik endişelerini artıran AutoGPT gibi AI uzantılarının hızla piyasaya sürülmesiydi.

Marcus, AI teknolojisinin güvenliğini ve sorumlu kullanımını sağlamak için bağımsız bilim adamları, teknoloji şirketleri ve hükümetler arasında daha sıkı işbirliği çağrısıyla ifadesini kapattı. Yapay zeka benzeri görülmemiş fırsatlar sunarken, yeterli düzenleme eksikliği, kurumsal sorumsuzluk ve doğasında var olan güvenilmezliğin bizi “mükemmel bir fırtınaya” götürebileceği konusunda uyardı.

AI’yı Düzenleyebilir miyiz?

AI teknolojileri sınırları zorlarken, düzenleme çağrıları artmaya devam edecek.

Big Tech ortaklıklarının yükselişte olduğu ve uygulamaların genişlediği bir ortamda, bir alarm zili çalıyor: Yapay zekayı düzenlemek için çok mu geç?

Federal kurumlar, Beyaz Saray ve Kongre üyeleri, gelecek vaat eden AI ilerlemelerinin devam etmesini ve Big Tech rekabetinin tamamen piyasa dışında düzenlenmemesini sağlarken, AI’nın acil, karmaşık ve potansiyel olarak riskli ortamını araştırmaya devam etmek zorunda kalacak.


Öne çıkan görsel: Katherine Welles/Shutterstock