Yapay zekanın geleceği şekilleniyor!

Yapay zekanın geleceği şekilleniyor!
Yapay zeka alanında öncüler ve liderler olan Microsoft, Google ve OpenAI, daha sorumlu bir yapay zeka için güçlerini birleştirmeye karar aldı.

Microsoft, Google ve OpenAI dahil olmak üzere yapay zeka alanındaki büyük oyuncular, daha güvenli ve daha sorumlu teknolojiler geliştirmek için önemli adımlar atıyor. Yapay zeka alanında çalışan kilit şirketler, geçtiğimiz aylarda Beyaz Saray'da bir araya gelerek alınacak önlemleri görüştü. Başkan Yardımcısı Kamala Harris ve Başkan Joe Biden, yapay zeka sektöründeki liderlerle görüşerek hesap verebilirlik gereğine vurgu yaptı. Şimdi bu hamleler işe yarıyor.

9f4581fe-9651-4a11-bdfb-a21b03061126.jpg

Yapay zeka daha güvenli olacak

Beyaz Saray tarafından yayınlanan belgeye göre, teknoloji şirketleri güvenlik, emniyet ve sosyal sorumlulukla ilgili önerilen sekiz önlemi benimsedi. Bu önlemler, bağımsız uzmanların olası kötü davranışları tespit etmek için yapay zeka modellerini test etmesine izin vermeyi, siber güvenliğe yatırım yapmayı ve üçüncü tarafları güvenlik açıklarını tespit etmeye teşvik etmeyi içerir. Bu arada Microsoft; Bing, Google; Bard ve OpenAI, ChatGPT yapay zeka araçlarıyla sektöre öncülük ediyor. Ayrıca, bu ilkelerin geçerliliği Amerika Birleşik Devletleri Kongresi Yapay Zeka Yasasını kabul ettikten sonra sona erecektir.

Önyargı ve suistimal de dahil olmak üzere sosyal riskleri ele almak için şirketler, araştırmalarını etkilere odaklayacak. Yapay zeka güvenilirliği ve güvenliği için şirketler, hükümetlerle işbirliğine dayalı bir yaklaşım benimseyecek. Ayrıca, yanlış kullanımı veya yanlış bilgilendirmeyi önlemek için AI tarafından oluşturulan görsel ve işitsel içeriklerin filigranları sağlanır. Bu, AI tarafından oluşturulan gerçekçi görüntülerin olumsuz bir etkiye sahip olmasını önleyecektir. Uygulanacak sekiz öncelikli madde şunlardır:

yapay-zeka-uygulamalari.jpeg

  1. Bağımsız uzmanların kötü davranış kalıplarını test etmelerine izin verilecek
  2. Siber güvenliğe yatırım yapın
  3. Güvenlik açıklarını keşfetmek için üçüncü taraflarla işbirliği yapın
  4. Önyargı ve taciz dahil olmak üzere sosyal risklere odaklanma
  5. Yapay zekanın sosyal risklerine yönelik araştırmalara öncelik verilecektir.
  6. Güvenilir ve gizli bilgiler diğer şirketlerle ve hükümetle paylaşılacaktır.
  7. İçeriğin yapay zeka tarafından üretildiğini belirlemeye yardımcı olmak için sesli ve görsel içeriğe filigran eklenecek.
  8. Toplumun en büyük sorunlarını çözmek için sınır modelleri adı verilen gelişmiş yapay zeka sistemleri kullanılacak
  9. Beyaz Saray'dan yapılan açıklamada, "Şirketlerin yapmayı seçtiği bu taahhütler, AI'nın geleceği için temel olması gereken üç ilkeyi vurguluyor ve sorumlu AI gelişimine doğru önemli bir adımı işaret ediyor" dedi.

Aksi takdirde, bu anlaşma veya mutabakat zaptı tamamen isteğe bağlıdır. Bu bir iyi niyet göstergesi olarak görülebilir ancak aynı zamanda kanun koyucuların yapay zekanın baş döndürücü hızına ayak uydurmak için mücadele ettiğini de ortaya koyuyor. Şu anda, ABD ve AB kapsamlı AI mevzuatı üzerinde çalışıyor.

İlgili Haberler

Kaynak:Vedat Baykal

HABERE YORUM KAT
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.