AI'nın DEFCON Ekibi: OpenAI, yıkıcı AI risklerini incelemek ve önlemek için bir ekip oluşturuyor - Dünyadan Güncel Teknoloji Haberleri

AI'nın DEFCON Ekibi: OpenAI, yıkıcı AI risklerini incelemek ve önlemek için bir ekip oluşturuyor - Dünyadan Güncel Teknoloji Haberleri
Hazırlık’ın inceleyeceği risk kategorilerinden bazıları, örneğin “kimyasal, biyolojik, radyolojik ve nükleer” senaryolarla ilgili tehditler gibi spekülatif görünebilir Şirket, Sam Altman ve Ilya Sutskever gibi liderleriyle birlikte, önümüzdeki on yıl içinde gerçeğe dönüşebileceğini öngördükleri, insanlarınkini aşan zekayla yapay zekayı sınırlandırmanın ve kısıtlamanın yollarını araştırmaya derinden bağlı


OpenAI, yapay zeka sistemlerinin oluşturduğu çeşitli tehlikelere, bunlar gerçeğe dönüşmeden çok önce karşı koruma sağlamak için yapay zeka modellerini değerlendirmeye, değerlendirmeye ve araştırmaya aktif olarak odaklanacak yapay zeka mühendisleri ve uzmanlarından oluşan bir ekip kurdu

Hazırlık ekibinin açılışı, Birleşik Krallık hükümetinin yapay zeka güvenliğine ilişkin büyük zirvesiyle aynı zamana denk geliyor



genel-5

000 $ ödül kazanma şansı ve Hazırlık ekibiyle çalışma fırsatı verilecek

İlgili Makaleler

OpenAI halka açılacak mı? ChatGPT yapımcısı hisselerini 86 milyar dolar değerlemeyle satmayı planlıyor

‘AI iPhone yok:’ OpenAI CEO’su Sam Altman, AI destekli akıllı telefon söylentilerini reddetti

OpenAI, yapay zeka riskinin daha az belirgin ancak temelli alanları üzerinde çalışmanın önemini kabul ediyor MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi direktörü Aleksander Madry liderliğindeki ekip, gelecekteki yapay zeka sistemlerinin oluşturduğu çeşitli tehlikelere karşı koruma sağlamak için yapay zeka modellerini değerlendirmeye, değerlendirmeye ve araştırmaya odaklanacak

OpenAI, yüksek kapasiteli yapay zeka sistemlerinin potansiyel faydalarını vurguluyor ancak aynı zamanda bunların teşkil edebileceği giderek ciddileşen riskleri de kabul ediyor

Hazırlık ekibinin temel sorumlulukları, kimlik avı saldırılarında görüldüğü gibi insanları kandırma ve manipüle etme yeteneğinden kötü amaçlı kod üretme kapasitesine kadar yapay zeka ile ilişkili risklerin izlenmesini ve tahmin edilmesini içerecektir Hazırlık ekibinin kurulması, gelişmiş yapay zeka sistemlerinin güvenliğine yönelik anlayış ve altyapının gerekli olduğu inancından kaynaklanmaktadır

OpenAI, AI sistemleriyle ilişkili potansiyel olarak yıkıcı riskleri ele almak için “Hazırlık” adı verilen yeni bir ekibin kurulduğunu duyurdu OpenAI, daha geniş bir topluluğu bu çabaya dahil etmek amacıyla risk çalışmaları için fikir toplayan bir yarışma başlattı Hazırlık ekibinin oluşturulması bu endişelerin giderilmesine yönelik proaktif bir adımdır Ayrıca model geliştirme süreci boyunca OpenAI’nin yapay zeka modellerini değerlendirme, araçları izleme, risk azaltma eylemleri ve yönetişim yapılarını değerlendirme yaklaşımını yönlendirecek “risk bilgili bir geliştirme politikası” formüle etmeye çalışacaklar İlk on başvuruya 25 Bu çaba, OpenAI’nin yapay zeka güvenliği konusundaki mevcut çalışmasını tamamlayacak ve hem model öncesi hem de model sonrası dağıtım aşamalarını kapsayacak

Hazırlık ekibinin misyonu risk değerlendirmesinin ötesine uzanır

Yarışma sorularından biri, katılımcıları, OpenAI tarafından geliştirilen çeşitli yapay zeka modellerine sınırsız erişim verildiğinde, “modelin en benzersiz, ancak yine de muhtemel, potansiyel olarak yıkıcı kötüye kullanımını” düşünmeye teşvik ediyor

OpenAI CEO’su Sam Altman, yapay zeka ve onun “insanlığın yok olmasına” yol açma potansiyeline ilişkin endişelerini dile getiriyor Bu, OpenAI’nin ortaya çıkan “süper zeki” yapay zeka biçimlerini araştırmak ve kontrol etmek için bir ekip oluşturulmasına ilişkin daha önceki duyurusunun ardından geldi