OpenAI, yapay zeka modellerinin zararlı kullanımına karşı mücadele edecek - Siècle Digital - Dünyadan Güncel Teknoloji Haberleri

OpenAI, yapay zeka modellerinin zararlı kullanımına karşı mücadele edecek - Siècle Digital - Dünyadan Güncel Teknoloji Haberleri

Daha karmaşık ve verimli yapay zekanın ortaya çıkışıyla birlikte riskler de giderek daha sık ve tehlikeli hale geliyor

Daha da ileri gitmek için OpenAI, Yapay Zeka Hazırlık Yarışması adı verilen halka açık bir yarışma başlattı Katılımcıların, hayal ettikleri kullanımları ve araçların zararlı kullanımıyla ilişkili riskleri azaltmak için uygulamaya koyacakları protokolleri ayrıntılarıyla anlatmak için 31 Aralık’a kadar süreleri var

Son olarak şirket, ” özerk üreme ve adaptasyon teknikleri “ 000 ABD Doları tutarında API kredisi verilecek İlk on teklife 25 Bu ekip, Massachusetts Teknoloji Enstitüsü’nde (MIT) profesör ve MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi’nin başkanı Aleksander Madry tarafından yönetiliyor Ayrıca şunu da vurguluyor: ” kimyasal, biyolojik, radyolojik ve nükleer tehditler, » toplumun kritik olarak gördüğü Geleceği tahmin etmeyi umuyor…

OpenAI, 26 Ekim’de şirketin tasarladığı yapay zeka modellerini değerlendirmek ve incelemek gibi zorlu bir görevi yerine getirecek yeni bir ekibin kurulduğunu duyurdu İkincisi, Amerika Birleşik Devletleri’ndeki yapay zeka sektörünün düzenlenmesi çağrısında bile bulundu

Nisan ayında OpenAI, AI uzmanlarına ve geliştiricilere araçlarındaki kusurları bulma fırsatı sunan hata ödülünü başlattı

Geçen Mayıs ayında 350’den fazla kişi yapay zekanın kontrolsüz kullanımına bağlı riskleri vurgulayan açık bir mektubu imzaladı İnsanların bu yapay zekalar üzerindeki kontrolünü azaltacak ve kötü niyetli olarak kullanıldığında feci sonuçlara yol açabilecek teknoloji 000 ABD Doları arasında bir ödül teklif etti



genel-16

Şirket, bildirilen sorunun ciddiyetine ve kötü niyetli kullanım üzerindeki etkisine bağlı olarak 200 ila 20 Geçen Mayıs ayında OpenAI’ye katıldı “ Yapay zekadan kaynaklanan yok olma riskinin sınırlandırılması, salgın hastalıklar ve nükleer savaş gibi toplum çapındaki diğer risklerin yanı sıra küresel bir öncelik olmalıdır OpenAI ilk olarak, kötü niyetli kullanıcıların kimlikleri çalmak, kötü amaçlı kod oluşturmak veya büyük ölçekli kimlik avı kampanyalarını otomatikleştirmek için araçlarını kullanmaktan çekinmediği siber suçlardan bahsediyor

OpenAI, yapay zeka araçlarının kötü niyetli kullanımından endişeli

Hazırlık adı verilen bu yeni birim, üretken yapay zeka modellerinin kötüye kullanılmasını önlemek için sağlamlığını test edecek Kendinizi şirketin araçlarına sınırsız erişime sahip olan kötü niyetli bir kullanıcının yerine koymayı içerir: DALL-E 3, ChatGPT, GPT-4, Whisper, Voice, vb », Diğerlerinin yanı sıra OpenAI direktörü Sam Altman tarafından imzalanan makaleyi belirtir O, şunları öngörmeyi umuyor: felaket riskleri » Yapay zekanın kötü amaçlarla kullanıldığında neler ortaya çıkarabileceği


OpenAI, 26 Ekim’de şirketin tasarladığı yapay zeka modellerini değerlendirmek ve incelemek gibi zorlu bir görevi yerine getirecek yeni bir ekibin kurulduğunu duyurdu