- Katılım
- 15 Kasım 2020
- Mesajlar
- 6,360
- Çözümler
- 36
- Reaksiyon puanı
- 11,227
- Puanları
- 3,258
- Yaş
- 21
Steve Wozniak, Elon Musk ve önde gelen yapay zekâ akademisyenlerine katılarak gelişmiş yapay zekâ gelişimine ara verilmesi çağrısında bulundu.
Twitter'ın sahibi Elon Musk, Apple'ın kurucularından Steve Wosniak ve Center for Humane Technology (İnsancıl Teknoloji Merkezi) yöneticisi Tristan Harris'in de imzasının bulunduğu mektupta "Güçlü yapay zeka sistemleri, ancak etkilerinin olumlu ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir." denildi.
Twitter'ın sahibi Elon Musk, Apple'ın kurucularından Steve Wosniak ve Center for Humane Technology (İnsancıl Teknoloji Merkezi) yöneticisi Tristan Harris'in de imzasının bulunduğu mektupta "Güçlü yapay zeka sistemleri, ancak etkilerinin olumlu ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir." denildi.
Uyarılar artıyor
Yapay zeka destekli arama ve yazışma botlarıyla ilgili uyarılar sürüyor.
Son olarak AB polis teşkilatı Europol ChatGPT gibi gelişmiş yapay zekaya ilişkin etik ve yasal kaygıları dile getirdi ve sistemin kimlik avı girişimleri, dezenformasyon ve siber suçlarda potansiyel kötüye kullanımı konusunda uyarıda bulundu.
Son olarak AB polis teşkilatı Europol ChatGPT gibi gelişmiş yapay zekaya ilişkin etik ve yasal kaygıları dile getirdi ve sistemin kimlik avı girişimleri, dezenformasyon ve siber suçlarda potansiyel kötüye kullanımı konusunda uyarıda bulundu.
Kapsamlı araştırmaların gösterdiği ve üst düzey yapay zekâ laboratuvarlarının onayladığı gibi, insanla rekabet edecek zekâya sahip yapay zeka sistemleri, toplum ve insanlık için büyük riskler oluşturabilir. Geniş çapta onaylanan Asilomar Yapay Zekâ İlkelerinde belirtildiği gibi, Gelişmiş Yapay Zekâ, Dünya üzerindeki yaşam tarihinde derin bir değişikliği temsil edebilir ve orantılı özen ve kaynaklarla planlanmalı ve yönetilmelidir. Ne yazık ki, son aylarda yapay zekâ laboratuvarlarının hiç kimsenin - yaratıcılarının bile – anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği daha güçlü dijital zihinler geliştirmek ve dağıtmak için kontrolden çıkmış bir yarışa kilitlendiğini görmesine rağmen, bu düzeyde bir planlama ve yönetim gerçekleşmiyor.
Çağdaş yapay zekâ sistemleri artık genel görevlerde insanlarla rekabet edebilir hale geliyor[3] ve kendimize şu soruyu sormalıyız: Makinelerin bilgi kanallarımızı propaganda ve gerçek dışı şeylerle doldurmasına izin vermeli miyiz? Tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştirmeli miyiz? Sonunda sayıca üstün olabilecek, akılca üstün gelebilecek, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştirmeli miyiz? Medeniyetimizin kontrolünü kaybetme riskine girmeli miyiz? Bu tür kararlar seçilmemiş teknoloji liderlerine devredilmemelidir. Güçlü yapay zekâ sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir. Bu güven iyi bir şekilde gerekçelendirilmeli ve bir sistemin potansiyel etkilerinin büyüklüğü ile artmalıdır. OpenAI'nin yapay genel zekâ ile ilgili son açıklaması, "Bir noktada, gelecekteki sistemleri eğitmeye başlamadan önce bağımsız inceleme almak önemli olabilir ve en gelişmiş çabalar için, yeni modeller oluşturmak için kullanılan bilgi işlemin büyüme oranını sınırlamayı kabul etmek önemli olabilir." Katılıyoruz. O nokta bugün.
Bu nedenle, tüm yapay zekâ laboratuvarlarını GPT-4'ten daha güçlü yapay zekâ sistemlerinin eğitimine en az 6 ay ara vermeye çağırıyoruz. Bu duraklama herkese açık ve doğrulanabilir olmalı ve tüm kilit aktörleri içermelidir. Böyle bir duraklama hızlı bir şekilde yasalaştırılamazsa, hükümetler devreye girmeli ve bir moratoryum başlatmalıdır.
Yapay zekâ laboratuvarları ve bağımsız uzmanlar, bağımsız dış uzmanlar tarafından titizlikle denetlenen gelişmiş yapay zekâ tasarımı ve geliştirmeye yönelik bir dizi paylaşılan güvenlik protokolünü ortaklaşa geliştirmek ve uygulamak için bu duraklamayı kullanmalıdır. Bu protokoller, bunlara bağlı sistemlerin makul bir şüphenin ötesinde güvenli olmasını sağlamalıdır. Bu, genel olarak yapay zekâ geliştirmede bir duraklama anlamına gelmez, yalnızca tehlikeli yarıştan, ortaya çıkan yeteneklere sahip, her zamankinden daha büyük, öngörülemeyen kara kutu modellerine geri adım atmak anlamına gelir.
Yapay zekâ araştırma ve geliştirme, günümüzün güçlü, son teknoloji sistemlerini daha doğru, güvenli, yorumlanabilir, şeffaf, sağlam, uyumlu, güvenilir ve sadık hale getirmeye yeniden odaklanmalıdır.
Buna paralel olarak, yapay zekâ geliştiricileri, sağlam yapay zekâ yönetişim sistemlerinin gelişimini önemli ölçüde hızlandırmak için politika yapıcılarla birlikte çalışmalıdır. Bunlar en azından şunları içermelidir: Yapay zekaya adanmış yeni ve yetenekli düzenleyici makamlar; son derece yetenekli yapay zekâ sistemlerinin ve büyük hesaplama yeteneği havuzlarının gözetimi ve takibi; gerçek ile sentetik olanı ayırt etmeye ve model çıktılarını izlemeye yardımcı olmak için kaynak ve filigran sistemleri; sağlam bir denetim ve belgelendirme ekosistemi; yapay zekâ kaynaklı zarar sorumluluğu; teknik yapay zekâ güvenlik araştırması için güçlü kamu finansmanı; yapay zekânın neden olacağı dramatik ekonomik ve politik kesintilerle (özellikle demokraside) başa çıkmak için iyi kaynaklara sahip kurumlar.
İnsanlık yapay zekâ ile gelişen bir geleceğin tadını çıkarabilir. Güçlü yapay zekâ sistemleri oluşturmayı başardıktan sonra, artık ödülleri topladığımız, bu sistemleri herkesin açık yararı için tasarladığımız ve topluma uyum sağlama şansı verdiğimiz bir "Yapay zekâ yazının" tadını çıkarabiliriz. Toplum, toplum üzerinde potansiyel olarak yıkıcı etkileri olan diğer teknolojilere ara verdi. Bunu burada yapabiliriz. Uzun bir yapay zekâ yazının tadını çıkaralım, hazırlıksız bir şekilde sonbahara koşmayalım.
Çağdaş yapay zekâ sistemleri artık genel görevlerde insanlarla rekabet edebilir hale geliyor[3] ve kendimize şu soruyu sormalıyız: Makinelerin bilgi kanallarımızı propaganda ve gerçek dışı şeylerle doldurmasına izin vermeli miyiz? Tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştirmeli miyiz? Sonunda sayıca üstün olabilecek, akılca üstün gelebilecek, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştirmeli miyiz? Medeniyetimizin kontrolünü kaybetme riskine girmeli miyiz? Bu tür kararlar seçilmemiş teknoloji liderlerine devredilmemelidir. Güçlü yapay zekâ sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir. Bu güven iyi bir şekilde gerekçelendirilmeli ve bir sistemin potansiyel etkilerinin büyüklüğü ile artmalıdır. OpenAI'nin yapay genel zekâ ile ilgili son açıklaması, "Bir noktada, gelecekteki sistemleri eğitmeye başlamadan önce bağımsız inceleme almak önemli olabilir ve en gelişmiş çabalar için, yeni modeller oluşturmak için kullanılan bilgi işlemin büyüme oranını sınırlamayı kabul etmek önemli olabilir." Katılıyoruz. O nokta bugün.
Bu nedenle, tüm yapay zekâ laboratuvarlarını GPT-4'ten daha güçlü yapay zekâ sistemlerinin eğitimine en az 6 ay ara vermeye çağırıyoruz. Bu duraklama herkese açık ve doğrulanabilir olmalı ve tüm kilit aktörleri içermelidir. Böyle bir duraklama hızlı bir şekilde yasalaştırılamazsa, hükümetler devreye girmeli ve bir moratoryum başlatmalıdır.
Yapay zekâ laboratuvarları ve bağımsız uzmanlar, bağımsız dış uzmanlar tarafından titizlikle denetlenen gelişmiş yapay zekâ tasarımı ve geliştirmeye yönelik bir dizi paylaşılan güvenlik protokolünü ortaklaşa geliştirmek ve uygulamak için bu duraklamayı kullanmalıdır. Bu protokoller, bunlara bağlı sistemlerin makul bir şüphenin ötesinde güvenli olmasını sağlamalıdır. Bu, genel olarak yapay zekâ geliştirmede bir duraklama anlamına gelmez, yalnızca tehlikeli yarıştan, ortaya çıkan yeteneklere sahip, her zamankinden daha büyük, öngörülemeyen kara kutu modellerine geri adım atmak anlamına gelir.
Yapay zekâ araştırma ve geliştirme, günümüzün güçlü, son teknoloji sistemlerini daha doğru, güvenli, yorumlanabilir, şeffaf, sağlam, uyumlu, güvenilir ve sadık hale getirmeye yeniden odaklanmalıdır.
Buna paralel olarak, yapay zekâ geliştiricileri, sağlam yapay zekâ yönetişim sistemlerinin gelişimini önemli ölçüde hızlandırmak için politika yapıcılarla birlikte çalışmalıdır. Bunlar en azından şunları içermelidir: Yapay zekaya adanmış yeni ve yetenekli düzenleyici makamlar; son derece yetenekli yapay zekâ sistemlerinin ve büyük hesaplama yeteneği havuzlarının gözetimi ve takibi; gerçek ile sentetik olanı ayırt etmeye ve model çıktılarını izlemeye yardımcı olmak için kaynak ve filigran sistemleri; sağlam bir denetim ve belgelendirme ekosistemi; yapay zekâ kaynaklı zarar sorumluluğu; teknik yapay zekâ güvenlik araştırması için güçlü kamu finansmanı; yapay zekânın neden olacağı dramatik ekonomik ve politik kesintilerle (özellikle demokraside) başa çıkmak için iyi kaynaklara sahip kurumlar.
İnsanlık yapay zekâ ile gelişen bir geleceğin tadını çıkarabilir. Güçlü yapay zekâ sistemleri oluşturmayı başardıktan sonra, artık ödülleri topladığımız, bu sistemleri herkesin açık yararı için tasarladığımız ve topluma uyum sağlama şansı verdiğimiz bir "Yapay zekâ yazının" tadını çıkarabiliriz. Toplum, toplum üzerinde potansiyel olarak yıkıcı etkileri olan diğer teknolojilere ara verdi. Bunu burada yapabiliriz. Uzun bir yapay zekâ yazının tadını çıkaralım, hazırlıksız bir şekilde sonbahara koşmayalım.
Elon Musk dahil 1100 imzalı mektup: Yapay zeka çalışmalarına ara verin
Elon Musk, Steve Wozniak ve Tristan Harris'in de imzasının bulunduğu mektupta "Güçlü yapay zeka sistemleri, ancak etkilerinin olumlu ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir," denildi
tr.euronews.com