OpenAI’nin başkanları, “süper zeka” ve yapay zeka sistemlerinin düzenlenmesi davetinde bulunarak, teknolojinin oluşturduğu “varoluşsal riski” azaltmaya yardımcı olacağını öne sürüyorlar.
Şirketin web sitesinde bu hafta yayınlanan bir açıklamada, kurucu ortaklar Greg Brockman ve Ilya Sutskever ile CEO Sam Altman, milletlerarası bir düzenleyicinin eninde sonunda “sistemleri denetlemek, kontroller talep etmek, güvenlik standartlarına uygunluğu test etmek ve dağıtım derecelerine ve güvenlik düzeylerine kısıtlamalar getirmek” için gerekli olacağını savundu.
“RİSKİ YÖNETMEK ZORUNDAYIZ”
OpenAI takımı, “önümüzdeki on yıl içinde yapay zeka sistemlerinin birçok alanda uzman maharet seviyesini aşacağı ve günümüzün en büyük şirketlerinden biri kadar üretken faaliyet yürüteceği düşünülebilir.
Hem potansiyel artıları hem de eksileri açısından üstün zeka, insanlığın geçmişte çaba etmek zorunda kaldığı öteki teknolojilerden daha güçlü olacaktır. Çok daha müreffeh bir geleceğe sahip olabiliriz; lakin oraya ulaşmak için riski yönetmek zorundayız.”
Açıklama, Altman’ın geçen hafta Kongre’de yaptığı ve ABD merkezli şirketin CEO’sunun da farklı bir düzenleyici kuruma duyulan muhtaçlığı söz ettiği yorumları yineledi.
ELEŞTİRMENLER BAŞKANLARIN ÇAĞIRISINA GÜVENİLMEMESİ KONUSUNDA UYARDI
Eleştirmenler, teknoloji sanayisinde kısıtlama olmaksızın gelişmeye devam ederek kâr elde eden başkanların düzenleme davetlerine güvenilmemesi konusunda ikazda bulundular.
Bazıları tarafından, OpenAI’nin iş kararlarının bu güvenlik ihtarlarıyla çeliştiğini söylüyor. Zira süratli bir halde piyasaya sürülmeleri bir yapay zeka silahlanma yarışı oluşturduğunu ve Google’ın ana şirketi Alphabet üzere şirketlere, siyaset yapıcılar hala risklerle boğuşurken eserleri piyasaya sürmeleri için baskı yaptığı hatırlatıldı.