Ana Sayfa Arama Galeri Video Yazarlar
Üyelik
Üye Girişi
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Gazeteler Puan Durumu
WhatsApp
Sosyal Medya
Uygulamamızı İndir

OpenAI itiraf etti… İnsan üzere düşünen yapay zeka üzerinde çalışıyorlar!

Yapay zeka teknolojileri geliştirme şirketi olan OpenAI, yapay zeka takviyeli sohbet robotlarının beşerler üzere bir niyet zinciri kurmasını sağlamak için testler gerçekleştirdiklerini açıkladı.

Yapay zeka halüsinasyonları olarak isimlendirilen “yapay zeka palavraları ya da zekanın kendi çıkarımları” birçok kişinin farklı yönlendirilmesini sağlıyordu.

OpenAI, Çarşamba günü yaptığı açıklamada, yapay zeka modellerini eğitmek için daha yeni bir formülle yapay zeka “halüsinasyonlarına” karşı çaba edeceğini duyurdu. 

ETKİSİ SÜRATLE BÜYÜYOR

OpenAI, geçen yıl GPT-3 ve GPT-4 tarafından desteklenen sohbet robotu ChatGPT’yi piyasaya sürdüğünde üretken yapay zeka patlamasını hızlandırdı ve iki ay içinde aylık 100 milyon kullanıcıyı aşarak en süratli büyüyen uygulama rekorunu kırdığı bildirildi.

Söz konusu teknoloji için bugüne kadar Microsoft, OpenAI’ye 13 milyar dolardan fazla yatırım yapmıştı.

openai itiraf etti insan uzere dusunen yapay zeka uzerinde calisiyorlar 0 HKeSeS6L

YAPAY ZEKANIN PALAVRALARINI EN AZA İNDİRMEYE ÇALIŞACAKLAR

OpenAI tarafından geliştirilen ChatGPT yahut Google Bard üzere modeller kullanıldığında yapay zeka halüsinasyonlarının ortaya çıkmasına neden oluyor.

Buna bir örnek: Google’ın Bard için Şubat ayında yayınladığı tanıtım görüntüsünde, chatbot James Webb Uzay Teleskobu hakkında gerçek dışı bir argümanda bulunmuştu. Daha yakın bir vakitte ChatGPT, New York federal mahkemesine yaptığı bir müracaatta “sahte vakalardan” bahsetmişti.

OpenAI araştırmacıları raporda “En gelişmiş modeller bile yanlışlar üretmeye eğilimlidir ve belirsizlik anlarında gerçekleri icat etme eğilimi gösterirler” diye yazdı.

Ayrıca araştırmacılar “Bu halüsinasyonlar çok adımlı muhakeme gerektiren alanlarda bilhassa sıkıntılıdır zira tek bir mantıksal yanılgı çok daha büyük bir tahlili raydan çıkarmak için kafidir.” sözlerine yer verdiler.

İNSANLAR ÜZERE DÜŞÜNEN MODELLER GELİŞTİRİLECEK

OpenAI’nin uydurmalarla uğraş için potansiyel yeni stratejisi, yapay zeka modellerini, bir karşılığa ulaşırken yalnızca yanlışsız bir sonuncu sonucu ödüllendirmek yerine, her bir yanlışsız akıl yürütme adımı için kendilerini ödüllendirecek halde eğitmek olarak görülüyor.

Araştırmacılara nazaran bu yaklaşım “sonuç denetimi”nin aksine “süreç denetimi” olarak isimlendiriliyor ve modelleri “insan gibisi bir düşünce” yaklaşımını takip etmeye teşvik ediyor.

TESTLER OLUMLU SONUÇ VERDİ

Sonuç kontrolü ile OpenAI, yapay zekanın verdiği sonuncu sonuç hakkında geri bildirim sağlamak için ödül modellerini eğitecek. Süreç kontrolü ile, ödül modeli yolun her adımında geri bildirim sağlayarak insan gibisi bir fikir zinciri oluşturacak.

OpenAI, araştırma makalesinde her iki modeli de bir matematik bilgi seti üzerinde test ettiğini ve süreç kontrolü usulünün “önemli ölçüde daha uygun performans” sağladığını tespit etti.

openai itiraf etti insan uzere dusunen yapay zeka uzerinde calisiyorlar 1 jWtLHPQH

SÜREÇ KONTROLÜNÜN MÜMKÜN SONUÇLARINDAN BAHSETTİ

Süreç kontrolü prosedürünün muhtemel sonuçlarını açıklayan OpenAI şunları söyledi:

“Bu sonuçlar genelleşirse, süreç kontrolünün bize her iki dünyanın da en uygununu sunduğunu görebiliriz. Sonuç kontrolünden hem daha performanslı hem de daha uyumlu bir sistem.”

Ayrıca OpenAI, halka açık olan ChatGPT’de süreç kontrolünün uygulanmasının ne kadar süreceği konusunda bir vakit çizelgesi vermedi.

KAYNAK: HABER7

DİĞER VİDEOLAR