Günümüz dünyasında, yapay zekâ terimi hemen hemen herkesin aşina olduğu bir kavram hâline geldi. Fakat bu karmaşık teknolojinin ardındaki perdeyi aralamak ve nasıl çalıştığını gerçekten anlamak biraz daha komplike olabilir. Sanki bir bilim kurgu filminden fırlamış gibi duran yapay zekâ; aslında algoritma denizlerinde yüzerek, veri okyanuslarını aşarak hayatımıza entegre oluyor.
Peki bu akıllı sistemler, tam olarak nasıl çalışıyor? Özellikle ChatGPT, Midjourney ve DALL-E gibi yapay zekâ araçları bizlere verdikleri cevapla hayrete düşürüyor, doğal olarak aklımıza “Yapay zekâ uygulamaları nasıl çalışıyor?” sorusu da sıkça geliyor. Biz de sizler için yapay zekânın gizemli dünyasını aralayacak ve sofistike teknolojinin nasıl her sorumuza yanıt verip görseller oluşturabildiğini detaylarıyla ele alacağız.
ChatGPT gibi yapay zekâ uygulamaları tam olarak nasıl çalışıyor?
ChatGPT, sorunuzu anlamaya çalışarak ve daha sonra eğitildiği verilere dayanarak sorunuzu en iyi şekilde yanıtlayacağını tahmin ettiği kelime dizilerini ortaya çıkararak çalışıyor. Kulağa nispeten basit gelse de neler olup bittiği kabul edelim ki biraz karmaşık, o yüzden madde madde gitmekte fayda var.
- Denetimli ve denetimsiz öğrenme
- Transformatör mimarisi (GPT’deki T)
- Belirteçler
- İnsan geri bildiriminden takviyeli öğrenme (RLHF)
- Doğal dil işleme (NLP)
Denetimli ve denetimsiz öğrenme
GPT’deki P “önceden eğitilmiş” anlamına geliyor ve GPT’nin yapabildiklerini yapabilmesinin çok önemli bir parçası. GPT’den önceki en iyi performans gösteren yapay zekâ modelleri, temel algoritmalarını geliştirmek için denetimli öğrenme kullanıyordu.
GPT, birkaç temel kuralın verildiği ve ardından büyük miktarlarda etiketsiz verinin (neredeyse tüm açık internet) beslendiği üretken ön eğitim kullanıyor. Daha sonra tüm bu veriler arasında gezinmesi ve metni yöneten kurallar ve ilişkiler hakkında kendi anlayışını geliştirmesi için denetimsiz bırakılıyor.
Denetimsiz öğrenmeyi kullandığınızda doğal olarak ne elde edeceğinizi gerçekten bilmeniz pek de mümkün değil. ChatGPT de bunun için davranışını daha öngörülebilir ve uygun hâle getirebilmek adına ince ayar yapıyor.
Transformatör mimarisi (GPT’deki T)
Tüm bu eğitimin amacı; metin verilerindeki kalıpları, ilişkileri, bir sonraki metnin ne olacağını tahmin etmeyi ve insan benzeri yanıt oluşturmayı öğretmek. Tabii bu süreç inanılmaz karmaşık ve çok katmanlı. Yani özetle derin öğrenme sinir ağı oluşturmak amaçlanıyor da diyebiliriz.
Açıkladığınızda kulağa karmaşık gelse de transformatör modeli, yapay zekâ algoritmalarının nasıl tasarlandığını bayağı basitleştirdi. Hesaplamaların paralelleştirilmesine ya da aynı anda yapılmasına olanak tanımasını sağladı.
Bu sayede eğitim süreleri önemli ölçüde kısaldı. Sadece yapay zekâ modellerini daha iyi hâle getirmekle kalmadı aynı zamanda onları daha hızlı ve daha ucuza üretilebilir hâle getirdi.
Transformatörlerin özünde “kendi kendine dikkat” adı verilen bir süreç vardır. Eski tekrarlayan sinir ağları (RNN’ler) metni soldan sağa doğru okur. Bu yöntem, birbiriyle ilişkili kelimeler ve kavramlar yan yana olduğunda iyi olabilir ancak kelimeler zıt uçlar olduğunda işler biraz karmaşık hâle gelebiliyor. Bizce bunun en büyük örneği de Türkçe dilinde zaman zaman sapıtması.
Transformatörler cümledeki her kelimeyi bir kerede okur ve her kelimeyi diğerleriyle karşılaştırır. Bu da cümlenin neresinde olurlarsa olsunlar, dikkatlerini en alakalı kelimelere yönlendirmelerini sağlıyor.
Tabii ki tüm anlattıklarımız işleri büyük ölçüde basitleştiriyor. Transformatörler kelimelerle çalışmaz, bir vektör (konum ve yön içeren bir sayı) olarak kodlanmış metin parçaları olan “belirteçlerle” çalışırlar. Dikkat de bir vektör olarak kodlanır ve dönüştürücü tabanlı sinir ağlarının bir paragrafın başındaki önemli bilgileri hatırlamasını sağlar.
Belirteçler
GPT-3 yaklaşık 500 milyar belirteç üzerinde eğitilmiş, böylece dil modellerinin daha kolay anlam atamasına ve bunları vektör uzayında eşleştirerek makul metni tahmin etmesine olanak tanıyordu. Birçok sözcük tek belirteçle eşleşiyordu ancak daha uzun veya daha karmaşık sözcükler genellikle birden fazla belirtece ayrılıyordu.
OpenAI, GPT-4’ün iç işleyişi hakkında sessiz kalsa da hemen hemen aynı veri kümesi üzerinde eğitildiğini varsayabiliriz.
Tüm belirteçler, insanlar tarafından yazılmış devasa bir veri külliyatından geliyor. Bunlar arasında; kitaplar, makaleler ve tüm farklı konular, tarzlar ve türlerdeki diğer belgeler ve açık internette bulunan inanılmaz miktarda içerik yer alıyor.
Tüm bu eğitimin sonucu olarak GPT-3’ün sinir ağı 175 milyar parametreye ya da değişkene sahipti. Eğitimi sayesinde girdi alıp farklı parametrelere verdiği değerlere ve ağırlıklara dayanarak en uygun çıktıyı veriyordu.
OpenAI, GPT-4’ün kaç parametresi olduğunu söylemedi ancak muhtemelen 175 milyardan fazladır. GPT-4’ün artan gücünün bir kısmı, muhtemelen GPT-3’ten daha fazla parametreye sahip olmasından ve eğitimindeki iyileştirmeden kaynaklanıyor.
İnsan geri bildiriminden takviyeli öğrenme (RLHF)
GPT’nin ilk sinir ağı halka açık kullanıma uygun değildi, yani neredeyse hiç rehberlik olmadan açık internet üzerinde eğitildi. Bu nedenle ChatGPT‘nin çeşitli farklı istemlere güvenli, mantıklı ve tutarlı bir şekilde yanıt verme yeteneğini daha da geliştirmek için insan geri bildiriminden takviyeli öğrenme adı verilen bir teknikle diyalog için optimize edildi.
Esasen OpenAI, sinir ağına tipik durumlarda nasıl tepki vermesi gerektiğini gösteren bazı gösterim ve karşılaştırma verileri oluşturdu. Böylece yapay zekâ herhangi bir durumda hangisinin en iyi yanıt olduğunu öğrenebildi. RLHF Saf denetimli öğrenme olmasa da GPT gibi ağların etkili bir şekilde ince ayarlanmasına olanak tanıdı.
Doğal dil işleme (NLP)
Tüm bu çabalar tabii ki GPT’yi doğal dil işleme konusunda mümkün olduğunca etkili hâle getirmeyi amaçlıyor. NLP; konuşma tanıma, makine çevirisi ve sohbet robotları da dahil olmak üzere yapay zekânın birçok yönünü kapsayan büyük bir kategori de diyebiliriz. Yani NLP kategorisi, yapay zekâya dil kurallarını ve sözdizimini anlamayı öğretiyor.
Ancak unutmayın ki hâlâ tam olarak öğrenmiş değil. Özellikle pek çok kişinin ChatGPT ve benzeri yapay zekâ modellerine tez/ödev/içerik yazdırdığı bu dönemde robot yazısı tahmin edersiniz ki kendini açık ediyor. Okuduğunuz yazıların yapay zekâyla yazılıp yazılmadığını anlayabilmeniz için bir içerik oluşturmuştuk. Aşağıdan detaylıca göz atabilirsiniz.
Nasıl çalıştığını uzun uzadıya anlattık, gelin şimdi anlamanız adına ChatGPT kendini veri kümeleriyle nasıl geliştirmiş biraz da onu karşılaştıralım.
İlk başta ChatGPT 3.5‘a “Kendimi soğuk kış günlerinde hasta olmamak adına nasıl koruyabilirim?” temalı bir soru sorduk. Cevapları yeterli düzeydeydi ancak GPT-4 kadar gelişmiş cevaplar doğal olarak vermedi ayrıca bazı bilgileri de eksik anlattı. İşte farkı anlamanız adına cevaplar:
Örneğin bu cevaplarda tıpkı ChatGPT-4 gibi yazdığını görebiliyoruz ancak işi detaylandırmaya gelince doğal olarak gelişmiş yapay zekâ modelinden daha geri kalıyor. Alt başlık açılıyor ancak devam cümleleri sürekli kendini tekrar ediyor. Dengeli beslenmemiz isteniyor ancak ne tarz yiyecek yemeliyiz gibi bilgiler yer almıyor.
GPT-4 daha ilk bakışta detaylı açıklamalarıyla gözümüze çarpıyor. Dengeli beslenme adımını verirken neler yememiz ne yapmamız konusunda bize rehber niteliğinde cevaplar veriyor tabii ki bunu da kullanıcıların geri bildirimine ve veri kümelerinin gelişmiş olmasına bağlı.
Bir cevabı beğenmediğiniz veya uygunsuz bulduğunuz zaman geribildirim yani “feedback” atmanız çok önemli. Neden mi? Çünkü daha önce de bahsettiğimiz gibi, GPT temelinin çoğu buna bağlı. İnsan tabanlı öğrenme modeli, size daha gelişmiş cevaplar sunmasına olanak tanıyor. Yani GPT’yi aslında kendiniz eğitiyorsunuz.
İlginizi çekebilecek diğer yapay zekâ içeriklerimize aşağıdan ulaşabilirsiniz: