loader

M. Kemal CILIZ

ABD deki 2016 başkanlık seçimleri sürecinde siyasi oyuncuların, oy verenlerin siyasi tercihlerini belirlemek için kullandıkları iddia edilen Yapay Zeka algoritmaları ile 1700 lu yılların sonlarında Jüpiter in uydu yörüngesinin belirlenmesi için kullanılan yöntemler arasında nasıl bir ilinti olabilir ? Bu çok bağımsız gibi görünen iki problemin de ortak noktası, gerçek hayatta elde edilen verilerin belli bir matematiksel modele dayalı olarak analiz edilmesidir.

İnsanoğlunun doğayı ve kendini anlama çabası medeniyetlerin doğuşu ile başlar. Antik Yunan ın ünlü filozofu Aristo’nun evreni, dünyayı merkez alan bir görüş üzerine kuruludur ve bu görüş ortaçağ a kadar kabul görmüştür.. Galileo nun gözlemleri ise, güneş odaklı evren teorisinin başlangıcını temsil eder. Bir anlamda verilerin ilk analizi böyle başlar.. Dönemin önemli bilim insanlarından Leibniz, bugun kullanılan anlamına çok yakın şekilde bilgi (enformasyon) kuramını ilk gündeme getiren bilim insanıdır.. Leibniz in önerdiği “characteristica universalis” ve “calculus ratiocinator” konseptleri, ideal bir evrensel bilim lisanını ve bunu anlayıp replike edebilecek bir universal makinayı önerir.. Bu temel konseptler Alan Turing in 1950 li yıllarda önereceği bir makinanın “akılllı olup olmayacağına” karar veren Turing testi ile bir anlamda formal anlamına kavuşur. Leibniz in önergeleri aslında çok primitif şekilde de olsa, evrensel Turing makinasının özelliklerini önceden ortaya koyuyordu.
Dönemin bir diğer önemli bilim insanı, Carl Friedrich Gauss un 1800 lü yılların başlarında gök cisimlerinin yörüngelerinin modellenmesi için kullandığı gözlem hatalarının karelerinin toplamının minimizasyonu için önerdiği kestirim (estimation) metodu ise, aslında bugün yaygın kullanılan bir çok Yapay Zeka modelindeki matematiksel öğrenme algoritmalarının temelini oluşturur..
Demekki doğru modelleme yapılabilmesi ve bu modelin eldeki veriler yardımı ile eğitilmesi (yani eldeki veriyi doğru modelleyebilmesi) bugün yaygın olarak kullanılan Yapay Zeka algoritmalarının/modellerinin matematiksel temelini oluşturuyor.. Konuyu bu basit analojiye ve tarihsel örneklere ingirgemek, Yapay Zeka modelleri ve algoritmalarının kolay anlaşılması amacını taşıyor olsa da, bu algoritmaların temelde “modele” dayalı öğrenebilir sistemler olduğunu ve konunun 1700 lu yıllardan beri bilim insanlarının uğraştığı konular arasında olduğunu vurgulamak açısından önemli diye düşüyorum..

Filmi biraz daha ileri sarıp, 20 inci yüzyıl ın ortalarına geldiğimizde, insan beyninin algılama ve öğrenme yeteneklerinin matematiksel modellenmesi ve doğru temsil edilmesi çabaları, bu çalışmaların formal olarak Yapay Zeka (Artificial Intelligence) olarak tanımlanmasını da beraberinde getiriyor.
Yüzyılın ortalarında iki önemli araştırma yaklaşımı bir anlamda bugünün araştırmalarının çıkış noktası sayılıyor.. McCulloch ve Pitts adlı araştırıcılar, 1943 de yayınladıkları bir araştırma makalesinde insan beyninde ki nöronların matematiksel modelini öneriyor.. Daha sonrasında 1950 yılların sonuna doğru Rosenblatt ilk basit matematiksel öğrenme algoritmasını ve Perceptron diye adlandırdığı modeli yayınlıyor.. Bu basit matematiksel nöron modeli, bugün halen çok yaygın kullanılan Yapay Sinir Ağlarına (YSA-Artificial Neural Networks) dayalı Derin Öğrenme (Deep Learning) modellerinin temel yapı taşını oluşturuyor..
Yapay Zeka konusunda bir diğer önemli araştırma alanı ise bugün yaygın kullanılan YSA modellerinden biraz daha farklı bir yaklaşım içeriyor.. 1956 senesinde Dartmouth Universitesinde de gerçekleştirilen “Dartmouth Summer Project on Artificial Intelligence” başlıklı bir araştırma toplantısı, Artificial Intelligence (AI) (Yapay Zeka) teriminin ilk kullanıldığı yer olarak tarihe geçiyor.. Minsky, McCarthy ve Shannon gibi zamanın ünlü araştırmacılarının katıldığı bu konferans, Yapay Zeka nın sembollere dayalı mantık bazlı yaklaşımının temellerinin atıldığı bir çalıştay oluyor.. Bu yaklaşımın öncülerinden Minsky nin, özellikle 1960 lı 1970 li yıllarda basit nöron yapılarına dayalı öğrenme modeli diye de adlandırılabilecek Perceptron modellerinin matematiksel anlamdaki kısıtlamalarını (bu sistemler doğrusal olmayan fonksiyonları modelliyemiyor), Perceptrons (Minsky ve Papert) başlıklı bir kitapda yayınlaması, Yapay Sinir Ağlarının ve Perceptron bazlı yaklaşımın uzunca bir süre gündemden kalkmasına neden oluyor.. Bu kitabın yayınlanmasını takip eden senelerde, 1960 lı ve 1970 lerde, Yapay Zeka daha çok kural tabanlarına dayalı (rule based systems), sembolik bilgi tanımlanmasını içeren, bilgi tabanlı (knowled based systems) veya uzman (expert systems) sistemlerden oluşuyordu.. Bu yaklaşım uzunca süre Yapay Zeka çalışmalarını domine etmiş olsa da başarısı oldukça sınırlı kaldı..
1980 li yıllara gelindiğinde üç farklı araştırma grubu (Werbos), (Rumelhart, Hinton ve Williams) ve (LeCun) birbirlerinden bağımsız olarak, 1950 lerde önerilen ve doğrusal olmayan ilişkilerin öğrenilmesinde başarısız kalan çok katmanlı Perceptron modeli için yeni bir öğrenme algoritması geliştiriyorlar. Bu yeni algoritma (hata geri besleme algoritması) sayesinde çok katmanlı YSA modellerinin doğrusal olmayan problemlerin çözümünde başarı ile kullanılabiliyor olması, Yapay Sinir Ağları nın tekrar gündeme gelmesine ve kurala dayalı/mantıksal bazlı Yapay Zeka modellerinin bir anlamda popularitesini yitirmesine neden oluyor.. Bu dönemde yapılan teorik çalışmalar ve önerilen modeller bugün halen en yaygın kullanılan Derin Öğrenme tekniklerinin temellerini oluşturmakta..
Ancak önerilen bu yeni öğrenme algoritmaları ve modeller 1990 lı ve 2000 li senelerde bazı problemler için başarı ile kullanılsa da, işlenen verilerin azlığı ve kullanılan modellerin göreceli olarak daha basit olması nedeni ile YSA araştırmaları gene bir yavaşlamaya uğruyor..
2010 lu seneler girdiğimizde ise YSA ve daha genel anlamda Yapay Zeka, bazı araştırmacıların üçüncü evre dediği yeni bir döneme giriyor.. İşlenecek verilerin büyüklüğü (büyük veri), bilinen eski YSA modellerinin daha çok katmanlı şekilde uygulanabiliyor olması ve işlemci gücünün ciddi oranda artması ile birçok gerçek problemin (özellikle görüntü işleme ve ses tanıma problemlerinde) çözümünde olağanüstü başarılı sonuçlar elde edilmeye başlanıyor.. 1980 li yılların bilinen çok katmanlı YSA modelleri, katman sayılarının ciddi oranda artırılması ve büyük veri setleri üzerinde çok iyi sonuçlar vermesi nedeni ile artık Derin Öğrenme (Deep Learning) diye adlandırılmaya başlanıyor.. Bu yeni dönemin öncü araştırmacıları da gene 1980 lerde YSA lar konusunun önemli araştırma makalelerinde isimleri olan Hinton, Le Cun ve Bengio.
Yapay Sinir Ağları (YSA) modelleri bugün artık bir anlamda laboratuar dan çıkmış durumda ve gerçek hayattaki bir çok problemin çözümünde başarı ile kullanılıyor.. Yaygın kullanılan Yapay Zeka çözümlerinin temelini çok katmanlı YSA lar oluşturuyor ve bu modeller Derin Öğrenme modelleri diye olarak da adlandırılıyor..
Yapay Zeka artık interdisipliner bir araştırma konusu olmuş durumda.. Yazının başında da vurguladığımız gibi aslında Yapay Zeka araştırmaları, insanoğlunun doğayı ve kendi bilişsel yeteneklerini anlama ve replike edebilme çabalarında önemli bir adım.. Bu probleme kuramsal sistem yaklaşımı ile baktığımızda ise, aslında problemi işaretlenmiş (labeled) büyük veri setleri kullanılarak doğrusal olmayan içsel (internal) fonksiyonların parametrik modellenmesi ve öğrenilmesi diye de tanımlamak mümkün.. Bu nedenle de artık Yapay Zeka çalışmalarını Veri Bilimi (Data Science) diye adlandırmak daha doğru bir yaklaşım oluyor..

Derin Öğrenme modellerinin son yıllarda birçok başarılı uygulamaları olsa da, bu modeller halen insan beyninin verimlilik ve uygulama esnekliği ile karşılaştırıldığında halen çok geride kalıyor.. Bugün en başarılı derin öğrenme modelleri bile halen insan eliyle işaretlenmiş büyük veriye (human labeled data) ihtiyaç duyuyor.. Yani verinin önceden işlenmiş ve işaretlenmiş (labeled) olması gerekiyor.. Bu tip verileri kullanan öğrenme algoritmalarına da denetimli öğrenme (supervised learning) algoritmaları deniyor.. Bu algoritmalar doğru modelleme yapabilmeleri için, oldukça büyük veri setlerine ihtiyaç duyuyorlar.. Bu alanın önde gelen araştırmacılarına göre, derin öğrenme modelleri insan beynine ve onun bilişsel yeteneklerine göre halen çok sınırlı öğrenme ve kestirim (reasoning) yeteneklerine sahip.. Çünki bu modellerin başarıları egitilmiş oldukları veri setleri ile sınırlı.. Yani “genelleştirme” (generalization) özellikleri halen gördükleri verinin kapsamına bağlı. Şu an en yaygın ve önemli araştırma alanları, denetimsiz öğrenme (unsupervised learning) modelleri üzerine. Bu öğrenme modellerinde yukarıda bahsettiğimiz, verinin insan eli ile işaretlenmesi ihtiyacı ortadan kalkıyor.. Doğal olarak, bu tip öğrenme de insan beyninin öğrenme yeteneklerine daha yakın bir yaklaşım sergiliyor.. Ancak bu alandaki çalışmalar halen istenilen olgunluk seviyesine gelmiş durumda değil..

Araştırmacıların dikkat çektiği bir diğer problem ise veri setlerinin nispeten birbirinden bağımsız ve static olduğu varsayımı önkoşulu. Bu önemli bir önkoşul. Ancak gerçek hayattaki veri, daha dinamik ve sürekli değişim göstermekte.. Bu da, yeni uyarlanabilir (adaptive) öğrenme modellerinin geliştirilmesi gerekli kılıyor.. Bu konuda çalışan bazı araştırmacıların son birkaç yıl içerisinde bu probleme çözüm önerisi ise Hibrid Yapay Zeka (Hybrid Artificial Intelligence). Bu yaklaşım, bilinen standard Yapay Sinir Ağları (YSA) modelleri ile mantığa dayalı sembolik kural tabanlı sistemlerin (rule based systems) birleştirilerek kullanılması yönünde.. İnsan beyninin sembol işleme ve karar alabilme yeteneği, Yapay Zekanın önemli hedeflerin birisi.. Bu açıdan bakıldığında bu yaklaşımın başarılı olacağını savunan araştırmacılar var..
Diğer yandan bir grup araştırmacı ise YSA lar ile sembolik Yapay Zeka tekniklerinin birleştirilmesini uygun bulmayanlar (Bengio, Hinton be LeCun). Bu grup YSA modellerinin sonunda insan zekasını en başarılı şekilde modelleyebileceğine inanıyor.
Hangi yaklaşım kabul görürse görsün şu bir gerçekki, Yapay Zeka konusundaki çalışmalar her geçen gün hız kazanıyor. Ancak konunun önde gelen uzman ve araştırıcıları halen alınacak çok yol olduğu konusunda hem fikirler.