Yorumlanabilir Makine Öğrenmesi
  • Yorumlanabilir Yapay Öğrenme
  • Bölüm 1 - Yazarın Önsözü
  • Bölüm 1.1 Çevirmenin Önsözü
  • Bölüm 2 - Giriş
    • 2.1 Hikaye Zamanı
    • 2.2 Makine Öğrenmesi Nedir?
    • 2.3 Terminoloji
  • 3. Yorumlanabilirlik
    • 3.1 Yorumlanabilirliğin Önemi
    • 3.2 Yorumlanabilirlik Yöntemlerinin Sınıflandırılması
    • 3.3 Yorumlanabilirliğin Kapsamı
    • 3.4 Yorumlanabilirliğin Değerlendirilmesi
    • 3.5 Açıklamaların Özellikleri
    • 3.6 İnsan Dostu Açıklamalar
  • 4 Veri Setleri
    • 4.1 Bisiklet Kiralama (Bike Rentals)- Regresyon
    • 4.2 Youtube Spam Yorumları (Metin Sınıflandırma)
    • 4.3 Rahim Ağzı Kanseri Risk Faktörleri (Sınıflandırma)
  • 5. Yorumlanabilir Modeller
    • 5.1 Doğrusal Regresyon (Linear Regression)
    • 5.2 Lojistik Regresyon (Logistic Regression)
    • 5.3 GLM, GAM ve Fazlası
    • 5.4 Karar Ağaçları (Decision Tre)
    • 5.5 Karar Kuralları (Decision Rules)
    • 5.6 RuleFit
    • 5.7 Diğer Yorumlanabilir Modeller
  • 6. Model Agnostik Metotlar (Model-Agnostic Methods)
  • 7. Örnek Tabanlı Açıklamalar (Example-Based Explanations)
  • 8.Küresel Model Agnostik Metotlar (Global Model-Agnostic Methods)
    • 8.1 Kısmi Bağımlılık Grafiği - Partial Dependency Plot
    • 8.2. Biriktirilmiş Yerel Etki (Accumulated Local Effects-ALE) Grafikleri
    • 8.3 Öznitelik Etkileşimi (Feature Interaction)
    • 8.4 Fonksiyonel Ayrıştırma (Functional Decomposition)
    • 8.5 Permütasyon Öznitelik Önemi (Permutation Feature Importance)
    • 8.6 Küresel Vekil Modeli (Global Surrogate)
    • 8.7 Prototipler ve Eleştiriler (Prototypes and Criticisms)
  • 9. Yerel Modelden Bağımsız Yöntemler (Local Model-Agnostic Methods)
    • 9.1 Bireysel Koşullu Beklenti (Individual Conditional Expectation)
    • 9.2 Yerel Vekil (Local Surrogate) (LIME)
    • 9.3 Karşıt Gerçekçi Açıklamalar (Counterfactual Explanations)
    • 9.4 Kapsamlı Kurallar (Scoped Rules (Anchors))
    • 9.5 Shapley Değerleri (Shapley Values)
    • 9.6 SHAP (SHapley Additive exPlanations)
  • 10. Sinir Ağları Yorumlaması
    • 10.1 Öğrenilmiş Özellikler (Learned Features)
    • 10.2 Piksel İlişkilendirmesi (Pixel Attribution)
    • 10.3 Kavramları Belirleme (Detecting Concepts)
    • 10.4 Kötü Amaçlı Örnekler (Adversarial Examples)
    • 10.5 Etkili Örnekler (Influential Instances)
  • 11. Kristal Küreye Bir Bakış
    • 11.1 Makine Öğrenmesinin Geleceği
      • 11.2 Yorumlanabilirliğin Geleceği
  • 12. Teşekkürler
  • Referanslar
  • Kullanılan R paketleri
Powered by GitBook
On this page
  1. 5. Yorumlanabilir Modeller

5.7 Diğer Yorumlanabilir Modeller

Yorumlanabilir modellerin listesi sürekli büyümekte ve boyutu bilinmemektedir. Bu liste, doğrusal modeller, karar ağaçları ve Naive Bayes gibi basit modelleri içerirken, aynı zamanda yorumlanamaz makine öğrenimi modellerini daha yorumlanabilir hale getirmek için bunları birleştiren veya değiştiren daha karmaşık modelleri de kapsamaktadır. Özellikle bu tür modeller üzerine yapılan yayınlar şu anda yüksek bir sıklıkta üretilmekte ve gelişmeleri takip etmek zorlaşmaktadır. Bu bölümde kitap yalnızca Naive Bayes sınıflandırıcısını ve k-en yakın komşu yöntemini kısaca ele almaktadır.

5.7.1 Naive Bayes Sınıflandırıcısı Naive Bayes sınıflandırıcısı, koşullu olasılıklar için Bayes teoremini kullanır. Her bir özellik için, bu özelliğin değerine bağlı olarak bir sınıfın olasılığını hesaplar. Naive Bayes sınıflandırıcısı, özelliklerin koşullu bağımsızlığına dair güçlü (= naif) bir varsayıma eşdeğer şekilde, her bir özelliğin sınıf olasılıklarını bağımsız olarak hesaplar. Naive Bayes bir koşullu olasılık modelidir ve bir sınıfın CkC_k Ck​ olasılığını şu şekilde modeller:

P(Ck∣x)=1ZP(Ck)∏i=1nP(xi∣Ck)P(C_k|x)=\frac{1}{Z}P(C_k)\prod_{i=1}^n{}P(x_i|C_k) P(Ck​∣x)=Z1​P(Ck​)i=1∏n​P(xi​∣Ck​)

Z terimi, tüm sınıflar için olasılıkların toplamının 1 olmasını sağlayan bir ölçekleme parametresidir (aksi takdirde bunlar olasılık olmazdı). Bir sınıfın koşullu olasılığı, sınıf olasılığı ile her bir özelliğin sınıfa bağlı olasılığının çarpımının Z ile normalize edilmesiyle hesaplanır. Bu formül Bayes teoremi kullanılarak türetilebilir.

Naive Bayes, bağımsızlık varsayımı nedeniyle yorumlanabilir bir modeldir. Modüler seviyede yorumlanabilir. Her bir özelliğin belirli bir sınıf tahminine ne kadar katkıda bulunduğu çok net bir şekilde görülebilir, çünkü koşullu olasılık yorumlanabilir.

5.7.2 K-En Yakın Komşu K-en yakın komşu yöntemi hem regresyon hem de sınıflandırma için kullanılabilir ve bir veri noktası için tahmin yapmak üzere en yakın komşuları kullanır. Sınıflandırma için k-en yakın komşu yöntemi, bir örneğin en yakın komşularının en yaygın sınıfını atar. Regresyon için komşuların sonuçlarının ortalamasını alır. Zor tarafları doğru k değerini bulmak ve örnekler arasındaki mesafeyi ölçme yöntemine karar vermektir; bu nihayetinde mahalleyi tanımlar.

K-en yakın komşu modeli, bu kitapta sunulan diğer yorumlanabilir modellerden farklıdır çünkü bu bir örnek tabanlı öğrenme algoritmasıdır. Peki k-en yakın komşular nasıl yorumlanabilir? İlk olarak, öğrenilecek parametreler yoktur, dolayısıyla modüler seviyede bir yorumlanabilirlik yoktur. Ayrıca, model doğal olarak yerel olduğu ve açıkça öğrenilmiş küresel ağırlıklar veya yapılar bulunmadığı için küresel model yorumlanabilirliği eksiktir. Yerel seviyede yorumlanabilir mi? Bir tahmini açıklamak için her zaman tahminde kullanılan k komşuyu geri çağırabilirsiniz. Modelin yorumlanabilirliği yalnızca veri kümesindeki bir örneği ‘yorumlayıp yorumlayamayacağınıza’ bağlıdır. Eğer bir örnek yüzlerce veya binlerce özelliğe sahipse bunun yorumlanabilir olmadığını söyleyebilirim. Ancak az sayıda özelliğiniz varsa veya örneğinizi en önemli özelliklere indirgeme yönteminiz varsa, k-en yakın komşuları sunmak iyi açıklamalar sağlayabilir.

Previous5.6 RuleFitNext6. Model Agnostik Metotlar (Model-Agnostic Methods)

Last updated 5 months ago