Yorumlanabilir Makine Öğrenmesi
  • Yorumlanabilir Yapay Öğrenme
  • Bölüm 1 - Yazarın Önsözü
  • Bölüm 1.1 Çevirmenin Önsözü
  • Bölüm 2 - Giriş
    • 2.1 Hikaye Zamanı
    • 2.2 Makine Öğrenmesi Nedir?
    • 2.3 Terminoloji
  • 3. Yorumlanabilirlik
    • 3.1 Yorumlanabilirliğin Önemi
    • 3.2 Yorumlanabilirlik Yöntemlerinin Sınıflandırılması
    • 3.3 Yorumlanabilirliğin Kapsamı
    • 3.4 Yorumlanabilirliğin Değerlendirilmesi
    • 3.5 Açıklamaların Özellikleri
    • 3.6 İnsan Dostu Açıklamalar
  • 4 Veri Setleri
    • 4.1 Bisiklet Kiralama (Bike Rentals)- Regresyon
    • 4.2 Youtube Spam Yorumları (Metin Sınıflandırma)
    • 4.3 Rahim Ağzı Kanseri Risk Faktörleri (Sınıflandırma)
  • 5. Yorumlanabilir Modeller
    • 5.1 Doğrusal Regresyon (Linear Regression)
    • 5.2 Lojistik Regresyon (Logistic Regression)
    • 5.3 GLM, GAM ve Fazlası
    • 5.4 Karar Ağaçları (Decision Tre)
    • 5.5 Karar Kuralları (Decision Rules)
    • 5.6 RuleFit
    • 5.7 Diğer Yorumlanabilir Modeller
  • 6. Model Agnostik Metotlar (Model-Agnostic Methods)
  • 7. Örnek Tabanlı Açıklamalar (Example-Based Explanations)
  • 8.Küresel Model Agnostik Metotlar (Global Model-Agnostic Methods)
    • 8.1 Kısmi Bağımlılık Grafiği - Partial Dependency Plot
    • 8.2. Biriktirilmiş Yerel Etki (Accumulated Local Effects-ALE) Grafikleri
    • 8.3 Öznitelik Etkileşimi (Feature Interaction)
    • 8.4 Fonksiyonel Ayrıştırma (Functional Decomposition)
    • 8.5 Permütasyon Öznitelik Önemi (Permutation Feature Importance)
    • 8.6 Küresel Vekil Modeli (Global Surrogate)
    • 8.7 Prototipler ve Eleştiriler (Prototypes and Criticisms)
  • 9. Yerel Modelden Bağımsız Yöntemler (Local Model-Agnostic Methods)
    • 9.1 Bireysel Koşullu Beklenti (Individual Conditional Expectation)
    • 9.2 Yerel Vekil (Local Surrogate) (LIME)
    • 9.3 Karşıt Gerçekçi Açıklamalar (Counterfactual Explanations)
    • 9.4 Kapsamlı Kurallar (Scoped Rules (Anchors))
    • 9.5 Shapley Değerleri (Shapley Values)
    • 9.6 SHAP (SHapley Additive exPlanations)
  • 10. Sinir Ağları Yorumlaması
    • 10.1 Öğrenilmiş Özellikler (Learned Features)
    • 10.2 Piksel İlişkilendirmesi (Pixel Attribution)
    • 10.3 Kavramları Belirleme (Detecting Concepts)
    • 10.4 Kötü Amaçlı Örnekler (Adversarial Examples)
    • 10.5 Etkili Örnekler (Influential Instances)
  • 11. Kristal Küreye Bir Bakış
    • 11.1 Makine Öğrenmesinin Geleceği
      • 11.2 Yorumlanabilirliğin Geleceği
  • 12. Teşekkürler
  • Referanslar
  • Kullanılan R paketleri
Powered by GitBook
On this page
  1. 3. Yorumlanabilirlik

3.4 Yorumlanabilirliğin Değerlendirilmesi

Yapay öğrenmede yorumalanabilirliğin ne olduğuna dair gerçek bir birlik yok, dolayısıyla nasıl ölçüleceğine dair de. Ancak, bununla ilgili bazı başlangıç seviyesinde araştırmalar mevcut.

Doshi-Velez ve Kim (2017) Yorumlanabilirlik Değerlendirmesi İçin Üç Ana Düzey Önerir:

Uygulama Düzeyi Değerlendirmesi (gerçek görev): Açıklamayı ürüne entegre edin ve son kullanıcı tarafından test edilmesini sağlayın. Örneğin, röntgenlerde kırıkları belirleyip işaretleyen bir yapay öğrenme bileşenine sahip bir kırık tespit yazılımını düşünelim. Uygulama düzeyinde, radyologlar kırık tespit yazılımını doğrudan test ederek modeli değerlendireceklerdir. Bu tür bir değerlendirme, iyi bir deneysel kurulum ve kaliteyi değerlendirme yöntemlerinin iyi anlaşılmasını gerektirir. Burada iyi bir kıyas noktası, bir insanın aynı kararı açıklama konusundaki başarısı olacaktır.

İnsan Düzeyi Değerlendirmesi (basit görev): İnsan düzeyi değerlendirmesi, uygulama düzeyi değerlendirmenin basitleştirilmiş bir versiyonudur. Farkı ise bu deneylerin alan uzmanlarıyla değil, sıradan bireylerle yapılmasıdır. Bu yaklaşım deneyleri daha ucuz hale getirir (özellikle alan uzmanları radyologlar olduğunda) ve daha fazla katılımcı bulmayı kolaylaştırır. Örneğin, bir kullanıcıya farklı açıklamalar gösterilebilir ve kullanıcı en iyi olanı seçebilir.

Fonksiyon Düzeyi Değerlendirmesi (temsil görev): Bu düzeyde insanlara gerek duyulmaz. Bu yöntem, kullanılan model sınıfı için daha önce bir insan düzeyi değerlendirme yapılmış olması durumunda en iyi şekilde çalışır. Örneğin, son kullanıcıların karar ağaçlarını anladığı biliniyor olabilir. Bu durumda, açıklama kalitesinin bir temsili olarak ağacın derinliği kullanılabilir. Kısa ağaçlar daha yüksek açıklanabilirlik puanı alacaktır. Bununla birlikte, ağacın öngörü performansının büyük bir ağaca göre fazla düşmemesi koşulunun eklenmesi mantıklı olacaktır.

Bir sonraki bölüm, bireysel tahminler için açıklamaların fonksiyon düzeyinde değerlendirilmesine odaklanmaktadır. Peki, açıklamaların değerlendirilmesinde dikkate alınması gereken temel özellikler nelerdir?

Previous3.3 Yorumlanabilirliğin KapsamıNext3.5 Açıklamaların Özellikleri

Last updated 7 months ago