6. Model Agnostik Metotlar (Model-Agnostic Methods)
Last updated
Last updated
Yapay öğrenme ya da makine öğrenimi modelinden bağımsız yorumlama yöntemlerini (= modelden bağımsız yorumlama yöntemleri) kullanmanın bazı avantajları vardır (Ribeiro, Singh ve Guestrin, 2016). Modelden bağımsız yorumlama yöntemlerinin model özelinde olanlara kıyasla en büyük avantajı esneklikleridir. Yorumlama yöntemleri herhangi bir modele uygulanabilir olduğunda, makine öğrenimi geliştiricileri istedikleri modeli kullanmakta özgürdür. Makine öğrenimi modelinin yorumlanmasına dayanan bir grafik veya kullanıcı arayüzü gibi her şey de temel modelden bağımsız hale gelir. Genellikle bir görevi çözmek için sadece bir model değil, birçok farklı makine öğrenimi modeli değerlendirilir ve yorumlanabilirlik açısından modeller karşılaştırıldığında, aynı yöntem her tür model için kullanılabildiğinden modelden bağımsız açıklamalarla çalışmak daha kolaydır.
Modelden bağımsız yorumlama yöntemlerine bir alternatif, yalnızca yorumlanabilir modeller kullanmaktır. Ancak bu, genellikle tahmin performansının diğer makine öğrenimi modellerine kıyasla kaybolması ve kendinizi bir tür modelle sınırlamanız gibi büyük bir dezavantaja sahiptir. Diğer bir alternatif ise model özelinde yorumlama yöntemlerini kullanmaktır. Bunun dezavantajı, sizi bir model türüne bağlaması ve başka bir modele geçişi zorlaştırmasıdır.
Modelden bağımsız bir açıklama sisteminin istenen yönleri şunlardır (Ribeiro, Singh ve Guestrin, 2016):
Model esnekliği: Yorumlama yöntemi, rastgele ormanlar ve derin sinir ağları gibi herhangi bir makine öğrenimi modeliyle çalışabilir.
Açıklama esnekliği: Belirli bir açıklama biçimiyle sınırlı değilsinizdir. Bazı durumlarda doğrusal bir formül faydalı olabilirken, diğer durumlarda öznitelik önemini gösteren bir grafik daha kullanışlı olabilir.
Temsil esnekliği: Açıklama sistemi, açıklanan modelden farklı bir öznitelik temsili kullanabilmelidir. Örneğin, soyut kelime gömme (word embedding) vektörlerini kullanan bir metin sınıflandırıcı için, açıklama amacıyla bireysel kelimelerin varlığını kullanmak tercih edilebilir.
Daha Büyük Resim Modelden bağımsız yorumlanabilirliğe daha üst bir seviyeden bakalım. Dünyayı, veri toplayarak kavrarız ve makine öğrenimi modeliyle bu veriyi (görev için) tahmin etmeyi öğrenerek daha da soyutlarız. Yorumlanabilirlik, insanların anlamasını kolaylaştıran bir üst katmandır.
En alt katman Dünya’dır. Bu, kelimenin tam anlamıyla doğanın kendisi olabilir, örneğin insan vücudunun biyolojisi ve ilaçlara nasıl tepki verdiği gibi, ama aynı zamanda emlak piyasası gibi daha soyut şeyler de olabilir. Dünya katmanı, gözlemlenebilir ve ilgi çekici olan her şeyi içerir. Nihayetinde Dünya hakkında bir şeyler öğrenmek ve onunla etkileşimde bulunmak istiyoruz.
İkinci katman Veri katmanıdır. Dünyayı bilgisayarlar için işlenebilir hale getirmek ve bilgiyi depolamak için dijitalleştirmek zorundayız. Veri katmanı görüntüler, metinler, tablo verileri vb. her şeyi içerir.
Veri katmanına dayalı yapay öğrenimi modelleri oluşturarak Kara Kutu Model katmanını elde ederiz. Yapay öğrenme ya da Makine öğrenimi algoritmaları, gerçek dünyadan gelen verilerle öğrenerek tahminler yapmak veya yapılar bulmak için çalışır.
Kara Kutu Model katmanının üzerinde Yorumlanabilirlik Yöntemleri katmanı bulunur, bu da makine öğrenimi modellerinin opaklığıyla başa çıkmamıza yardımcı olur. Belirli bir teşhis için en önemli özellikler neydi? Neden bir finansal işlem dolandırıcılık olarak sınıflandırıldı?
Son katman bir İnsan tarafından doldurulur. Bakın! Bu kişi size el sallıyor çünkü siz bu kitabı okuyarak kara kutu modeller için daha iyi açıklamalar sağlamaya yardımcı oluyorsunuz! Sonuçta insanlar bu açıklamaların nihai tüketicileridir.
Bu çok katmanlı soyutlama, istatistikçiler ile makine öğrenimi uygulayıcılarının yaklaşımları arasındaki farkları anlamaya da yardımcı olur. İstatistikçiler, klinik denemeler planlamak veya anketler tasarlamak gibi Veri katmanıyla ilgilenir. Kara Kutu Model katmanını atlayarak doğrudan Yorumlanabilirlik Yöntemleri katmanına geçerler. Yapay öğrenimi uzmanları da Veri katmanıyla ilgilenir, örneğin etiketlenmiş cilt kanseri görüntüleri toplamak veya Wikipedia’dan veri çekmek gibi. Daha sonra bir kara kutu makine öğrenimi modeli eğitirler. Yorumlanabilirlik Yöntemleri katmanını atlayarak insanlar doğrudan kara kutu model tahminleriyle ilgilenir. Yorumlanabilir makine öğrenimi, istatistikçiler ile makine öğrenimi uzmanlarının çalışmalarını birleştirir.
Tabii ki bu grafik her şeyi kapsamaz: Veri simülasyonlardan gelebilir. Kara kutu modeller de tahminlerini insanlara ulaştırmadan yalnızca diğer makineler için sağlayabilir, vb. Ama genel olarak bu, yorumlanabilirliğin makine öğrenimi modellerinin üzerinde yeni bir katman haline nasıl geldiğini anlamak için faydalı bir soyutlamadır.
Modelden bağımsız yorumlama yöntemleri, ayrıca yerel ve küresel yöntemler olarak da ayrılabilir. Kitap da bu ayrıma göre düzenlenmiştir. Küresel yöntemler, özelliklerin tahmini ortalama olarak nasıl etkilediğini açıklar. Buna karşılık yerel yöntemler, bireysel tahminleri açıklamayı hedefler.
Ribeiro, Marco Tulio, Sameer Singh, and Carlos Guestrin. “Model-agnostic interpretability of machine learning.” ICML Workshop on Human Interpretability in Machine Learning. (2016).↩︎