3.6 İnsan Dostu Açıklamalar
Yorumlanabilir yapay öğrenme açısından "iyi" açıklamalar olarak insanların neyi algıladığına daha derinlemesine bakmamız önemli. Beşeri bilimlerde yapılan araştırmalar, bu konuda yol gösterici olabilir. Miller (2017) bu alanda geniş çaplı bir literatür taraması yapmış olup bu bölüm onun özetine dayanmaktadır.
Bu bölümde şu görüşleri savunuyorum: İnsanlar bir olay için açıklama olarak kısa (sadece 1 veya 2 nedene dayalı) ve mevcut durumu olayın gerçekleşmeyeceği bir durumla karşılaştıran açıklamaları tercih eder. Özellikle olağandışı nedenler iyi açıklamalar sağlar. Açıklamalar, açıklayıcı ve açıklamanın alıcısı arasında bir sosyal etkileşimdir ve bu nedenle sosyal bağlam, açıklamanın içeriği üzerinde büyük bir etkiye sahiptir.
Bir tahmin ya da davranış için TÜM faktörleri kapsayan açıklamalar gerekiyorsa, insan-dostu bir açıklamaya değil, tam bir nedensel atıfa ihtiyacınız var demektir. Özellikle yasal olarak tüm etkileyen özellikleri belirtmek zorundaysanız veya yapay öğrenme modelini hata ayıklıyorsanız nedensel bir atıf gerekebilir. Bu durumlar haricinde, açıklamanın alıcısı uzman olmayan kişiler veya kısıtlı zamanı olan kişiler olduğunda, aşağıdaki kısımlar ilginizi çekebilir.
3.6.1 Açıklama Nedir?
Bir açıklama, bir "neden" sorusunun cevabıdır (Miller 2017).
Tedavi neden bu hastada işe yaramadı?
Kredim neden reddedildi?
Neden henüz uzaylılarla temas kurmadık?
İlk iki soru bir "günlük" açıklama ile cevaplanabilirken, üçüncü soru daha genel bilimsel ve felsefi fenomenlerle ilgilidir. Yorumlanabilir yapay öğrenme ile ilgisi nedeniyle, günlük türü açıklamalara odaklanıyoruz. "Nasıl" ile başlayan sorular genellikle "neden" sorularına dönüştürülebilir: "Kredim nasıl reddedildi?" sorusu, "Kredim neden reddedildi?" şekline dönüştürülebilir.
Burada "açıklama" terimi, açıklama sürecinin sosyal ve bilişsel sürecini ifade ettiği gibi bu süreçlerin ürününü de ifade eder. Açıklayıcı insan ya da bir makine olabilir.
3.6.2 İyi Bir Açıklama Nedir?
Bu bölüm, Miller’ın “iyi” açıklamalara dair özetini daha da yoğunlaştırarak yorumlanabilir yapay öğrenme için somut çıkarımlarla tamamlamaktadır.
Açıklamalar Karşıtlık İçerir (Lipton 1990): İnsanlar genellikle belirli bir tahminin neden yapıldığını değil, bu tahminin neden başka bir tahmin yerine yapıldığını sorar. Çoğunlukla karşı-olgusal durumlar düşünürüz, yani "Girdi X farklı olsaydı tahmin nasıl olurdu?" gibi. Örneğin, ev fiyatı tahmininde, ev sahibi tahmin edilen fiyatın neden kendi beklediğinden yüksek olduğunu öğrenmek isteyebilir. Kredim reddedildiyse, reddedilmenin genel nedenlerini değil, başvurumda değiştirmem gereken özellikleri bilmek isterim. Başvurumla kabul edilecek versiyonu arasındaki farkı görmek isterim. Karşıtlık içeren açıklamaların önemini fark etmek, açıklanabilir yapay öğrenme için önemli bir bulgudur. Çoğu yorumlanabilir modelden, bir örneğin tahminini yapay bir veri örneğinin veya örneklerin ortalamasının tahmini ile zımni olarak karşılaştıran bir açıklama çıkarılabilir. Doktorlar, “İlaç hastamda neden işe yaramadı?” diye sorabilir ve ilacın benzer özelliklere sahip ancak yanıt veren bir hastayla hastasını karşılaştıran bir açıklama isteyebilir. Karşıtlık içeren açıklamalar, tamamlayıcı açıklamalardan daha kolay anlaşılır. Örneğin, ilacın işe yaramama nedeni sorusuna verilecek tam bir açıklama, hastanın 10 yıldır hastalığı olması, 11 genin aşırı ifade edilmesi ve hastanın vücudunun ilacı hızla etkisiz bileşiklere dönüştürmesi gibi birçok detayı içerebilir. Ancak karşıt bir açıklama daha basit olabilir: “Yanıt veren hastaya kıyasla, yanıt vermeyen hasta ilacın etkinliğini azaltan bir gen kombinasyonuna sahiptir.” En iyi açıklama, incelenen nesne ile referans nesne arasındaki en büyük farkı vurgulayan açıklamadır. Yorumlanabilir yapay öğrenme için anlamı: İnsanlar, bir tahmin için eksiksiz bir açıklama istemez; başka bir örneğin tahminiyle olan farkları görmek isterler (bu yapay bir örnek de olabilir). Karşıt açıklamalar oluşturmak uygulamaya bağlıdır, çünkü bir karşılaştırma noktası gerektirir. Bu, hem açıklanacak veri noktasına hem de açıklamanın alıcısına bağlı olabilir. Bir ev fiyatı tahmin sitesi kullanıcısı, kendi evine ya da sitedeki başka bir eve veya mahalledeki ortalama bir eve kıyasla yapılan bir ev fiyatı tahmin açıklaması isteyebilir. Karşıt açıklamaların otomatik olarak oluşturulmasına yönelik bir çözüm, verilerdeki prototipleri veya arketipleri bulmayı da içerebilir.
Açıklamalar Seçicidir: İnsanlar, bir olayın nedenlerine dair tam bir liste sunulmasını beklemez. Çeşitli olası nedenler arasından bir veya iki tanesi “gerçek” neden olarak seçmeye alışkınız. Televizyonda haberleri açarak buna örnek bulabilirsiniz: “Hisse senetlerindeki düşüş, son yazılım güncellemesiyle ilgili sorunlar nedeniyle şirketin ürününe yönelik artan tepkilere bağlanıyor.” “Tsubasa ve takımı maçı zayıf savunma nedeniyle kaybetti; rakiplerine stratejilerini oynamaları için fazla alan verdiler.” “Hükümete ve köklü kurumlara duyulan güvenin azalması, seçmen katılımını düşüren ana etkenlerdir.” Bir olayın çeşitli nedenlerle açıklanabilir olması, Rashomon Etkisi olarak adlandırılır. Rashomon, bir samurayın ölümü hakkında alternatif, çelişkili hikayeler (açıklamalar) anlatan bir Japon filmidir. Yapay öğrenme modelleri için, iyi bir tahminin farklı özelliklerden yapılabilmesi avantajlıdır. Birden çok modeli farklı özelliklerle birleştiren topluluk (ensemble) yöntemleri genellikle iyi performans gösterir; çünkü bu “hikayelerin” ortalamasını almak, tahminleri daha sağlam ve doğru hale getirir. Ancak bu durum, belirli bir tahminin yapılmasının birden fazla seçici açıklaması olduğu anlamına da gelir. Yorumlanabilir yapay öğrenme için anlamı: Açıklamayı çok kısa tutun, dünyamız karmaşık bile olsa yalnızca 1 ila 3 sebep verin. LIME yöntemi bu konuda iyi bir iş çıkarır.
Açıklamalar Sosyaldir: Açıklamalar, açıklayıcı ve açıklama alıcısı arasındaki bir konuşmanın veya etkileşimin parçasıdır. Sosyal bağlam, açıklamanın içeriğini ve doğasını belirler. Dijital kripto paraların neden bu kadar değerli olduğunu bir teknik kişiye açıklamak isteseydim, “Merkezi bir varlık tarafından kontrol edilemeyen, merkezi olmayan, dağıtık blok zincir tabanlı defter, servetini güvence altına almak isteyen kişilerle yankı buluyor, bu da yüksek talep ve fiyatı açıklıyor.” gibi ifadeler kullanırdım. Ancak büyükanneme şöyle derdim: “Büyükanne, kripto paralar biraz bilgisayar altını gibi. İnsanlar altını seviyor ve ona çok para ödüyor; gençler de bilgisayar altını seviyor ve ona çok para ödüyor.” Yorumlanabilir yapay öğrenme için anlamı: Yapay öğrenme uygulamanızın sosyal ortamına ve hedef kitlesine dikkat edin. Makine öğrenimi modelinin sosyal yönünü doğru anlamak, tamamen özel uygulamanıza bağlıdır. Beşeri bilimlerden uzmanlardan (psikologlar ve sosyologlar gibi) yardım alın.
Açıklamalar Olağandışı Olana Odaklanır (Kahnemann ve Tversky, 1981): İnsanlar, olayları açıklarken olağandışı nedenlere odaklanır. Bunlar, düşük bir olasılıkla ortaya çıkmış ancak yine de gerçekleşmiş nedenlerdir. Bu tür olağandışı nedenlerin ortadan kalkması, sonucu büyük ölçüde değiştirebilirdi (karşı-olgusal açıklama). İnsanlar bu tür “olağandışı” nedenleri iyi açıklamalar olarak görürler. Štrumbelj ve Kononenko (2011) şu örneği sunar: Öğretmenler ve öğrenciler arasındaki sınav durumlarına dair bir veri setimiz olduğunu varsayalım. Öğrenciler bir kursa katılır ve başarılı bir sunum yaptıktan sonra kursu geçerler. Öğretmenin, öğrencinin bilgisini test etmek için ek sorular sorma seçeneği vardır. Bu soruları cevaplayamayan öğrenciler dersi geçemez. Öğrenciler farklı hazırlık seviyelerine sahiptir ve bu durum, öğretmenin soruları sorması durumunda doğru yanıt verme olasılıklarına yansır. Bir öğrencinin kursu geçip geçemeyeceğini tahmin etmek ve bu tahminimizi açıklamak istiyoruz. Eğer öğretmen ek soru sormazsa geçme olasılığı %100’dür; aksi takdirde, geçme olasılığı öğrencinin hazırlık seviyesine ve soruları doğru yanıtlama olasılığına bağlıdır. Senaryo 1: Öğretmen genellikle öğrencilere ek soru sorar (örneğin, 100 sorudan 95’inde). Çalışmamış bir öğrenci (%10 soru geçme olasılığı) bu şanslılardan biri değildir ve ek sorularla karşılaşır, bunları doğru yanıtlayamaz. Öğrenci neden dersi geçemedi? Bu durumda “çalışmamak” öğrencinin kendi suçu olarak en iyi açıklamadır. Senaryo 2: Öğretmen nadiren ek sorular sorar (örneğin, 100’de 2). Sorulara çalışmamış bir öğrenci için ders geçme olasılığı yüksektir, çünkü soru gelmesi beklenmez. Ancak, çalışmamış bir öğrenci şanssızdır ve öğretmen ona ek sorular sorar. Bu durumda başarısızlığın nedeni nedir? Şimdi, “çünkü öğretmen öğrenciyi test etti” demek daha iyi bir açıklama olur. Çünkü öğretmenin test etmesi düşük bir olasılıkla gerçekleştiğinden, olağandışı bir davranış sergilemiştir. Yorumlanabilir yapay öğrenme için anlamı: Bir tahmin için girdi özelliklerinden biri herhangi bir anlamda olağandışıysa (örneğin, kategorik bir özelliğin nadir bir kategorisi), bu özellik tahmin üzerinde etkili olmuşsa açıklamada yer almalıdır. Ev fiyatları tahmin örneğimizdeki olağan dışı öznitelik görece pahalı evlerin iki balkona sahip olması olabilir. Bir ilişkilendirme yöntemi, iki balkonun fiyat farkına ortalamanın üzerinde ev büyüklüğü, iyi mahalle veya yakın zamanda yapılan yenileme kadar katkıda bulunduğunu tespit etse bile, anormal özellik olan “iki balkon” evin neden bu kadar pahalı olduğunun en iyi açıklaması olabilir.
Açıklamalar Gerçekçi Olmalıdır: İyi açıklamalar, diğer durumlarda da doğrulanabilir (yani başka durumlarda da geçerli) olmalıdır. Ancak dikkat çekici bir şekilde, “iyi” bir açıklama için bu her zaman en önemli faktör değildir. Örneğin, seçicilik gerçeğe uygunluktan daha önemli görünebilir. Sadece bir veya iki olası nedeni seçen bir açıklama, nadiren ilgili tüm nedenleri kapsar. Seçicilik, gerçeğin bir kısmını ihmal eder. Örneğin, bir borsa çöküşünü yalnızca bir veya iki faktörün tetiklediğini söylemek doğru olmaz; gerçekte milyonlarca etken milyonlarca insanı etkilemiş ve bu da nihayetinde bir çöküşe yol açmıştır. Yorumlanabilir yapay öğrenme için anlamı: Açıklama, olayı mümkün olduğunca doğru bir şekilde tahmin etmelidir; bu, yapay öğrenmede bazen “benzerlik” (fidelity) olarak adlandırılır. Örneğin, bir evin ikinci balkonunun evin fiyatını artırdığını söylüyorsak, bu açıklamanın diğer evler (veya en azından benzer evler) için de geçerli olması gerekir. Ancak insanlar için, bir açıklamanın gerçeğe uygunluğu, seçiciliği, karşıtlığı ve sosyal yönü kadar önemli değildir.
İyi Açıklamalar Alıcının Önceki İnançlarıyla Tutarlıdır: İnsanlar, önceki inançlarıyla uyumsuz olan bilgiyi göz ardı etme eğilimindedir. Bu etki, “doğrulama yanlılığı” (confirmation bias) olarak adlandırılır (Nickerson 1998). Açıklamalar da bu yanlılıktan etkilenir. İnsanlar, kendi inançlarına uymayan açıklamaları küçümseme veya görmezden gelme eğilimindedir. İnanç kümesi kişiden kişiye değişir; ancak, siyasi dünya görüşleri gibi grup temelli ortak inançlar da vardır. Yorumlanabilir yapay öğrenme için anlamı: İyi açıklamalar, önceki inançlarla tutarlıdır. Bunu yapay öğrenmeye entegre etmek zordur ve tahmin performansını büyük ölçüde azaltabilir. Örneğin, ev büyüklüğünün fiyat üzerinde pozitif bir etkisi olduğu önceden bilinir. Bir modelin bazı evler için ev büyüklüğünün fiyat üzerinde negatif bir etkisi olduğunu gösterdiğini varsayalım. Model, karmaşık etkileşimler nedeniyle tahmin performansını artırdığı için bu ilişkiyi öğrenmiştir; ancak, bu davranış mevcut inançlarla çelişmektedir. Bu durumda, büyüklüğün tahmin üzerindeki etkisini tek yönlü sınırlayan (monotonicity constraints) kısıtlamalar uygulayabilir veya bu özelliğe sahip doğrusal bir model kullanabilirsiniz.
İyi Açıklamalar Genel ve Olasıdır: Pek çok olayı açıklayabilen bir neden oldukça genel bir neden olarak kabul edilir ve bu nedenle iyi bir açıklama olabilir. Ancak bu durum, olağandışı nedenlerin iyi açıklamalar sunduğu iddiasıyla çelişmektedir. Bu durumda, olağandışı nedenler, genel nedenlere göre daha iyi açıklamalar sunar. Olağandışı nedenler, tanım gereği, verilen senaryoda nadirdir. Ancak olağandışı bir olay yoksa, genel bir açıklama iyi bir açıklama olarak kabul edilir. Aynı zamanda, insanlar birleşik olayların olasılıklarını yanlış değerlendirme eğilimindedir. (Örneğin, Joe bir kütüphanecidir. Onun utangaç olması mı yoksa hem utangaç hem de kitap okumayı sevmesi mi daha olasıdır?) “Ev pahalı çünkü büyük” ifadesi, evlerin neden pahalı veya ucuz olduğuna dair çok genel ve iyi bir açıklama örneğidir. Yorumlanabilir yapay öğrenme için anlamı: Genellik, açıklamanın kapsadığı örnek sayısının, toplam örnek sayısına bölünmesiyle kolayca ölçülebilir. Daha geniş bir örnek kümesini kapsayan açıklamalar, kullanıcılar açısından daha anlaşılır ve etkili olarak kabul edilir.
Lipton, Peter. “Contrastive explanation.” Royal Institute of Philosophy Supplements 27 (1990): 247-266.↩︎
Kahneman, Daniel, and Amos Tversky. “The simulation heuristic.” Stanford Univ CA Dept of Psychology. (1981).↩︎
Štrumbelj, Erik, and Igor Kononenko. “A general method for visualizing and explaining black-box regression models.” In International Conference on Adaptive and Natural Computing Algorithms, 21–30. Springer. (2011).↩︎
Nickerson, Raymond S. “Confirmation Bias: A ubiquitous phenomenon in many guises.” Review of General Psychology 2 (2). Educational Publishing Foundation: 175. (1998).↩︎
Last updated