MIT Makine Öğrenimine Açıklanabilirlik Kazandırmaya Çalışıyor

Öne Çıkan İçerikler

MIT Taksonomisi Makine Öğrenimi Modellerinin Bileşenlerine Açıklanabilirlik Kazandırmaya Yardımcı Oluyor

Araştırmacılar, veri bilimcilerin makine öğrenimi modellerinde kullanılan özellikleri son kullanıcılar için daha anlaşılır hale getirmelerine yardımcı olacak araçlar geliştirmektedir.

Kullanıcıların makine öğrenimi modellerini anlamasına ve bu modellere güvenmesine yardımcı olan açıklama yöntemleri genellikle modelde kullanılan belirli özelliklerin tahmine ne kadar katkıda bulunduğunu açıklar. Örneğin, bir model bir hastanın kalp hastalığı geliştirme riskini tahmin ediyorsa, bir doktor hastanın kalp atış hızı verilerinin bu tahmini ne kadar etkilediğini bilmek isteyebilir.

Ancak bu özellikler kullanıcının anlayamayacağı kadar karmaşık veya dolambaçlıysa, açıklama yöntemi herhangi bir işe yarar mı?

MIT araştırmacıları, karar vericilerin makine öğrenimi modellerinin çıktılarını daha rahat kullanabilmeleri için özelliklerin yorumlanabilirliğini geliştirmeye çalışıyor. Yıllar süren saha çalışmalarından yola çıkarak, geliştiricilerin hedef kitlelerinin anlamasını kolaylaştıracak özellikler oluşturmalarına yardımcı olacak bir taksonomi geliştirdiler.

Elektrik mühendisliği ve bilgisayar bilimleri doktora öğrencisi ve taksonomiyi tanıtan bir makalenin baş yazarı olan Alexandra Zytek, “Gerçek dünyada, makine öğrenimi modellerini açıklamak için en gelişmiş yöntemleri kullanıyor olsak bile, modelin kendisinden değil, özelliklerden kaynaklanan çok fazla kafa karışıklığı olduğunu gördük” diyor.

Taksonomiyi oluşturmak için araştırmacılar, yapay zeka uzmanlarından bir makine öğrenimi modelinin tahmininden etkilenen kişilere kadar beş tür kullanıcı için özellikleri yorumlanabilir kılan özellikleri tanımladılar. Ayrıca, model oluşturucuların özellikleri meslekten olmayan kişilerin anlamasını kolaylaştıracak biçimlere nasıl dönüştürebileceklerine dair talimatlar da sunuyorlar.

Çalışmalarının, model oluşturuculara, geriye doğru çalışıp açıklanabilirliğe sonradan odaklanmak yerine, geliştirme sürecinin başından itibaren yorumlanabilir özellikler kullanmayı düşünmeleri için ilham vereceğini umuyorlar.

MIT ortak yazarları arasında doktora sonrası araştırmacı Dongyu Liu; IRD’de araştırma direktörü olan misafir profesör Laure Berti-Équille; ve Bilgi ve Karar Sistemleri Laboratuvarı’nda (LIDS) baş araştırma bilimcisi ve Veriden Yapay Zekaya grubunun lideri olan kıdemli yazar Kalyan Veeramachaneni yer alıyor. Onlara Corelight’ta baş veri bilimcisi olan Ignacio Arnaldo da katılıyor. Araştırma, Association for Computing Machinery Special Interest Group on Knowledge Discovery and Data Mining’in hakemli Explorations Newsletter’ının Haziran sayısında yayımlandı.

Gerçek dünya dersleri
Özellikler, makine öğrenimi modellerine beslenen girdi değişkenleridir; genellikle bir veri kümesindeki sütunlardan çekilirler. Veeramachaneni, veri bilimcilerin tipik olarak model için özellikleri seçtiğini ve el işçiliğiyle oluşturduğunu ve esas olarak bir karar vericinin bunları anlayıp anlayamayacağına değil, model doğruluğunu artırmak için özelliklerin geliştirilmesini sağlamaya odaklandıklarını açıklıyor.

Veeramachaneni ve ekibi, makine öğrenimi kullanılabilirlik zorluklarını belirlemek için birkaç yıl boyunca karar vericilerle birlikte çalıştı. Çoğu makine öğrenimi bilgisinden yoksun olan bu alan uzmanları, tahminleri etkileyen özellikleri anlamadıkları için genellikle modellere güvenmiyorlar.

Bir proje için, bir hastanın kalp ameliyatından sonra komplikasyonlarla karşılaşma riskini tahmin etmek için makine öğrenimini kullanan bir hastanenin yoğun bakım ünitesindeki klinisyenlerle ortaklık kurdular. Hastanın kalp atış hızının zaman içindeki eğilimi gibi bazı özellikler toplu değerler olarak sunuldu. Bu şekilde kodlanan özellikler “modele hazır” olsa da (model verileri işleyebilir), klinisyenler bunların nasıl hesaplandığını anlamadı. Liu, bu toplanmış özelliklerin orijinal değerlerle nasıl ilişkili olduğunu görmeyi tercih ettiklerini, böylece bir hastanın kalp atış hızındaki anormallikleri belirleyebileceklerini söylüyor.

Buna karşılık, bir grup öğrenme bilimcisi, bir araya getirilmiş özellikleri tercih etti. “Bir öğrencinin tartışma forumlarında yaptığı paylaşımların sayısı” gibi bir özelliğe sahip olmak yerine, ilgili özelliklerin bir araya getirilmesini ve “katılım” gibi anladıkları terimlerle etiketlenmesini tercih ettiler.

“Yorumlanabilirlik söz konusu olduğunda tek beden herkese uymuyor. Bir alandan diğerine geçtiğinizde farklı ihtiyaçlar ortaya çıkıyor. Ve yorumlanabilirliğin de birçok seviyesi var” diyor Veeramachaneni.

Tek bedenin herkese uymayacağı fikri araştırmacıların taksonomisinin anahtarı. Özellikleri farklı karar vericiler için daha fazla veya daha az yorumlanabilir hale getirebilecek özellikleri tanımlıyorlar ve belirli kullanıcılar için hangi özelliklerin muhtemelen en önemli olduğunu ana hatlarıyla belirtiyorlar.

Örneğin, makine öğrenimi geliştiricileri modelle uyumlu ve öngörücü özelliklere sahip olmaya odaklanabilir, yani modelin performansını artırmaları beklenir.

Öte yandan, makine öğrenimi deneyimi olmayan karar vericilere, insanlar tarafından ifade edilen, yani kullanıcılar için doğal bir şekilde tanımlanan ve anlaşılabilir olan, yani kullanıcıların akıl yürütebileceği gerçek dünya ölçütlerine atıfta bulunan özellikler daha iyi hizmet verebilir.

“Taksonomi diyor ki, eğer yorumlanabilir özellikler oluşturuyorsanız, bunlar hangi seviyede yorumlanabilir? Birlikte çalıştığınız alan uzmanlarının türüne bağlı olarak tüm seviyelere ihtiyacınız olmayabilir,” diyor Zytek.

Yorumlanabilirliği ilk sıraya koymak
Araştırmacılar ayrıca, bir geliştiricinin özellikleri belirli bir kitle için daha yorumlanabilir hale getirmek için kullanabileceği özellik mühendisliği tekniklerini de özetliyor.

Özellik mühendisliği, veri bilimcilerin verileri toplama veya değerleri normalleştirme gibi teknikler kullanarak verileri makine öğrenimi modellerinin işleyebileceği bir biçime dönüştürdüğü bir süreçtir. Çoğu model, sayısal bir koda dönüştürülmedikleri sürece kategorik verileri de işleyemez. Bu dönüşümlerin meslekten olmayan kişiler tarafından çözülmesi genellikle neredeyse imkansızdır.

Zytek, yorumlanabilir özellikler oluşturmanın bu kodlamanın bir kısmını geri almayı gerektirebileceğini söylüyor. Örneğin, yaygın bir özellik mühendisliği tekniği, veri aralıklarını, hepsi aynı sayıda yıl içerecek şekilde düzenler. Bu özellikleri daha yorumlanabilir hale getirmek için, yaş aralıkları bebek, yürümeye başlayan çocuk, çocuk ve genç gibi insan terimleri kullanılarak gruplandırılabilir. Ya da ortalama nabız hızı gibi dönüştürülmüş bir özellik kullanmak yerine, yorumlanabilir bir özellik sadece gerçek nabız hızı verileri olabilir, diye ekliyor Liu.

“Pek çok alanda, yorumlanabilir özellikler ile model doğruluğu arasındaki denge aslında çok küçüktür. Örneğin, çocuk refahı taramacılarıyla çalışırken, modeli yalnızca yorumlanabilirlik tanımlarımızı karşılayan özellikleri kullanarak yeniden eğittik ve performans düşüşü neredeyse ihmal edilebilir düzeydeydi” diyor Zytek.

Bu çalışmayı temel alan araştırmacılar, makine öğrenimi modelleri için insan merkezli açıklamalar oluşturmak üzere, bir model geliştiricinin karmaşık özellik dönüşümlerini daha verimli bir şekilde ele almasını sağlayan bir sistem geliştiriyor. Bu yeni sistem aynı zamanda modele hazır veri kümelerini açıklamak için tasarlanan algoritmaları karar vericiler tarafından anlaşılabilecek formatlara dönüştürecek.

Kaynak: https://scitechdaily.com/mit-taxonomy-helps-build-explainability-into-the-components-of-machine-learning-models/

Bu yazı Astrafizik.com tarafından Türkçeye aktarılmış olup yazının aslı scitechdaily.com sitesine aittir, orijinaline mümkün olduğunca sadık kalmak koşuluyla dilimize çevirilmis olsa da editoryal tarafından katkılarda bulunulmuştur. Bu sebeple Astrafizik.com içerik izinlerine tabidir. Astrafizik.com referans gösterilmek koşuluyla 3. tarafların kullanımına izin verilmiştir.

Daha Fazla

Yorumlar

Bir Cevap Yazın

Popüler İçerik