Sağlık hizmetlerinde sorumlu yapay zeka: Önyargıları ve adil sonuçları ele almak


Transform 2022’yi 19 Temmuz’da ve neredeyse 20 – 28 Temmuz’da geri getirmekten heyecan duyuyoruz. Bilgili görüşmeler ve heyecan verici ağ oluşturma fırsatları için yapay zeka ve veri liderlerine katılın. Bugün kayıt Ol!


Sağlık hizmeti yapay zekasının hızlı büyümesiyle, adil ve hakkaniyetli hasta bakımı söz konusu olduğunda algoritmalar genellikle gözden kaçıyor. az önce katıldım Uygulamalı Yapay Zeka Konferansı (CAAI): Sağlık Hizmetinde Sorumlu Yapay Zeka, Chicago Booth School of Business tarafından ev sahipliği yaptı. Konferans, sağlık hizmetlerinde algoritmik önyargıyı azaltmanın etkili yollarını tartışmak ve bulmak amacıyla iş dünyasının birçok alanında sağlık liderlerini bir araya getirdi. AI önyargısını tanımak ve adil sonuçların sağlanması üzerinde bir etki yaratmak için çeşitli paydaşlardan oluşan bir grup gerekir.

Bunu okuyorsanız, ileriye dönük olumlu bir adım olan AI yanlılığına zaten aşina olabilirsiniz. gibi filmler gördüyseniz Sosyal İkilem veya Kodlanmış Önyargı, o zaman iyi bir başlangıç ​​yapıyorsunuz. Dr. Ziad Obermeyer’inki gibi makaleler ve makaleler okuduysanız Sağlık Algoritmalarında Irk Önyargısı, daha iyi. Bu kaynakların açıkladığı şey, diğer günlük dijital etkileşimlerin yanı sıra izlediğimiz filmleri, gördüğümüz sosyal paylaşımları ve hangi sağlık hizmetlerinin önerildiğini önermede algoritmaların önemli bir rol oynadığıdır. Bu algoritmalar genellikle ırk, cinsiyet, sosyoekonomik, cinsel yönelim, demografi ve daha fazlasıyla ilgili önyargıları içerir. AI yanlılığı ile ilgili ilgide önemli bir artış oldu. Örneğin, veri bilimi makalelerinin sayısı arXiv’in web sitesi 2019-2021 yılları arasında ırksal önyargıdan bahsetmek iki katına çıktı.

Araştırmacılardan ve medyadan ilgi gördük, ancak sağlık alanında bu konuda gerçekten ne yapabiliriz? Bu ilkeleri nasıl eyleme geçirebiliriz?

Bu ilkeleri uygulamaya koymadan önce, yapmazsak ne olacağına değinelim.

Sağlık hizmetlerinde önyargının etkisi

Örneğin, bir süredir çeşitli sağlık sorunlarıyla uğraşan bir hastayı ele alalım. Sağlık sistemleri, kardiyovasküler ihtiyaçları için yüksek risk taşıyan kişilere erken müdahale etmek üzere tasarlanmış özel bir programa sahiptir. Program, kayıtlı kişiler için harika sonuçlar verdi. Ancak, hasta bunu duymadı. Her nasılsa, diğer hasta hastalar bilgilendirilip kaydolmalarına rağmen, erişim için listeye dahil edilmediler. Sonunda acil servise giderler ve kalp rahatsızlıkları normalde olduğundan çok daha fazla ilerlemiştir.

Bu, yetersiz hizmet alan bir azınlık olmanın ve bir sağlık sisteminin kullandığı yaklaşım ne olursa olsun görünmez olmanın deneyimidir. AI olmak zorunda bile değil. Kardiyovasküler erişime yönelik yaygın bir yaklaşım, yalnızca 45 yaş üstü erkekleri ve 55 yaş üstü kadınları dahil etmektir. Yaş sınırlamasını yapmayan bir kadın olduğunuz için dışlandıysanız, sonuç aynıdır.

Nasıl hitap ediyoruz?

Chris Bevolo’nun Joe Kamu 2030 Mayo Clinic, Geisinger, Johns Hopkins Medicine ve daha pek çok kuruluştaki liderler tarafından bilgilendirilen, sağlık hizmetlerinin geleceğine 10 yıllık bir bakış. Sağlık eşitsizliklerini ele almak için umut verici görünmüyor. Kalite önlemlerinin yaklaşık %40’ı için Siyahlar ve Yerliler, beyazlardan daha kötü bakım gördü. Sigortasız kişiler kalite önlemlerinin %62’si için daha kötü bakıma sahipti ve Hispanik ve Siyah insanlar arasında sigortaya erişim çok daha düşüktü.

Mayo Clinic stratejik istihbarat direktörü Adam Brase, “80’lerden beri uğraştığımız bazı sorunlarla hala uğraşıyoruz ve onları çözemiyoruz” dedi. “Son 10 yılda, bunlar yalnızca giderek daha endişe verici hale gelen sorunlar olarak büyüdü.”

Veriler neden AI’daki önyargı sorununu çözmedi?

80’lerden beri ilerleme yok mu? Ama işler o zamandan beri çok değişti. topluyoruz Kocaman miktarda veri. Ve biliyoruz ki veriler asla yalan söylemez, değil mi? Hayır, pek doğru değil. Verilerin yalnızca bir elektronik tablodaki bir şey olmadığını hatırlayalım. İnsanların acılarını nasıl gidermeye veya bakımlarını iyileştirmeye çalıştıklarına dair örneklerin bir listesi.

Hesap tablolarını karıştırırken ve onlara işkence ederken, veriler bizden istediğimizi yapıyor. Sorun, verilerin yapmasını istediğimiz şeydir. Verilerden hacmi artırmaya, hizmetleri büyütmeye veya maliyetleri en aza indirmeye yardımcı olmasını isteyebiliriz. Ancak, açıkça bakımdaki eşitsizlikleri ele almasını istemediğimiz sürece, bunu yapmayacaktır.

Konferansa katılmak, yapay zekadaki önyargıya bakış açımı değiştirdi ve bu böyle oldu.

Algoritmalarda ve yapay zekada önyargıyı ele almak yeterli değil. Sağlık hizmetlerindeki eşitsizlikleri ele almamız için en üst düzeyde taahhütte bulunmamız gerekiyor. Konferans teknoloji uzmanlarını, stratejistleri, hukukçuları ve diğerlerini bir araya getirdi. Bu teknoloji ile ilgili değil. Dolayısıyla bu, sağlık hizmetlerinde önyargıyla mücadele etmek ve yardımcı olmak için algoritmalara ağırlık vermek için bir çağrıdır! Peki bu neye benziyor?

Algoritmaların yardımıyla önyargıyla mücadele çağrısı

AI’nın ne zaman başarısız olduğu ve AI’nın genel olarak kuruluşlarda ne zaman başarılı olduğu hakkında konuşarak başlayalım. MIT ve Boston Consulting Group, yapay zeka projeleriyle çalışmış 2.500 yöneticiyle anket yaptı. Genel olarak, bu yöneticilerin %70’i projelerinin başarısız olduğunu söyledi. Başarısız olan %70 ile başarılı olan %30 arasındaki en büyük fark neydi?

AI projesinin kurumsal bir hedefi destekleyip desteklemediği. Bunu daha da netleştirmeye yardımcı olmak için, işte bazı proje fikirleri ve başarılı olup olmadıkları.

  • En güçlü doğal dil işleme çözümünü satın alın.

Başarısız. Doğal dil işleme son derece güçlü olabilir, ancak bu hedef, işletmeye nasıl yardımcı olacağına dair bağlamdan yoksundur.

  • Risk altındaki hastaları akıllıca tahsis ederek birinci basamak hacmimizi büyütün.

Geçmek. Teknoloji gerektiren bir hedef var, ancak bu hedef genel bir iş hedefine bağlı.

Bir projenin iş hedeflerini tanımlamanın önemini anlıyoruz, ancak bu iki hedefte eksik olan neydi? Önyargı, eşitsizlik ve sosyal eşitsizliği ele alma konusunda herhangi bir sözü kaçırıyorlar. Sağlık hizmetleri liderleri olarak, genel hedeflerimiz başlamamız gereken yerdir.

Başarılı projelerin kurumsal hedeflerle başladığını ve bunları desteklemeye yardımcı olacak yapay zeka çözümleri aradığını unutmayın. Bu size bir sağlık hizmeti lideri olarak başlamanız için bir yer sağlar. Departmanlarınız için tanımladığınız KPI’lar, yeterince hizmet almayanlar için erişimi artırmaya yönelik belirli hedefler içerebilir. Örneğin, “Hacimi %x Arttır”, “Az temsil edilen azınlık gruplarının hacmini %y oranında artırın” çok iyi içerebilir.

Hedeflemek için iyi metriklere nasıl ulaşırsınız? Hasta popülasyonunuz hakkında zor sorular sormakla başlar. Çevrenizdeki topluluklara karşı ırk ve cinsiyete göre dağılım nedir? Bu, ele alınması gereken sağlık hizmetleri açığına bir sayı ve boyut koymanın harika bir yoludur.

Bu yukarıdan aşağıya odaklanma, satıcıları ve algoritmik uzmanları bu hedeflere yardımcı olmaktan sorumlu tutmak gibi eylemleri yönlendirmelidir. Ancak burada daha fazla değinmemiz gereken şey, tüm bunların kimin için olduğudur. Hasta, topluluğunuz, tüketicileriniz, bunda en çok kaybedecek olanlar.

Güven hızında yenilik

Konferansta, Barack Obama’nın eski teknolojiden sorumlu başkanı Aneesh Chopra bunu doğrudan ele aldı: “İnovasyon ancak güven hızında gerçekleşebilir.” Bu büyük bir açıklama. Sağlık sektöründeki çoğumuz zaten ırk ve etnik köken bilgisi istiyoruz. Birçoğumuz artık cinsel yönelim ve cinsiyet kimliği bilgisi istiyoruz.

Bu veri noktaları olmadan, önyargıyı ele almak son derece zordur. Ne yazık ki, yetersiz hizmet alan gruplardaki birçok insan, bu bilgiyi sağlamak için sağlık hizmetlerine yeterince güvenmiyor. Dürüst olacağım, hayatımın çoğunda, ben de dahildim. Bana bu bilginin neden sorulduğunu, bununla ne yapılacağı ve hatta bana karşı ayrımcılık yapmak için kullanılıp kullanılmayacağı hakkında hiçbir fikrim yoktu. Bu yüzden cevap vermeyi reddettim. Bu konuda yalnız değildim. Bir hastaneye ırklarını ve etnik kökenlerini belirleyen insanların sayısına bakıyoruz. Genellikle dört kişiden biri yapmaz.

Fikirler42’den davranış bilimci Becca Nissan ile konuştum ve bunun nasıl ele alınacağına dair çok fazla bilimsel literatür olmadığı ortaya çıktı. Bu benim kişisel ricam: hastalarınızla ortak olun. Birisi önyargı yaşadıysa, insanların size karşı ayrımcılık yapmak için kullandıkları ayrıntıları sağlamanın herhangi bir olumlu tarafını görmek zordur.

Ortaklık, güven üzerine kurulmuş bir ilişkidir. Bu birkaç adım gerektirir:

  • Ortak olmaya değer olun. Önyargıyla mücadele etmek ve sağlık hizmetlerini kişiselleştirmek için gerçek bir taahhüt olmalı veya veri istemek işe yaramaz.
  • Bize ne yapacağını söyle. Tüketiciler, verilerini paylaşmaktan kaynaklanan ele geçirmelerden ve istenmeyen e-postalardan bıktı. Onlarla seviye atla. Verileri nasıl kullandığınız konusunda şeffaf olun. Deneyimi kişiselleştirmek veya sağlıkla ilgili endişeleri daha iyi ele almak içinse buna sahip çıkın. Algoritmalar tarafından şaşırtılmaktan bıktık.
  • Harfi harfine yerine getirmek. Takip gerçekleşene kadar güven gerçekten kazanılmaz. Bizi hayal kırıklığına uğratma.

Çözüm

Sorumlu yapay zeka oluşturuyor, piyasaya sürüyor veya kullanıyorsanız, aynı şeyi yapan diğerlerinin yanında olmak önemlidir. İnsan etkisi yaratan projeler veya kampanyalar için birkaç en iyi uygulama:

  • Farklı bir ekibiniz olsun. Çeşitlilikten yoksun gruplar, bir modelin önyargılı olup olmadığını sormama eğilimindedir.
  • Doğru verileri toplayın. Irk ve etnik köken, cinsiyet, gelir, cinsiyet, cinsel tercih ve sağlığın diğer sosyal belirleyicileri için bilinen değerler olmadan, adaleti test etmenin ve kontrol etmenin hiçbir yolu yoktur.
  • Belirli metriklerin nasıl gizli yanlılık taşıyabileceğini düşünün. 2019 çalışmasından elde edilen sağlık harcaması fikri, bu metriğin belirli popülasyonlar için ne kadar sorunlu olabileceğini gösteriyor.
  • Hedef değişkenin önyargı oluşturma potansiyelini ölçün. Herhangi bir metrik, etiket veya değişken ile ırk, cinsiyet, cinsiyet ve diğer faktörler arasındaki etkisini ve dağılımını kontrol etmek çok önemlidir.
  • Kullanılan yöntemlerin diğer popülasyonlar için önyargı oluşturmadığından emin olun. Ekipler, tüm gruplar için geçerli olan adalet metrikleri tasarlamalı ve buna karşı sürekli test yapmalıdır.
  • Kriterler belirleyin ve ilerlemeyi takip edin. Model piyasaya sürüldükten ve kullanımda olduktan sonra, değişiklikleri sürekli olarak izleyin.
  • Liderlik desteği. Satın almak için liderliğinize ihtiyacınız var, sadece bir kişi veya ekip olamaz.
  • “Sorumlu AI” son değil, sadece algoritmaları adil yapmakla ilgili değil. Bu, genel olarak önyargıyla mücadele için daha geniş bir kurumsal taahhüdün parçası olmalıdır.
  • Hastalarla ortak olun. Hastalarla nasıl ortak olacağımız ve sürece nasıl dahil olacağımız konusunda daha derine inmeliyiz. Verilerinin nasıl kullanılmasını istedikleri konusunda bize ne söyleyebilirler?

Veri bilimi alanını seven biri olarak, gelecek ve sağlık hizmeti tüketicileri için gerçek etki yaratma fırsatı konusunda inanılmaz derecede iyimserim. Etkinin tarafsız ve herkesin kullanımına açık olmasını sağlamak için önümüzde yapacak çok işimiz var, ancak sadece bu konuşmaları yaparak doğru yolda olduğumuza inanıyorum.

Chris Hemphill, uygulamalı yapay zeka ve büyümeden sorumlu Başkan Yardımcısıdır. Aktium Sağlık.

DataDecisionMakers

VentureBeat topluluğuna hoş geldiniz!

DataDecisionMakers, veri işi yapan teknik kişiler de dahil olmak üzere uzmanların verilerle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.

En yeni fikirleri ve güncel bilgileri, en iyi uygulamaları ve veri ve veri teknolojisinin geleceğini okumak istiyorsanız DataDecisionMakers’da bize katılın.

Kendi makalenize katkıda bulunmayı bile düşünebilirsiniz!

DataDecisionMakers’tan Daha Fazlasını Okuyun


Kaynak : https://venturebeat.com/2022/06/20/responsible-ai-in-healthcare-addressing-biases-and-equitable-outcomes/

Yorum yapın

SMM Panel