Yapay zeka ürünleri oluştururken şirketler etik tuzaklardan nasıl kaçınabilir?


Transform 2022’yi 19 Temmuz’da ve neredeyse 20 – 28 Temmuz’da geri getirmekten heyecan duyuyoruz. Bilgili görüşmeler ve heyecan verici ağ oluşturma fırsatları için yapay zeka ve veri liderlerine katılın. Bugün kayıt Ol!


Endüstriler arasında işletmeler, yapay zeka (AI) sistemlerinin kullanımlarını genişletiyor. AI artık sadece Meta ve Google gibi teknoloji devleri için değil; lojistik firmaları işlemleri kolaylaştırmak için yapay zekadan yararlanır, reklamcılar belirli pazarları hedeflemek için yapay zekayı kullanır ve hatta çevrimiçi bankanız bile otomatikleştirilmiş müşteri hizmetleri deneyimini güçlendirmek için yapay zekayı kullanır. Bu şirketler için AI ile ilgili etik riskler ve operasyonel zorluklarla uğraşmak kaçınılmazdır – ancak bunlarla yüzleşmeye nasıl hazırlanmalılar?

Kötü yürütülen AI ürünleri, bireysel gizliliği ihlal edebilir ve aşırı derecede, hatta sosyal ve politik sistemlerimizi zayıflatabilir. ABD’de, gelecekteki suç olasılığını tahmin etmek için kullanılan bir algoritmanın Siyah Amerikalılara karşı önyargılı olduğu ortaya çıktı. ırk ayrımcılığı uygulamalarını güçlendirmek ceza adalet sisteminde.

Tehlikeli etik tuzaklardan kaçınmak için, kendi AI ürünlerini piyasaya sürmek isteyen herhangi bir şirket, veri bilimi ekiplerini, bu ürünlerin daha büyük işletme ve misyonla etkileşim kurma yolları hakkında geniş düşünmek için eğitilmiş iş liderleriyle entegre etmelidir. İleriye dönük olarak, firmalar yapay zeka etiğine sonradan düşünülerek değil, bir projenin merkezindeki stratejik bir iş konusu olarak yaklaşmalı.

Yapay zeka ile ilgili farklı etik, lojistik ve yasal zorluklar değerlendirilirken, genellikle bir ürünün yaşam döngüsünü üç aşamaya ayırmaya yardımcı olur: dağıtım öncesi, ilk lansman ve dağıtım sonrası izleme.

dağıtım öncesi

Dağıtım öncesi aşamada sorulması gereken en önemli soru şudur: Bu sorunu çözmek için yapay zekaya ihtiyacımız var mı? Günümüzün “büyük veri” dünyasında bile, uzun vadede AI olmayan bir çözüm çok daha etkili ve daha ucuz bir seçenek olabilir.

Bir yapay zeka çözümü en iyi seçimse, dağıtım öncesi veri toplamayı düşünmenin zamanıdır. AI, yalnızca onu eğitmek için kullanılan veri kümeleri kadar iyidir. Verilerimizi nasıl alacağız? Veriler doğrudan müşterilerden mi yoksa üçüncü şahıslardan mı alınacak? Etik olarak elde edildiğinden nasıl emin olabiliriz?

Bu sorulardan kaçınmak cazip gelse de, iş ekibi, veri toplama sürecinin bilgilendirilmiş rızaya izin verip vermediğini veya kullanıcıların gizliliğine ilişkin makul beklentileri ihlal edip etmediğini değerlendirmelidir. Takımın kararları bir firmanın itibarını arttırabilir veya bozabilir. Örnek olay: Ever uygulamasının, kullanıcıları uygun şekilde bilgilendirmeden veri topladığı tespit edildiğinde, FTC onları algoritmalarını silmeye zorladı ve veriler.

Bilgilendirilmiş rıza ve mahremiyet de bir firmanın yasal yükümlülükleri ile iç içedir. Ulusal kolluk kuvvetleri hassas kullanıcı verilerine erişim talep ederse nasıl yanıt vermeliyiz? Ya uluslararası hukuk yaptırımıysa? Apple ve Meta gibi bazı firmalar, şirketin bir kullanıcının özel verilerine veya mesajlarına erişememesi için sistemlerini kasıtlı olarak şifreleme ile tasarlar. Diğer firmalar, veri toplama sürecini dikkatli bir şekilde tasarlarlar, böylece hiçbir zaman hassas verilere sahip olmazlar.

Bilgilendirilmiş rızanın ötesinde, elde edilen verilerin hedef kullanıcıları uygun şekilde temsil etmesini nasıl sağlayacağız? Marjinalleştirilmiş popülasyonları yeterince temsil etmeyen veriler, sistemik önyargıyı sürdüren yapay zeka sistemleri sağlayabilir. Örneğin, yüz tanıma teknolojisinin, çoğunlukla, bu tür bir teknolojiyi oluşturmak için kullanılan veriler uygun şekilde çeşitli olmadığı için, ırk ve cinsiyet çizgileri boyunca önyargı sergilediği düzenli olarak gösterilmiştir.

İlk lansman

Bir yapay zeka ürününün yaşam döngüsünün sonraki aşamasında iki önemli görev vardır. İlk olarak, ürünün yapmak istediği ile gerçekte yaptığı arasında bir boşluk olup olmadığını değerlendirin. Gerçek performans beklentilerinizi karşılamıyorsa nedenini öğrenin. Başlangıç ​​eğitim verilerinin yetersiz olup olmadığı veya uygulamada büyük bir kusur olup olmadığı, acil sorunları belirleme ve çözme fırsatına sahipsiniz. İkinci olarak, yapay zeka sisteminin daha büyük işletmeyle nasıl bütünleştiğini değerlendirin. Bu sistemler bir boşlukta mevcut değildir – yeni bir sistemin devreye alınması, mevcut çalışanların dahili iş akışını etkileyebilir veya dış talebi belirli ürün veya hizmetlerden uzaklaştırabilir. Ürününüzün büyük resimde işinizi nasıl etkilediğini anlayın ve hazırlıklı olun: Ciddi bir sorun bulunursa, AI ürününü geri almak, küçültmek veya yeniden yapılandırmak gerekebilir.

Dağıtım sonrası izleme

Dağıtım sonrası izleme, ürünün başarısı için kritik öneme sahiptir, ancak çoğu zaman gözden kaçırılır. Son aşamada, dağıtım sonrası AI ürünlerini izlemek için özel bir ekip olmalıdır. Sonuçta, hiçbir ürün – AI veya başka türlü – ayarlamalar olmadan sonsuza kadar mükemmel şekilde çalışmaz. Bu ekip, periyodik olarak bir önyargı denetimi gerçekleştirebilir, veri güvenilirliğini yeniden değerlendirebilir veya “eski” verileri yenileyebilir. Yetersiz temsil edilen grupları hesaba katmak için daha fazla veri elde etmek veya ilgili modelleri yeniden eğitmek gibi operasyonel değişiklikleri uygulayabilirler.

En önemlisi, unutmayın: veriler bilgi verir ancak her zaman tüm hikayeyi açıklamaz. Yapay zeka sistemlerinin nicel analizi ve performans takibi, kullanıcı deneyiminin duygusal yönlerini yakalayamayacaktır. Bu nedenle, dağıtım sonrası ekiplerin daha nitel, insan merkezli araştırmalara da dalmaları gerekir. Ekibin veri bilimcileri yerine, etkili nitel araştırma yürütmek için çeşitli uzmanlığa sahip ekip üyelerini arayın. Kullanıcılar arasındaki “bilinmeyen bilinmeyenleri” ortaya çıkarmaya yardımcı olmak ve dahili hesap verebilirliği sağlamak için liberal sanatlar ve iş geçmişine sahip olanları düşünün.

Son olarak, ürün verilerinin kullanım ömrünün sonunu düşünün. Eski verileri silmeli miyiz yoksa alternatif projeler için mi kullanmalıyız? Başka bir amaca uygunsa, kullanıcıları bilgilendirmemiz gerekiyor mu? Ucuz veri ambarının bolluğu bizi tüm eski verileri basitçe depolamaya ve bu sorunları bir kenara bırakmaya teşvik ederken, hassas verileri tutmak şirketin olası bir güvenlik ihlali veya veri sızıntısı riskini artırır. Bir diğer husus, ülkelerin bir sistem oluşturup oluşturmadığıdır. unutulma hakkı.

Stratejik bir iş perspektifinden bakıldığında, firmaların, bir ürünün piyasaya sürülmesinden önce, sırasında ve sonrasında teknolojinin etkisini değerlendirebilecek ve etik tuzaklardan kaçınabilecek sorumlu iş liderleriyle AI ürün ekiplerini çalıştırması gerekecek. Sektörden bağımsız olarak, bu yetenekli ekip üyeleri, bir şirketin yapay zekanın kaçınılmaz etik ve lojistik zorluklarını aşmasına yardımcı olacak temel olacaktır.

Vishal Gupta, Güney Kaliforniya Üniversitesi Marshall İşletme Okulu’nda veri bilimleri ve operasyonlar alanında doçenttir.

DataDecisionMakers

VentureBeat topluluğuna hoş geldiniz!

DataDecisionMakers, veri işi yapan teknik kişiler de dahil olmak üzere uzmanların verilerle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.

En yeni fikirleri ve güncel bilgileri, en iyi uygulamaları ve veri ve veri teknolojisinin geleceğini okumak istiyorsanız DataDecisionMakers’da bize katılın.

Kendi makalenize katkıda bulunmayı bile düşünebilirsiniz!

DataDecisionMakers’dan Daha Fazlasını Okuyun


Kaynak : https://venturebeat.com/2022/06/20/how-companies-can-avoid-ethical-pitfalls-when-building-ai-products/

Yorum yapın

SMM Panel