Yapay zeka yönetimi: Sorumluluk bilinciyle geliştirme

Tasarım kararlarınız, yapay zeka sisteminizin sorumluluğunu ve güvenliğini doğrudan şekillendirir. Örneğin, veri kaynaklarını nasıl seçeceğinize, model davranışını nasıl yapılandıracağınıza veya yapay zeka çıkışlarını kullanıcılara nasıl sunacağınıza karar verirsiniz. Bu seçimlerin kullanıcılarınız ve şirketiniz için gerçek sonuçları vardır.

Bu modülde, yapay zeka yönetimiyle ilgili üç önemli boyutu ele alıyoruz:

  • Gizlilik: Verileri sorumlu bir şekilde işleyin, hangi verilerin toplandığını açıklayın ve tarayıcıdan ayrılan verileri en aza indirin.
  • Adalet: Modellerinizde ayrımcı davranış (önyargı) olup olmadığını kontrol edin ve kullanıcıların sorunları işaretlemesine olanak tanıyan döngüler oluşturun.
  • Güven ve şeffaflık: Sisteminizi şeffaflık ve ölçülü güven için tasarlayın. Böylece kullanıcılar, belirsizliklere ve olası hatalara rağmen sistemden yararlanmaya devam edebilir.

Her konu için farklı yapay zeka ürünlerinde nasıl göründüğünü açıklıyoruz. Ardından, yapay zeka çözümünüzün üç katmanı (veri, yapay zeka ve kullanıcı deneyimi) genelinde analiz ederiz. Nelere dikkat etmeniz gerektiğini, sorunları nasıl ele alacağınızı ve etkili, basit bir yönetimi nasıl sürdüreceğinizi öğreneceksiniz.

Gizlilik

Gerçek kullanım ve etkileşim verilerinin her yapay zeka sisteminin temelini oluşturduğunu öğrendiniz. Veriler, öğrenmeyi, değerlendirmeyi ve sürekli iyileştirmeyi destekler. İyi gizlilik uygulamaları, bu verileri güvende tutmanıza ve kullanıcıların bilgilerini kontrol etmesine olanak tanır.

Gizlilik beklentileri, ürününüze ve kitlenize bağlı olarak büyük ölçüde değişir. Tüketici ürünlerinde beklentiler genellikle kişilerin adları, mesajları ve göz atma davranışları gibi kimliği tanımlayabilecek bilgilerinin (PII) korunmasıyla ilgilidir. Kurumsal ayarlarda ise veri egemenliği, gizliliği ve fikri mülkiyetin korunması ön plana çıkar.

İnsanların geçim kaynaklarını veya refahını etkileyen sektörler (ör. sağlık, finans ve eğitim), eğlence gibi daha düşük riskli alanlara kıyasla daha katı gizlilik önlemleri gerektirir.

Yapay zeka sisteminizin farklı bileşenlerinde gizliliğin nasıl yönetilebileceğine bakalım.

Veriler

Yapay zeka sisteminizi sürekli olarak iyileştirmek için girişler, çıkışlar, geri bildirimler ve hatalar dahil olmak üzere kullanıcı etkileşimleriyle ilgili veriler toplayabilirsiniz. Bu bilgiler, istemlerde değerlendirme, modelde ince ayar veya birkaç görevli örnek için yeniden kullanılabilir. Ayrıca kullanıcı deneyimi tasarımınızı da şekillendirebilir.

Sorumlu veri toplama ile ilgili bazı kurallar:

  • Yalnızca öğrenme için gerekenleri toplayın. Yapay zeka destekli bir ürün araması, sonuçları iyileştirmek için kullanıcının tam profiline ihtiyaç duymayabilir. Çoğu durumda sorgu, tıklama kalıpları ve anonimleştirilmiş oturum verilerinin sağlanması yeterlidir.
  • Hassas bilgileri kaldırma. Verileri harici modellere göndermeden önce tüm kimliği tanımlayabilecek bilgileri (PII) kaldırın. Bunu anonimleştirme, takma ad kullanma veya toplama ile yapabilirsiniz.
  • Saklama sınırları. Günlükleri ve önbelleğe alınan verileri amaçlarına hizmet ettikten sonra silin. Kısa saklama döngüleri, analizleri engellemeden riski azaltır.

Hangi bilgileri topladığınızı, bu bilgileri ne kadar süreyle sakladığınızı ve neden gerekli olduğunu belgeleyin. Veri akışlarınızı teknik bilgisi olmayan bir kullanıcıya net bir şekilde açıklayamıyorsanız akışlar muhtemelen kontrol etmek veya haklı çıkarmak için çok karmaşıktır.

Intelligence

Kullanıcılar, yapay zeka sisteminizle etkileşim kurarken farkında olmadan veya dikkatsizce özel ya da hassas bilgiler girebilir. Bu risk, özellikle kullanıcıların yazdıklarını kısıtlayamadığınız açık uçlu sohbet veya yazma arayüzlerinde yüksektir.

Belirli kelimelerin gönderilmesini engelleyebilirsiniz ancak bu bilgiler bağlama duyarlı olabilir. Modeliniz, harici bir sağlayıcı tarafından yönetilen bir sunucuda çalışıyorsa kullanıcı girişini eğitim verisi olarak yeniden kullanabilir. Sonuç olarak model, diğer kullanıcılara özel metin parçaları, kimlik bilgileri veya diğer gizli ayrıntılar gösterebilir.

Çıkarım sırasında gizlilik ihlallerine karşı nasıl önlem alabileceğiniz aşağıda açıklanmıştır:

  • Üçüncü taraf API'lerini dikkatlice inceleyin. Gönderdiğiniz verilerin başına tam olarak ne geldiğini bilmeniz gerekir. Girişler kaydedilir, saklanır veya eğitim için yeniden kullanılır mı? Şeffaf olmayan hizmetlerden kaçının ve şeffaf politikaları ve denetimleri olan sağlayıcıları tercih edin.

  • Modelleri kendiniz eğitiyor veya ince ayarlıyorsanız eğitim verilerinizdeki hassas ayrıntıları soyutlayın. Kısa yoldan öğrenmeye karşı dikkatli olun. Örneğin, kredi puanı başvurusunda posta kodları, modelin ırk veya sosyoekonomik durum hakkında varsayımlarda bulunmasına neden olabilir. Bu durum, adil olmayan tahminlere yol açabilir ve mevcut eşitsizlikleri pekiştirebilir.

  • Hassas alanlarda istemci tarafı çıkarımı tercih edin. Bu, yerleşik yapay zeka, tarayıcıdaki bir model veya özel bir istemci tarafı modeliyle yapılabilir. Bu seçim hakkında daha fazla bilgiyi bir sonraki modül olan platform seçimi bölümünde edinebilirsiniz.

Kullanıcı deneyimi

Uygulama arayüzünüz, kullanıcılara neler olduğunu göstermek, güvenlerini kazanmak ve verileri üzerinde kontrol sahibi olmalarını sağlamak için bir fırsat sunar:

  • Şeffaf olun. Arayüzünüzdeki "Yerel olarak işlendi" veya "Analiz için güvenli bir şekilde gönderildi" gibi kısa etiketler güven oluşturmanıza yardımcı olabilir. Analizin cihazda mı yoksa sunucuda mı gerçekleştiğini açıklayan ipuçları gibi daha fazla ayrıntı için kademeli açıklama eklemeyi düşünebilirsiniz.
  • Yeri geldiği zaman izin isteyin. İlgili durumlarda izin isteyin. "Önerileri iyileştirmek için önceki aramaları paylaşmak ister misiniz?" sorusu, genel bir izin istemeye kıyasla çok daha anlamlıdır.
  • Basit kontroller sunun. Kişiselleştirme, bulut tabanlı özellikler veya veri paylaşımı için net bir şekilde görünen açma/kapatma düğmeleri ekleyin.
  • Görünürlük verme Kullanıcıların uygulamadan çıkmadan verilerini yönetebilmesi için küçük bir gizlilik kontrol paneli ekleyin.
  • Neden veri topladığınızı açıklayın. Kullanıcılar, verilerin nasıl kullanılacağını anladıklarında paylaşmaya daha istekli olabilir. Aynı durum saklama ve yönetim politikalarınız için de geçerlidir.

Web'deki yapay zeka gizliliği, tek bir uygunluk adımı değil, devam eden bir tasarım anlayışıdır:

  • Veriler: Daha az veri toplayın ve daha fazla koruma sağlayın.
  • Zeka: Harici modellerin hassas olabilecek verileri ezberlemesini önleyin.
  • Kullanıcı deneyimi: Gizliliği kullanıcılar için şeffaf ve kontrol edilebilir hale getirin.

Adalet

Yapay zeka sistemleri, haksız ayrımcılığa yol açan önyargılar taşıyabilir. Bu durum, özellikle işe alma, hukuk ve finans gibi alanlarda geçerlidir. Bu alanlarda önyargı, gerçek insanları doğrudan etkileyen kritik kararları çarpıtabilir.

Örneğin, geçmiş işe alım verileriyle eğitilmiş bir işe alım modeli, belirli demografik özellikleri daha düşük aday kalitesiyle ilişkilendirebilir. Bu durumda, işle ilgili beceri ve deneyimi değerlendirmek yerine, yeterince temsil edilmeyen gruplardan gelen adaylar istemeden cezalandırılır.

Veriler

Eğitim verileriniz, gerçek dünyadaki önyargıları yansıtabilen ve hatta yeni önyargılar ortaya çıkarabilen, birbirinden bağımsız bilgi parçalarından oluşan bir kümedir. Verilerle ilgili önyargıları şeffaf ve yönetilebilir hale getirmek için pratik adımlar aşağıda verilmiştir:

  • Veri kaynaklarınızı ve kapsamınızı belgeleyin. Kullanıcıların modelin hangi konularda yetersiz kalabileceğini anlamasına yardımcı olmak için kısa bir açıklama yayınlayın. Örneğin, "Bu model, öncelikli olarak İngilizce içeriklerle eğitildi ve teknik metinler sınırlı düzeyde kullanıldı."
  • Teşhis kontrolleri yapın. Sistematik farklılıkları ortaya çıkarmak için A/B testlerini kullanın. Örneğin, sisteminizin "She is a great leader" (O, harika bir lider), "He is a great leader" (O, harika bir lider) ve "They are a great leader" (Onlar harika bir lider) ifadelerini nasıl işlediğini karşılaştırın. Duygu veya üsluptaki küçük farklılıklar daha derin bir önyargının işareti olabilir.
  • Veri kümelerinizi etiketleyin. Gelecekteki denetimleri, filtrelemeyi ve yeniden dengelemeyi kolaylaştırmak için alan, bölge ve resmiyet düzeyi gibi basit meta veriler ekleyin.

Özel modelleri eğitiyor veya ince ayarlıyorsanız veri kümelerinizi dengeleyin. Daha geniş bir temsil, model oluşturulduktan sonra yanlılığı düzeltmekten daha etkili bir şekilde çarpıklığı azaltır.

Intelligence

Zeka katmanında önyargı, öğrenilmiş davranışa dönüştürülür. Çıkışları adalet ve kapsayıcılık yönünde yönlendirmek için korumalar, yeniden sıralama mantığı veya karma kurallar ekleyebilirsiniz:

  • Düzenli olarak önyargı testi yapın. Cinsiyet içeren terimleri veya dışlayıcı bir üslubu yakalamak gibi sorunlu ifadeleri işaretlemek için önyargı tespit filtrelerini kullanın. Zaman içinde sapma olup olmadığını izleyin.
  • Tahmini modellerde hassas veriler konusunda dikkatli olun. Posta kodu, eğitim veya gelir gibi özellikler, ırk ya da sınıf gibi hassas özellikleri dolaylı olarak kodlayabilir.
  • Birden fazla çıktı oluşturup karşılaştırma Kullanıcıyla hangi çıktının paylaşılacağını belirlemeden önce sonuçları tarafsızlık, çeşitlilik ve üsluba göre sırala.
  • Adalet kısıtlamalarını zorunlu kılmak için kurallar ekleyin. Örneğin, kalıplaşmış düşünceleri pekiştiren veya çeşitli örnekleri temsil etmeyen çıkışları engelleme.

Kullanıcı deneyimi

Kullanıcı arayüzünüzde modelin muhakemesi konusunda şeffaf olun ve geri bildirimleri teşvik edin:

  • Yapay zeka çıktıları için gerekçeler sunun. Örneğin, "Önceki girişlerinize göre profesyonel bir üslup kullanmanız önerilir*." Bu sayede kullanıcılar, sistemin tanımlanmış bir mantığı izlediğini ve gizli bir yargı kullanmadığını görür.
  • Kullanıcılara anlamlı kontrol olanağı sunun. Kullanıcıların, ayarlar veya istemler aracılığıyla model davranışını ayarlamasına (ör. üslup, karmaşıklık veya görsel stil tercihlerini seçme) izin verin.
  • Önyargı veya yanlışlık bildirmeyi kolaylaştırın. Bir sorunu işaretlemek ne kadar kolay olursa yapay zeka sisteminizi geliştirmek için o kadar fazla gerçek dünya verisi elde edersiniz.
  • Geri bildirim döngüsünü kapatın. Kullanıcı raporlarının kaybolmasına izin vermeyin. Bu verileri yeniden eğitme veya kural mantığınıza geri aktarın ve ilerlemeyi görünür şekilde paylaşın: "Önerilerdeki kültürel önyargıyı azaltmak için moderasyonumuzu güncelledik."

Önyargı verilerde doğar, modeller aracılığıyla güçlenir ve kullanıcı deneyiminde ortaya çıkar. Bu sorunu yapay zeka sisteminizin üç düzeyinde de ele alabilirsiniz:

  • Veriler: Veri kaynaklarını şeffaf ve dengeli hale getirin.
  • Zeka: Çıkışlardaki yanlılığı tespit etme, test etme ve azaltma.
  • Kullanıcı deneyimi: Kullanıcılara kontrol ve geri bildirim yoluyla önyargıları belirleme ve düzeltme olanağı tanır.

Güven ve şeffaflık

Güven, kullanıcıların ürününüzü kullanıp kullanmayacağını, benimseyip benimsemeyeceğini ve savunup savunmayacağını belirler.

Çoğu kullanıcı, tahmin edilebilir uygulamalar bekler. Örneğin, düğme tıklamaları her zaman belirtilen işlemi gerçekleştirir ve aynı yere yönlendirir. Yapay zeka, davranışları çok değişken ve genellikle tahmin edilemez olduğundan bu beklentiyi karşılamaz. Ayrıca, yapay zeka sistemlerinin doğasında başarısızlık potansiyeli vardır: Dil modelleri gerçekleri halüsinasyon olarak algılar, tahmine dayalı modeller verileri yanlış etiketler ve aracıların kontrolü kaybedilir.

Kullanıcılarınız bu hatalara karşı son savunma hattıdır.

Hedefiniz, kullanıcıları ortada, yani kalibre edilmiş güvene doğru hareket ettirmek olmalıdır. Aşırı güven ve yetersiz güven sorunlara yol açar.

Başlangıçta kullanıcılar sisteminize muhtemelen ya az ya da çok güvenir. Sisteme az güvenmek, kullanıcıların sistemi kullanmayacağı, çok güvenmek ise hataları kontrol etmeden çıktıları tamamen kabul edeceği anlamına gelir. Göreviniz, kullanıcıları kalibre edilmiş güvenin altın ortasına çekmektir. Bu noktada kullanıcılar, nihai sonuçlardan sorumlu olmaya devam ederken verimlilik için yapay zekadan yararlanır.

Veriler

Veri katmanında, verilerinizin kapsamı ve kaynağı net bir şekilde açıklanarak güven oluşturulur:

  • Veri kaynağı ve soyu hakkında açık olun.
  • Verilerin güncelliğini ve eskiliğini belgeleyin.
  • Modelin gördüğü içerik türlerini ve modelin zorlanabileceği noktaları (ör. İngilizce olmayan dil verileri) açıklayın.

Yapay zeka sisteminiz zaman içinde etkileşim ve geri bildirim topladıkça verilerin sürüm oluşturulmuş anlık görüntülerini saklayarak çıkışların nasıl geliştiğini açıklayabilirsiniz.

Intelligence

Zeka katmanında, açıklanabilirlik, güven göstergeleri ve modüler tasarım aracılığıyla güveni yönetebilirsiniz:

  • Bağlama uygun, anlık açıklamalar sunun. Etkin kullanıcı paradoksuna göre, kullanıcıların yapay zeka sistemini kullanırken ne yaptığını anlaması için bağlam içinde, doğrudan etkileşimlere mikro açıklamalar yerleştirmeniz daha iyi olur.
  • Sınırlamaları ve hata modlarını önceden bildirin. Kullanıcılara yapay zekanın hangi konularda hata yapabileceğini söyleyin. Örneğin, "Daha iyi sonuçlar almak için mizah veya alan jargonundan kaçının." Kısa ve bağlama uygun ipuçları, akışı bozmadan şeffaflık sağlar.
  • Güven göstergeleri ve yedek mantık, yapay zekanın belirsizlik durumlarında güvenilir olmasını sağlar. Olasılık puanları veya geçmiş başarı oranları gibi proxy'lerden güveni tahmin edebilirsiniz. Açıkça yanlış olan çıkışlar için güvenli yedekler tanımlayın.
  • Modüler mimariler, yapay zekayı daha şeffaf hale getirir. Örneğin, bir yazma asistanı dil bilgisi, stil ve üslubu ayrı adımlarda ele alıyorsa her aşamada neyin değiştiğini belirtin: "Üslup: daha az resmi; karmaşıklık: basitleştirilmiş".

Kullanıcı deneyimi

Kullanıcı deneyimi, güven oluşturmak ve kalibre etmek için geniş bir oyun alanı sunar. Deneyebileceğiniz bazı teknikler ve kalıplar:

  • Eğitsel içerikleri uyarlama Kullanıcılarınızın yapay zeka konusunda bilgili olduğunu varsaymayın. Güçlü kullanıcılar için kısa ve öz, yeni başlayanlar için ise ayrıntılı açıklamalar sunun.
  • Aşamalı ifşa uygulayın. Küçük ipuçlarıyla başlayın. "Bu içerik otomatik olarak oluşturuldu" gibi yapay zeka kullandığınızı belirten bir metin ekleyin ve kullanıcıların daha fazla bilgi için tıklamasına izin verin.
  • Görünür sonuçlarla geri bildirim döngülerini kapatın. Kullanıcılar bir yapay zeka önerisini değerlendirdiğinde, düzelttiğinde veya geçersiz kıldığında, girişlerinin gelecekteki davranışları nasıl şekillendirdiğini paylaşın: "Kısa yanıtları tercih ettiniz. Tonu buna göre ayarladım." Görünürlük, geri bildirimi güvene dönüştürür.
  • Hataları düzgün şekilde yönetin. Sisteminiz hata yaptığında veya düşük güvenilirlikli bir sonuç verdiğinde bunu kabul edin ve inceleme görevini kullanıcıya devredin. Örneğin, "Bu öneri, amacınızla eşleşmeyebilir. Yayınlamadan önce inceleyin." Kullanıcının yeniden denemesine, düzenlemesine veya güvenli bir geri dönüşe dönmesine izin vererek net bir yol sunun.

Kısacası, yapay zekanın belirsizliğini ve hata yapma potansiyelini gidermek için kullanıcıları şüphe veya aşırı güven yerine doğru güven kalibrasyonuna yönlendirin:

  • Veriler: Veri kaynağı konusunda şeffaf olun.
  • Zeka: Muhakemeyi modüler ve açıklanabilir hale getirin.
  • UX: Aşamalı netlik ve geri bildirim için tasarım yapın.

Önemli noktalar

Bu modülde, sorumlu yapay zekanın üç temel dayanağı olan gizlilik, adalet ve güveni inceledik. Bu durum, özellikle işe yeni başlıyorsanız veya prototipten üretime geçmeye çalışıyorsanız bunaltıcı olabilir.

Çalışmalarınızı en kritik alanlara odaklayın ve yapay zeka yönetimiyle ilgili kendi yaklaşımınızı tanımlayın. Yineleme önemlidir. Her sürüm ve kullanıcı geri bildirimi turu, sisteminizin hangi alanlarda daha fazla koruma, şeffaflık veya esnekliğe ihtiyaç duyduğunu daha iyi anlamanızı sağlar.

Kaynaklar

Bu modülde yer alan konularla ilgili daha ileri düzeydeki bazı kaynakları aşağıda bulabilirsiniz:

Kaynaklar

Bu modülde yer alan konularla ilgili daha ileri düzeydeki bazı kaynakları aşağıda bulabilirsiniz:

Anlayıp anlamadığınızı kontrol etme

Yapay zeka için veri toplama konusunda önerilen gizlilik uygulaması nedir?

Daha sonra ihtiyacınız olabileceği ihtimaline karşı mümkün olduğunca fazla veri toplayın.
Yanlış cevap.
Yalnızca öğrenme için gerekenleri toplayın ve tüm kimliği tanımlayabilecek bilgileri kaldırın.
Doğru cevap, bravo!
Uzun vadeli trendleri izlemek için tüm günlükleri süresiz olarak saklayın.
Yanlış cevap. Günlükler hiçbir zaman süresiz olarak saklanmamalıdır.

Ölçülü güven nedir?

Kullanıcılar yapay zekanın her zaman doğru olduğuna güvendiğinde
Tekrar deneyin.
Kullanıcılar, güvenmedikleri için yapay zekayı kullanmayı reddettiğinde
Tekrar deneyin.
Kullanıcıların verimlilik için yapay zekaya güvendiği ancak sonuçları yine de doğruladığı orta yol.
Doğru cevap, bravo!
Kullanıcı ile geliştirici arasındaki yasal sözleşme.
Tekrar deneyin.

"Zeka" katmanında adil bir deneyim sağlamak için geliştiriciler ne yapabilir?

Eğitim verilerinin tarafsız olduğunu varsayma
Tekrar deneyin.
Veritabanındaki tüm demografik verileri kaldırın.
Tekrar deneyin.
Birden fazla çıkış oluşturun ve bunları tarafsızlık ve çeşitliliğe göre sıralayın.
Doğru cevap, bravo!
Yalnızca modelin varsayılan davranışına güvenmeyin.
Tekrar deneyin.

Güven ve şeffaflık oluşturmak için kullanılan kullanıcı deneyimi tekniği nedir?

Küçük ipuçlarıyla başlayın ve ek bilgiler için bağlantılar (ör. ipucu) sunun.
Doğru cevap, bravo!
Tüm karmaşıklığı ve mantığı kullanıcıdan gizleme
Pek doğru değil. Kullanıcıyı bunaltmaktan kaçınmanız gerekse de bazı kullanıcılar daha fazla bilgi edinmek isteyebilir.
Yapay zeka özelliğini tüm kullanıcılar için zorunlu kılın.
Yanlış cevap.
Model davranışını değiştirin ancak kullanıcıyı bilgilendirmeyin. Bildirimler kafa karıştırıcı.
Yanlış cevap. Değişiklik kullanıcının deneyimini etkiliyorsa kullanıcıyı bilgilendirmeniz gerekebilir.