एआई गवर्नेंस: ज़िम्मेदारी के साथ एआई बनाना

आपके डिज़ाइन से जुड़े फ़ैसलों से, सीधे तौर पर आपके एआई सिस्टम की ज़िम्मेदारी और सुरक्षा तय होती है. उदाहरण के लिए, आपके पास यह तय करने का विकल्प होता है कि डेटा सोर्स कैसे चुने जाएं, मॉडल के व्यवहार को कैसे कॉन्फ़िगर किया जाए या उपयोगकर्ताओं को एआई के आउटपुट कैसे दिखाए जाएं. इन विकल्पों का आपके उपयोगकर्ताओं और आपकी कंपनी पर असल दुनिया में असर पड़ता है.

इस मॉड्यूल में, हम एआई गवर्नेंस के तीन अहम डाइमेंशन के बारे में बताते हैं:

  • निजता: डेटा को ज़िम्मेदारी के साथ मैनेज करें. यह बताएं कि कौनसा डेटा इकट्ठा किया जाता है. साथ ही, ब्राउज़र से बाहर जाने वाले डेटा को कम से कम करें.
  • निष्पक्षता: अपने मॉडल की जांच करें, ताकि यह पता चल सके कि वे भेदभाव (पूर्वाग्रह) तो नहीं कर रहे हैं. साथ ही, ऐसे लूप बनाएं जिनकी मदद से उपयोगकर्ता समस्याओं के बारे में शिकायत कर सकें.
  • भरोसा और पारदर्शिता: अपने सिस्टम को इस तरह से डिज़ाइन करें कि वह पारदर्शी हो और उस पर भरोसा किया जा सके. इससे, अनिश्चितता और संभावित गलतियों के बावजूद, लोगों को इसका फ़ायदा मिलता रहेगा.

हम हर विषय के लिए यह बताते हैं कि वह एआई के अलग-अलग प्रॉडक्ट में किस तरह दिखता है. इसके बाद, हम इसे आपके एआई समाधान की तीन लेयर में बांटते हैं: डेटा, इंटेलिजेंस, और उपयोगकर्ता अनुभव. आपको यह जानकारी मिलेगी कि किन बातों का ध्यान रखना है, समस्याओं को कैसे हल करना है, और असरदार, लेकिन आसान तरीके से निगरानी कैसे करनी है.

निजता

आपने जाना कि इस्तेमाल और इंटरैक्शन का असली डेटा, किसी भी एआई सिस्टम का मुख्य हिस्सा होता है. डेटा की मदद से, नई टेक्नोलॉजी सीखने, आकलन करने, और सेवाओं को लगातार बेहतर बनाने में मदद मिलती है. निजता से जुड़े सही तरीकों का इस्तेमाल करके, डेटा को सुरक्षित रखा जा सकता है. साथ ही, उपयोगकर्ताओं को उनकी जानकारी को कंट्रोल करने का विकल्प दिया जा सकता है.

आपके प्रॉडक्ट और दर्शकों के हिसाब से, निजता से जुड़ी उम्मीदें अलग-अलग हो सकती हैं. उपभोक्ताओं के लिए उपलब्ध प्रॉडक्ट में, लोगों की व्यक्तिगत पहचान से जुड़ी जानकारी (पीआईआई) को सुरक्षित रखने की उम्मीद की जाती है. जैसे, नाम, मैसेज, और ब्राउज़िंग का तरीका. Enterprise की सेटिंग में, डेटा की संप्रभुता, गोपनीयता, और बौद्धिक संपत्ति की सुरक्षा पर फ़ोकस किया जाता है.

ऐसे सेक्टर जो लोगों की आजीविका या सेहत पर असर डालते हैं, उनमें निजता की सुरक्षा के लिए ज़्यादा कड़े नियमों की ज़रूरत होती है. जैसे, हेल्थकेयर, फ़ाइनेंस, और शिक्षा. वहीं, मनोरंजन जैसे कम जोखिम वाले सेक्टर में निजता की सुरक्षा के लिए कम कड़े नियमों की ज़रूरत होती है.

आइए, देखते हैं कि एआई सिस्टम के अलग-अलग कॉम्पोनेंट में निजता को कैसे मैनेज किया जा सकता है.

Data

अपने एआई सिस्टम को लगातार बेहतर बनाने के लिए, उपयोगकर्ता के इंटरैक्शन से जुड़ा डेटा इकट्ठा किया जा सकता है. इसमें इनपुट, आउटपुट, सुझाव/राय/शिकायत, और गड़बड़ियां शामिल हैं. इस जानकारी का फिर से इस्तेमाल किया जा सकता है. जैसे, आकलन करने, मॉडल को बेहतर बनाने या प्रॉम्प्ट में कुछ उदाहरण देने के लिए. इससे आपको UX डिज़ाइन के बारे में भी जानकारी मिल सकती है.

ज़िम्मेदारी के साथ डेटा इकट्ठा करने के लिए, यहां कुछ दिशा-निर्देश दिए गए हैं:

  • सिर्फ़ उतनी जानकारी इकट्ठा करें जितनी सीखने के लिए ज़रूरी है. AI की मदद से प्रॉडक्ट खोजने की सुविधा को बेहतर नतीजे देने के लिए, उपयोगकर्ता की पूरी प्रोफ़ाइल की ज़रूरत नहीं पड़ सकती. ज़्यादातर मामलों में, क्वेरी, क्लिक पैटर्न, और पहचान छिपाकर रखे गए सेशन का डेटा देना काफ़ी होता है.
  • संवेदनशील जानकारी हटाना. डेटा को बाहरी मॉडल को भेजने से पहले, सभी पीआईआई (व्यक्तिगत पहचान से जुड़ी जानकारी) हटाएं. इसके लिए, पहचान छिपाने, छद्म पहचान का इस्तेमाल करने या एग्रीगेशन का इस्तेमाल किया जा सकता है.
  • निजी डेटा के रखरखाव की सीमा. जब लॉग और कैश डेटा का काम पूरा हो जाए, तो उन्हें मिटा दें. डेटा को कम समय तक सेव रखने से, जोखिम कम हो जाता है. साथ ही, अहम जानकारी भी नहीं रुकती.

इस बात का दस्तावेज़ बनाएं कि आपने कौनसी जानकारी इकट्ठा की है, उसे कब तक सेव रखा है, और उसकी ज़रूरत क्यों है. अगर किसी ऐसे व्यक्ति को डेटा फ़्लो के बारे में साफ़ तौर पर नहीं बताया जा सकता जिसे तकनीकी जानकारी नहीं है, तो हो सकता है कि फ़्लो को कंट्रोल करना या उसके बारे में सही जानकारी देना बहुत मुश्किल हो.

इंटेलिजेंस

जब लोग आपके एआई सिस्टम के साथ इंटरैक्ट करते हैं, तो वे अनजाने में या लापरवाही से निजी या संवेदनशील जानकारी डाल सकते हैं. यह जोखिम, खास तौर पर ओपन-एंडेड चैट या लिखने वाले इंटरफ़ेस में ज़्यादा होता है. इनमें, उपयोगकर्ताओं के टाइप किए गए कॉन्टेंट को सीमित नहीं किया जा सकता.

आपके पास कुछ शब्दों को भेजे जाने से रोकने का विकल्प होता है. हालांकि, यह जानकारी संदर्भ के हिसाब से संवेदनशील हो सकती है. अगर आपका मॉडल किसी सर्वर पर चलता है और उसे कोई बाहरी कंपनी मैनेज करती है, तो वह उपयोगकर्ता के इनपुट का इस्तेमाल ट्रेनिंग डेटा के तौर पर कर सकती है. ऐसा होने पर, मॉडल अन्य लोगों को निजी टेक्स्ट, क्रेडेंशियल या अन्य गोपनीय जानकारी के कुछ हिस्से दिखा सकता है.

अनुमान लगाने के दौरान, निजता के उल्लंघन से बचने का तरीका यहां बताया गया है:

  • तीसरे पक्ष के एपीआई की सावधानीपूर्वक जांच करें. आपको यह पता होना चाहिए कि भेजे गए डेटा का क्या होता है. क्या इनपुट को लॉग किया जाता है, सेव करके रखा जाता है या ट्रेनिंग के लिए फिर से इस्तेमाल किया जाता है? पारदर्शिता न रखने वाली सेवाओं से बचें. साथ ही, उन सेवा देने वाली कंपनियों को प्राथमिकता दें जिनकी नीतियां और कंट्रोल पारदर्शी हों.

  • अगर आपको मॉडल को खुद ट्रेन करना है या उसे बेहतर बनाना है, तो ट्रेनिंग डेटा में संवेदनशील जानकारी शामिल न करें. शॉर्टकट से सीखने से बचें. उदाहरण के लिए, क्रेडिट स्कोर के आवेदन में पिन कोड से मॉडल को जाति या सामाजिक-आर्थिक स्थिति के बारे में अनुमान लगाने में मदद मिल सकती है. इस वजह से, गलत अनुमान लगाए जा सकते हैं और मौजूदा असमानताएं और बढ़ सकती हैं.

  • संवेदनशील डोमेन में, क्लाइंट-साइड इन्फ़रेंस को प्राथमिकता दें. यह पहले से मौजूद एआई, ब्राउज़र में मौजूद मॉडल या कस्टम क्लाइंट-साइड मॉडल की मदद से किया जा सकता है. इस विकल्प के बारे में ज़्यादा जानने के लिए, अगला मॉड्यूल देखें. इस मॉड्यूल का नाम है, प्लैटफ़ॉर्म चुनना.

उपयोगकर्ता अनुभव

आपके ऐप्लिकेशन का इंटरफ़ेस, लोगों को यह दिखाने का मौका देता है कि क्या हो रहा है. इससे उनका भरोसा जीता जा सकता है और उन्हें अपने डेटा पर कंट्रोल दिया जा सकता है:

  • पारदर्शिता बनाए रखें. आपके इंटरफ़ेस में मौजूद छोटे-छोटे लेबल, जैसे कि "स्थानीय तौर पर प्रोसेस किया गया" या "विश्लेषण के लिए सुरक्षित तरीके से भेजा गया" से लोगों का भरोसा जीता जा सकता है. ज़्यादा जानकारी के लिए, प्रोग्रेसिव डिसक्लोज़र जोड़ने पर विचार करें. जैसे, टूलटिप से यह पता चलता है कि डिवाइस पर विश्लेषण कब होता है और सर्वर पर कब होता है.
  • कॉन्टेक्स्ट के हिसाब से सवाल पूछें. जब ज़रूरी हो, तब सहमति का अनुरोध करें. "क्या आपको सुझावों को बेहतर बनाने के लिए, पिछली खोजों को शेयर करना है?" यह सवाल, ऑप्ट-इन करने के लिए दिए गए सामान्य विकल्प से ज़्यादा काम का है.
  • आसान कंट्रोल उपलब्ध कराएं. मनमुताबिक़ अनुभव पाने, क्लाउड पर आधारित सुविधाओं या डेटा शेयर करने के लिए, साफ़ तौर पर दिखने वाले टॉगल जोड़ें.
  • किसको दिखे. एक छोटा निजता डैशबोर्ड शामिल करें, ताकि उपयोगकर्ता ऐप्लिकेशन से बाहर निकले बिना अपना डेटा मैनेज कर सकें.
  • डेटा इकट्ठा करने की वजह बताएं. अगर उपयोगकर्ताओं को यह पता हो कि उनके डेटा का इस्तेमाल कैसे किया जाएगा, तो वे उसे शेयर करने के लिए ज़्यादा तैयार हो सकते हैं. निजी डेटा के रखरखाव और उसे मैनेज करने की नीतियों पर भी यही लागू होता है.

वेब एआई में निजता, अनुपालन का सिर्फ़ एक चरण नहीं है. यह डिज़ाइन से जुड़ी एक ऐसी सोच है जो लगातार चलती रहती है:

  • डेटा: कम डेटा इकट्ठा करें और ज़्यादा सुरक्षा करें.
  • इंटेलिजेंस: बाहरी मॉडल के ज़रिए, संभावित रूप से संवेदनशील डेटा को याद रखने की समस्या को कम करना.
  • UX: उपयोगकर्ताओं के लिए, निजता से जुड़ी जानकारी को पारदर्शी बनाएं और उन्हें निजता सेटिंग को कंट्रोल करने का विकल्प दें.

निष्पक्षता

एआई सिस्टम में पूर्वाग्रह हो सकता है, जिससे गलत भेदभाव हो सकता है. यह बात खास तौर पर भर्ती, कानून, और फ़ाइनेंस जैसे डोमेन में सही है. इन डोमेन में पूर्वाग्रह की वजह से, ऐसे अहम फ़ैसले गलत हो सकते हैं जिनका असर सीधे तौर पर लोगों पर पड़ता है.

उदाहरण के लिए, भर्ती के पुराने डेटा के आधार पर ट्रेन किया गया हायरिंग मॉडल, कुछ डेमोग्राफ़िक सुविधाओं को उम्मीदवार की कम क्वालिटी से जोड़ सकता है. इससे, कम प्रतिनिधित्व वाले ग्रुप के आवेदकों को अनजाने में दंडित किया जा सकता है. इसके बजाय, मॉडल को नौकरी से जुड़ी ज़रूरी स्किल और अनुभव का आकलन करना चाहिए.

Data

आपका ट्रेनिंग डेटा, जानकारी के अलग-अलग हिस्सों का एक सेट होता है. इसमें असल दुनिया के पूर्वाग्रह दिख सकते हैं. साथ ही, नए पूर्वाग्रह भी शामिल हो सकते हैं. डेटा से जुड़े पूर्वाग्रह को पारदर्शी और मैनेज करने के लिए, यहां कुछ व्यावहारिक तरीके दिए गए हैं:

  • अपने डेटा सोर्स और कवरेज के बारे में जानकारी दें. एक छोटा सा स्टेटमेंट पब्लिश करें, ताकि लोगों को यह पता चल सके कि मॉडल किन मामलों में सटीक जवाब नहीं दे सकता. उदाहरण के लिए, "इस मॉडल को मुख्य रूप से अंग्रेज़ी भाषा के कॉन्टेंट पर ट्रेन किया गया है. इसमें तकनीकी टेक्स्ट का इस्तेमाल सीमित तौर पर किया गया है."
  • गड़बड़ी की जांच करें. सिस्टमैटिक अंतर का पता लगाने के लिए, A/B टेस्ट का इस्तेमाल करें. उदाहरण के लिए, तुलना करें कि आपका सिस्टम "वह एक बेहतरीन लीडर है", "वह एक बेहतरीन लीडर है", और "वे एक बेहतरीन लीडर हैं" को कैसे हैंडल करता है. भावना या लहजे में मामूली अंतर से, गहरे पूर्वाग्रह का पता चल सकता है.
  • अपने डेटासेट को लेबल करें. हल्का मेटाडेटा जोड़ें. जैसे, डोमेन, क्षेत्र, और फ़ॉर्मेलिटी लेवल. इससे आने वाले समय में ऑडिट, फ़िल्टर करने, और फिर से बैलेंस करने की प्रोसेस आसान हो जाएगी.

अगर कस्टम मॉडल को ट्रेनिंग दी जा रही है या उन्हें बेहतर बनाया जा रहा है, तो अपने डेटासेट को बैलेंस करें. मॉडल बनाने के बाद पूर्वाग्रह को ठीक करने के बजाय, अलग-अलग तरह के डेटा का इस्तेमाल करने से, डेटा में मौजूद अंतर को ज़्यादा असरदार तरीके से कम किया जा सकता है.

इंटेलिजेंस

इंटेलिजेंस लेयर में, पूर्वाग्रह को सीखी गई आदत में बदल दिया जाता है. निष्पक्षता और समावेशिता को बढ़ावा देने के लिए, आउटपुट में ये चीज़ें जोड़ी जा सकती हैं:

  • पक्षपात की जांच नियमित तौर पर करें. पक्षपात का पता लगाने वाले फ़िल्टर का इस्तेमाल करके, समस्या पैदा करने वाले शब्दों या वाक्यांशों को फ़्लैग करें. जैसे, लिंग के आधार पर इस्तेमाल किए गए शब्दों या भेदभाव वाली टोन का पता लगाना. समय के साथ ड्रिफ़्ट होने की समस्या पर नज़र रखें.
  • अनुमानित मॉडल के लिए, संवेदनशील डेटा का इस्तेमाल करते समय सावधानी बरतें. ज़िप कोड, शिक्षा या आय जैसे एट्रिब्यूट, संवेदनशील विशेषताओं को परोक्ष रूप से कोड कर सकते हैं. जैसे, जाति या वर्ग.
  • एक से ज़्यादा आउटपुट जनरेट करना और उनकी तुलना करना. उपयोगकर्ता के साथ कौनसा जवाब शेयर करना है, यह तय करने से पहले, जवाबों को निष्पक्षता, विविधता, और टोन के आधार पर रैंक करें.
  • निष्पक्षता से जुड़ी पाबंदियां लागू करने के लिए नियम जोड़ें. उदाहरण के लिए, ऐसे आउटपुट को ब्लॉक करना जो स्टीरियोटाइप को बढ़ावा देते हैं या जिनमें अलग-अलग उदाहरण नहीं दिए गए हैं.

उपयोगकर्ता अनुभव

अपने यूज़र इंटरफ़ेस में, मॉडल के जवाब देने की वजह के बारे में साफ़ तौर पर बताएं. साथ ही, लोगों को सुझाव/राय देने या शिकायत करने के लिए बढ़ावा दें:

  • एआई के आउटपुट के लिए तर्क देना. उदाहरण के लिए, "आपके पिछले इनपुट के आधार पर, प्रोफ़ेशनल टोन में जवाब देने का सुझाव दिया गया है*." इससे उपयोगकर्ताओं को यह पता चलता है कि सिस्टम, तय किए गए लॉजिक को फ़ॉलो करता है, न कि किसी छिपे हुए फ़ैसले को.
  • उपयोगकर्ताओं को काम के कंट्रोल देना. उन्हें सेटिंग या प्रॉम्प्ट के ज़रिए, मॉडल के व्यवहार में बदलाव करने की अनुमति दें. उदाहरण के लिए, टोन, जटिलता या विज़ुअल स्टाइल की प्राथमिकताएं चुनना.
  • पूर्वाग्रह या गलत जानकारी की शिकायत करना आसान बनाएं. किसी समस्या को फ़्लैग करना जितना आसान होगा, आपको उतना ही ज़्यादा असल डेटा मिलेगा. इससे आपको अपने एआई सिस्टम को बेहतर बनाने में मदद मिलेगी.
  • बातचीत आगे न बढ़ाएं. उपयोगकर्ता की शिकायतें गायब न होने दें. इस डेटा को फिर से ट्रेनिंग देने या नियम के लॉजिक में शामिल करें. साथ ही, साफ़ तौर पर बताएं कि क्या बदलाव किए गए हैं: "हमने सुझावों में सांस्कृतिक पूर्वाग्रह को कम करने के लिए, कॉन्टेंट की निगरानी करने के तरीके को अपडेट किया है."

डेटा में मौजूद पूर्वाग्रह, मॉडल के ज़रिए बढ़ता है और उपयोगकर्ता अनुभव में दिखता है. इसे अपने एआई सिस्टम के तीनों लेवल पर ठीक किया जा सकता है:

  • डेटा: डेटा सोर्स को पारदर्शी और संतुलित बनाएं.
  • इंटेलिजेंस: जवाबों में पूर्वाग्रह का पता लगाना, उसकी जांच करना, और उसे कम करना.
  • उपयोगकर्ता अनुभव: उपयोगकर्ताओं को कंट्रोल और सुझाव/राय देने या शिकायत करने की सुविधा देकर, पक्षपात का पता लगाने और उसे ठीक करने में मदद करना.

भरोसा और पारदर्शिता

भरोसे से यह तय होता है कि लोग आपके प्रॉडक्ट का इस्तेमाल करेंगे, उसे अपनाएंगे, और उसके बारे में दूसरों को बताएंगे या नहीं.

ज़्यादातर उपयोगकर्ताओं को ऐसे ऐप्लिकेशन पसंद आते हैं जो उनके हिसाब से काम करते हैं. उदाहरण के लिए, बटन पर क्लिक करने से हमेशा वही कार्रवाई होती है जो बताई गई है. साथ ही, इससे उपयोगकर्ता को एक ही जगह पर ले जाया जाता है. एआई इस उम्मीद को तोड़ देता है, क्योंकि इसका व्यवहार बहुत अलग होता है और अक्सर इसका अनुमान नहीं लगाया जा सकता. इसके अलावा, एआई सिस्टम में गड़बड़ियां होने की संभावना भी होती है: लैंग्वेज मॉडल तथ्यों के बारे में गलत जानकारी देते हैं, अनुमान लगाने वाले मॉडल, डेटा को गलत तरीके से लेबल करते हैं, और एजेंट गलत तरीके से काम करते हैं.

इन गड़बड़ियों से बचने के लिए, आपके उपयोगकर्ताओं को आखिरी बार सूचना दी जाती है.

आपका लक्ष्य, उपयोगकर्ताओं को बीच में ले जाना होना चाहिए, ताकि वे भरोसेमंद तरीके से आगे बढ़ सकें. ज़रूरत से कम या ज़्यादा भरोसा करने से समस्याएं होती हैं.

शुरुआत में, ऐसा हो सकता है कि लोग आपके सिस्टम पर कम भरोसा करें या ज़्यादा भरोसा करें. कम भरोसा करने का मतलब है कि वे सिस्टम का इस्तेमाल नहीं करेंगे. वहीं, ज़्यादा भरोसा करने का मतलब है कि वे गड़बड़ियों की जांच किए बिना, आउटपुट को पूरी तरह से स्वीकार कर लेते हैं. आपका काम, लोगों को एआई पर भरोसे के बीच के स्तर पर लाना है. इस स्तर पर, लोग एआई पर भरोसा करते हैं, लेकिन फ़ाइनल नतीजों की ज़िम्मेदारी अब भी उनकी होती है.

Data

डेटा लेयर में, डेटा के कवरेज और सोर्स के बारे में साफ़ तौर पर जानकारी देकर भरोसा बनाया जाता है:

  • डेटा के ऑरिजिन और लीनेज के बारे में साफ़ तौर पर बताएं.
  • दस्तावेज़ में मौजूद डेटा के अपडेट होने की फ़्रीक्वेंसी और पुराना डेटा.
  • बताएं कि मॉडल ने किस तरह का कॉन्टेंट देखा है और मॉडल को कहां मुश्किल हो सकती है. जैसे, अंग्रेज़ी के अलावा किसी और भाषा का डेटा.

समय के साथ, आपके एआई सिस्टम को इंटरैक्शन और सुझाव/राय या शिकायतें मिलती रहती हैं. इसलिए, डेटा के वर्शन वाले स्नैपशॉट बनाए रखें, ताकि यह बताया जा सके कि आउटपुट कैसे बेहतर हुए.

इंटेलिजेंस

इंटेलिजेंस लेयर में, भरोसे को मैनेज किया जा सकता है. इसके लिए, इन सुविधाओं का इस्तेमाल करें:

  • कॉन्टेक्स्ट के हिसाब से, तुरंत जवाब देना. ऐक्टिव यूज़र के विरोधाभास के मुताबिक, आपको संदर्भ के हिसाब से छोटे-छोटे जवाबों को सीधे तौर पर इंटरैक्शन में एम्बेड करना चाहिए, ताकि उपयोगकर्ताओं को यह समझ में आए कि एआई सिस्टम उनका इस्तेमाल करते समय क्या कर रहा है.
  • सीमाओं और गड़बड़ियों के बारे में पहले से ही बता दें. उपयोगकर्ताओं को बताएं कि एआई कहां गलती कर सकता है. उदाहरण के लिए, "बेहतर नतीजे पाने के लिए, जवाब में हंसी-मज़ाक या डोमेन से जुड़ी तकनीकी शब्दावली का इस्तेमाल न करें." कॉन्टेक्स्ट के हिसाब से छोटे-छोटे संकेत देने से, लोगों को जानकारी मिलती है और वीडियो देखने का फ़्लो भी बना रहता है.
  • भरोसेमंद होने के इंडिकेटर और फ़ॉलबैक लॉजिक की मदद से, एआई को अनिश्चितता के समय भी भरोसेमंद बनाए रखा जाता है. भरोसे का अनुमान लगाने के लिए, प्रॉक्सी का इस्तेमाल किया जा सकता है. जैसे, संभावना स्कोर या पिछले कैंपेन की सफलता दरें. ऐसे आउटपुट के लिए सुरक्षित फ़ॉलबैक तय करें जो साफ़ तौर पर गलत हैं.
  • मॉड्यूलर आर्किटेक्चर की वजह से, एआई ज़्यादा पारदर्शी हो जाता है. उदाहरण के लिए, अगर कोई राइटिंग असिस्टेंट व्याकरण, स्टाइल, और टोन को अलग-अलग चरणों में हैंडल करता है, तो बताएं कि हर चरण में क्या बदलाव हुआ: "टोन: कम औपचारिक; जटिलता: आसान बनाई गई".

उपयोगकर्ता अनुभव

उपयोगकर्ता अनुभव से आपको लोगों का भरोसा जीतने और उसे बनाए रखने का मौका मिलता है. यहां कुछ तकनीकें और पैटर्न दिए गए हैं, जिन्हें आज़माया जा सकता है:

  • शिक्षा से जुड़े कॉन्टेंट में बदलाव करना. यह न मान लें कि आपके उपयोगकर्ताओं को एआई के बारे में जानकारी है. ज़्यादातर उपयोगकर्ताओं के लिए, कम शब्दों में जानकारी दें. साथ ही, नए उपयोगकर्ताओं के लिए पूरी जानकारी दें.
  • धीरे-धीरे जानकारी ज़ाहिर करना. छोटे-छोटे संकेतों से शुरुआत करें. ऐसी कॉपी शामिल करें जिसमें यह बताया गया हो कि आपने एआई का इस्तेमाल किया है. जैसे, "यह अपने-आप जनरेट हुआ है". साथ ही, उपयोगकर्ताओं को ज़्यादा जानकारी पाने के लिए क्लिक करने का विकल्प दें.
  • नतीजे दिखने पर, सुझाव/राय देने या शिकायत करने की प्रोसेस पूरी करें. जब उपयोगकर्ता, एआई के सुझाव को रेटिंग देते हैं, उसे सही करते हैं या खारिज करते हैं, तो उन्हें यह जानकारी दें कि उनके इनपुट से, एआई के सुझाव देने के तरीके पर क्या असर पड़ेगा: "आपने कम शब्दों में जवाब देने का विकल्प चुना है. इसलिए, बातचीत के अंदाज़ को उसी हिसाब से अडजस्ट किया गया है." ज़्यादा लोगों को जानकारी दिखाने से, उपयोगकर्ताओं का भरोसा बढ़ता है.
  • गड़बड़ियों को आसानी से ठीक करें. जब आपका सिस्टम कोई गलती करता है या कम भरोसे वाला नतीजा देता है, तो उसे स्वीकार करें और समीक्षा करने का काम उपयोगकर्ता को सौंपें. उदाहरण के लिए, "ऐसा हो सकता है कि यह सुझाव आपके मकसद से मेल न खाए. पब्लिश करने से पहले समीक्षा करें." उपयोगकर्ता को फिर से कोशिश करने, बदलाव करने या सुरक्षित फ़ॉलबैक पर वापस जाने की अनुमति देकर, आगे बढ़ने का एक आसान तरीका उपलब्ध कराएं.

संक्षेप में कहें, तो एआई के बारे में अनिश्चितता और इसमें गड़बड़ी होने की संभावना को दूर करने के लिए, उपयोगकर्ताओं को इस तरह से गाइड करें कि वे एआई पर ज़रूरत से ज़्यादा भरोसा न करें और न ही इस पर शक करें. इसके बजाय, वे एआई पर सही तरीके से भरोसा करें:

  • डेटा: डेटा के सोर्स के बारे में पारदर्शिता बनाए रखें.
  • इंटेलिजेंस: जवाब को मॉड्यूलर बनाएं और उसके बारे में जानकारी दें.
  • UX: प्रोग्रेसिव क्लैरिटी और फ़ीडबैक के लिए डिज़ाइन.

आपके लिए अहम जानकारी

इस मॉड्यूल में, हमने ज़िम्मेदारी के साथ एआई का इस्तेमाल करने के तीन मुख्य पहलुओं के बारे में जाना. ये पहलू हैं: निजता, निष्पक्षता, और भरोसा. यह जानकारी बहुत ज़्यादा लग सकती है. ऐसा खास तौर पर तब होता है, जब आपने अभी-अभी शुरुआत की हो या आपको प्रोटोटाइप से प्रोडक्शन पर स्विच करना हो.

सबसे ज़रूरी पहलुओं पर ध्यान दें और एआई के इस्तेमाल से जुड़े नियमों को लागू करने के लिए, अपना तरीका तय करें. एक ही तरह के वीडियो दोहराने की रणनीति अपनाएं. हर रिलीज़ और उपयोगकर्ता से मिले सुझावों के आधार पर, आपको यह समझने में मदद मिलेगी कि आपके सिस्टम को कहां ज़्यादा सुरक्षा, पारदर्शिता या लचीलेपन की ज़रूरत है.

संसाधन

इस मॉड्यूल में शामिल विषयों के बारे में ज़्यादा जानने के लिए, यहां कुछ और संसाधन दिए गए हैं:

संसाधन

इस मॉड्यूल में शामिल विषयों के बारे में ज़्यादा जानने के लिए, यहां कुछ और संसाधन दिए गए हैं:

देखें कि आपको कितना समझ आया

एआई के लिए डेटा इकट्ठा करने के बारे में, निजता की सुरक्षा से जुड़ा कौनसा तरीका अपनाने का सुझाव दिया जाता है?

ज़्यादा से ज़्यादा डेटा इकट्ठा करें, ताकि बाद में आपको इसकी ज़रूरत पड़े, तो यह आपके पास उपलब्ध हो.
गलत जवाब.
सिर्फ़ वह डेटा इकट्ठा करें जिसकी ज़रूरत सीखने के लिए है. साथ ही, सभी निजी पहचान से जुड़ी जानकारी (पीआईआई) हटाएं.
बहुत बढ़िया, यह सही है!
लंबे समय के रुझानों को ट्रैक करने के लिए, सभी लॉग हमेशा के लिए सेव रखें.
गलत जवाब. लॉग को कभी भी हमेशा के लिए सेव नहीं किया जाना चाहिए.

कैलिब्रेटेड ट्रस्ट क्या है?

जब उपयोगकर्ता हमेशा यह मानते हैं कि एआई से मिला जवाब सही है.
फिर से कोशिश करें.
जब उपयोगकर्ता, एआई का इस्तेमाल करने से मना कर देते हैं, क्योंकि उन्हें इस पर भरोसा नहीं होता.
फिर से कोशिश करें.
यह एक ऐसा तरीका है जिसमें उपयोगकर्ता, काम को बेहतर तरीके से करने के लिए एआई पर भरोसा करते हैं. हालांकि, वे नतीजों की पुष्टि भी करते हैं.
बहुत बढ़िया, यह सही है!
उपयोगकर्ता और डेवलपर के बीच एक कानूनी समझौता.
फिर से कोशिश करें.

"इंटेलिजेंस" लेयर में निष्पक्षता बनाए रखने के लिए, डेवलपर क्या कार्रवाई कर सकते हैं?

मान लें कि ट्रेनिंग डेटा में कोई पक्षपात नहीं किया गया है.
फिर से कोशिश करें.
डेटाबेस से डेमोग्राफ़िक (उम्र, लिंग, आय, शिक्षा वगैरह) का पूरा डेटा हटाना.
फिर से कोशिश करें.
कई आउटपुट जनरेट करना और उन्हें निष्पक्षता और विविधता के आधार पर रैंक करना.
बहुत बढ़िया, यह सही है!
सिर्फ़ मॉडल के डिफ़ॉल्ट व्यवहार पर भरोसा करना.
फिर से कोशिश करें.

भरोसा और पारदर्शिता बढ़ाने के लिए, UX की कौनसी तकनीक का इस्तेमाल किया जाता है?

शुरुआत में छोटे-छोटे संकेत दें और ज़्यादा जानकारी के लिंक उपलब्ध कराएं. जैसे, टूलटिप.
बहुत बढ़िया, यह सही है!
उपयोगकर्ता से सभी जटिलताएं और लॉजिक छिपाना
गलत जवाब. आपको उपयोगकर्ता को बहुत ज़्यादा जानकारी नहीं देनी चाहिए. हालांकि, कुछ लोग ज़्यादा जानकारी पाना चाहेंगे.
सभी उपयोगकर्ताओं के लिए, एआई की सुविधा को इस्तेमाल करना ज़रूरी बनाएं.
गलत जवाब.
मॉडल के व्यवहार में बदलाव करें, लेकिन उपयोगकर्ता को इसकी सूचना न दें. सूचनाएं समझने में मुश्किल होती हैं.
गलत जवाब. अगर बदलाव से उपयोगकर्ता अनुभव पर असर पड़ता है, तो आपको उपयोगकर्ता को इसकी सूचना देनी पड़ सकती है.