Tata kelola AI: Membangun secara bertanggung jawab

Keputusan desain Anda secara langsung membentuk tanggung jawab dan keamanan sistem AI Anda. Misalnya, Anda memutuskan cara memilih sumber data, mengonfigurasi perilaku model, atau menyajikan output AI kepada pengguna. Pilihan ini memiliki konsekuensi nyata bagi pengguna dan perusahaan Anda.

Dalam modul ini, kita akan membahas tiga dimensi penting tata kelola AI:

  • Privasi: Tangani data secara bertanggung jawab, jelaskan data yang dikumpulkan, dan minimalkan data yang keluar dari browser.
  • Keadilan: Periksa perilaku diskriminatif (bias) pada model Anda, dan buat loop yang memungkinkan pengguna melaporkan masalah.
  • Kepercayaan dan transparansi: Rancang sistem Anda agar transparan dan dapat dipercaya, sehingga pengguna terus mendapatkan manfaat darinya meskipun ada ketidakpastian dan potensi kesalahan.

Untuk setiap topik, kami menjelaskan bagaimana topik tersebut muncul dalam berbagai produk AI. Kemudian, kami membaginya di tiga lapisan solusi AI Anda: data, kecerdasan, dan pengalaman pengguna. Anda akan mempelajari hal-hal yang harus diperhatikan, cara mengatasi masalah, dan cara mempertahankan tata kelola yang efektif dan ringan.

Privasi

Anda mempelajari bahwa data penggunaan dan interaksi nyata adalah inti dari setiap sistem AI. Data mendukung pembelajaran, evaluasi, dan peningkatan berkelanjutan. Praktik privasi yang baik memungkinkan Anda menjaga keamanan data tersebut, tetapi juga memberi pengguna kontrol atas informasi mereka.

Ekspektasi privasi sangat bervariasi, bergantung pada produk dan audiens Anda. Pada produk konsumen, ekspektasi cenderung melibatkan perlindungan informasi identitas pribadi (PII) individu, seperti nama, pesan, dan perilaku penjelajahan. Dalam setelan perusahaan, fokusnya beralih ke kedaulatan, kerahasiaan, dan perlindungan kekayaan intelektual data.

Sektor yang memengaruhi mata pencarian atau kesejahteraan masyarakat, seperti kesehatan, keuangan, dan pendidikan, memerlukan perlindungan privasi yang lebih ketat daripada area berisiko lebih rendah, seperti hiburan.

Mari kita lihat cara privasi dapat dikelola di berbagai komponen sistem AI Anda.

Data

Untuk terus meningkatkan kualitas sistem AI Anda, Anda dapat mengumpulkan data tentang interaksi pengguna, termasuk input, output, masukan, dan error. Informasi ini dapat digunakan kembali untuk evaluasi, penyesuaian model, atau contoh few-shot dalam perintah. Hal ini juga dapat memengaruhi desain UX Anda.

Berikut adalah beberapa panduan untuk pengumpulan data yang bertanggung jawab:

  • Hanya kumpulkan data yang diperlukan untuk pembelajaran. Penelusuran produk yang didukung AI mungkin tidak memerlukan profil lengkap pengguna untuk meningkatkan hasil. Dalam sebagian besar kasus, cukup berikan kueri, pola klik, dan data sesi anonim.
  • Menghapus informasi sensitif. Hapus semua PII (Informasi Identitas Pribadi) sebelum mengirim data ke model eksternal. Anda dapat melakukannya dengan anonimisasi, pseudonimisasi, atau agregasi.
  • Batasi retensi. Hapus log dan data dalam cache setelah tujuannya tercapai. Siklus retensi yang singkat mengurangi risiko tanpa menghalangi insight.

Mendokumentasikan informasi yang Anda kumpulkan, berapa lama Anda menyimpannya, dan alasan informasi tersebut diperlukan. Jika Anda tidak dapat menjelaskan alur data Anda dengan jelas kepada pengguna non-teknis, alur tersebut mungkin terlalu rumit untuk dikontrol atau dibenarkan.

Kecerdasan

Saat berinteraksi dengan sistem AI Anda, pengguna mungkin tanpa sadar atau secara ceroboh memasukkan informasi pribadi atau sensitif. Risiko ini sangat tinggi dalam antarmuka penulisan atau chat terbuka, tempat Anda tidak dapat membatasi apa yang diketik pengguna.

Meskipun Anda dapat mencegah kata-kata tertentu dikirim, informasi ini mungkin sensitif secara kontekstual. Jika model Anda berjalan di server yang dikelola oleh penyedia eksternal, penyedia tersebut dapat menggunakan kembali input pengguna sebagai data pelatihan. Pada akhirnya, model tersebut dapat mengungkapkan fragmen teks pribadi, kredensial, atau detail rahasia lainnya kepada pengguna lain.

Berikut cara melindungi diri dari pelanggaran privasi selama inferensi:

  • Periksa API pihak ketiga dengan cermat. Anda harus mengetahui secara persis apa yang terjadi pada data yang Anda kirim. Apakah input dicatat, dipertahankan, atau digunakan kembali untuk pelatihan? Hindari layanan yang tidak transparan dan pilih penyedia dengan kebijakan dan kontrol yang transparan.

  • Jika Anda melatih atau menyempurnakan model sendiri, hindari detail sensitif dalam data pelatihan Anda. Waspadai pembelajaran instan. Misalnya, dalam aplikasi skor kredit, kode pos dapat membuat model membuat asumsi tentang ras atau status sosial ekonomi. Hal ini dapat menyebabkan prediksi yang tidak adil dan memperkuat ketidaksetaraan yang ada.

  • Di domain sensitif, lebih baik gunakan inferensi sisi klien. Hal ini dapat dilakukan dengan AI bawaan, model di browser, atau model sisi klien kustom. Anda akan mempelajari lebih lanjut pilihan ini di modul berikutnya, memilih platform.

Pengalaman pengguna

Antarmuka aplikasi Anda menawarkan kesempatan untuk menunjukkan kepada pengguna apa yang terjadi, mendapatkan kepercayaan mereka, dan memberi mereka kontrol atas data mereka:

  • Bersikaplah transparan. Label singkat di antarmuka Anda, seperti "Diproses secara lokal" atau "Dikirim dengan aman untuk dianalisis", dapat membantu Anda membangun kepercayaan. Pertimbangkan untuk menambahkan pengungkapan progresif untuk mengetahui detail selengkapnya, seperti tooltip yang menjelaskan kapan analisis terjadi di perangkat versus server.
  • Minta sesuai konteks. Minta izin jika relevan. "Apakah Anda ingin membagikan penelusuran sebelumnya untuk meningkatkan kualitas rekomendasi?" jauh lebih bermakna daripada persetujuan umum.
  • Menawarkan kontrol yang sederhana. Tambahkan tombol yang terlihat jelas untuk personalisasi, fitur berbasis cloud, atau berbagi data.
  • Memberikan visibilitas. Sertakan dasbor privasi kecil, sehingga pengguna dapat mengelola data mereka tanpa keluar dari aplikasi.
  • Jelaskan alasan Anda mengumpulkan data. Pengguna mungkin lebih bersedia membagikan data jika mereka memahami cara data tersebut akan digunakan. Hal yang sama berlaku untuk kebijakan retensi dan pengelolaan Anda.

Privasi dalam AI web bukanlah satu langkah kepatuhan, melainkan pola pikir desain yang berkelanjutan:

  • Data: Kumpulkan lebih sedikit dan lindungi lebih banyak.
  • Intelijensi: Memitigasi penghafalan data yang berpotensi sensitif oleh model eksternal.
  • UX: Jadikan privasi transparan dan dapat dikontrol oleh pengguna.

Keadilan

Sistem AI dapat membawa bias yang menyebabkan diskriminasi yang tidak adil. Hal ini terutama berlaku di domain seperti perekrutan, hukum, dan keuangan, di mana bias dapat memengaruhi keputusan penting yang secara langsung memengaruhi orang sungguhan.

Misalnya, model perekrutan yang dilatih dengan data perekrutan historis dapat mengaitkan fitur demografi tertentu dengan kualitas kandidat yang lebih rendah, sehingga secara tidak sengaja menghukum pelamar dari kelompok yang kurang terwakili, alih-alih mengevaluasi keterampilan dan pengalaman yang relevan dengan pekerjaan.

Data

Data pelatihan Anda adalah sekumpulan informasi yang terisolasi secara individual yang dapat mencerminkan bias dari dunia nyata, dan bahkan memperkenalkan bias baru. Berikut adalah langkah-langkah praktis untuk membuat bias terkait data menjadi transparan dan dapat dikelola:

  • Mendokumentasikan sumber data dan cakupan Anda. Publikasikan pernyataan singkat untuk membantu pengguna memahami kekurangan model. Misalnya, "Model ini dilatih terutama pada konten berbahasa Inggris, dengan representasi terbatas dari teks teknis."
  • Jalankan pemeriksaan diagnostik. Gunakan pengujian A/B untuk mengungkap perbedaan sistematis. Misalnya, bandingkan cara sistem Anda menangani "Dia adalah pemimpin yang hebat", "Dia adalah pemimpin yang hebat", dan "Mereka adalah pemimpin yang hebat". Perbedaan kecil dalam sentimen atau nada dapat menandakan bias yang lebih dalam.
  • Beri label pada set data Anda. Tambahkan metadata ringan seperti domain, wilayah, dan tingkat formalitas untuk mempermudah audit, pemfilteran, dan penyeimbangan ulang di masa mendatang.

Jika Anda melatih atau menyempurnakan model kustom, seimbangkan set data Anda. Representasi yang lebih luas mengurangi kecondongan secara lebih efektif daripada mengoreksi bias setelah model dibuat.

Kecerdasan

Di lapisan kecerdasan, bias diubah menjadi perilaku yang dipelajari. Anda dapat menambahkan pengamanan, logika pemeringkatan ulang, atau aturan hibrida untuk mengarahkan output ke arah keadilan dan inklusivitas:

  • Uji bias secara rutin. Gunakan filter deteksi bias untuk menandai frasa yang bermasalah, seperti menangkap istilah gender atau nada eksklusif. Pantau penyimpangan seiring waktu.
  • Untuk model prediktif, berhati-hatilah dengan data sensitif. Atribut, seperti kode pos, pendidikan, atau pendapatan dapat secara tidak langsung mengenkode sifat sensitif, seperti ras atau kelas.
  • Membuat dan membandingkan beberapa output. Peringkat hasil berdasarkan netralitas, keberagaman, dan gaya bahasa, sebelum menentukan output mana yang akan dibagikan kepada pengguna.
  • Tambahkan aturan untuk menerapkan batasan keadilan. Misalnya, memblokir output yang memperkuat stereotipe atau gagal merepresentasikan beragam contoh.

Pengalaman pengguna

Di antarmuka pengguna, bersikaplah transparan tentang alasan model dan dorong masukan:

  • Berikan alasan untuk output AI. Misalnya, "Direkomendasikan untuk nada profesional berdasarkan input Anda sebelumnya*." Hal ini membantu pengguna melihat bahwa sistem mengikuti logika yang ditentukan, bukan penilaian tersembunyi.
  • Memberi pengguna kontrol yang bermakna. Izinkan mereka menyesuaikan perilaku model melalui setelan atau perintah - misalnya, memilih preferensi nada, kompleksitas, atau gaya visual.
  • Mempermudah pelaporan bias atau ketidakakuratan. Semakin mudah masalah ditandai, semakin banyak data dunia nyata yang akan Anda dapatkan untuk meningkatkan sistem AI Anda.
  • Tutup siklus masukan. Jangan biarkan laporan pengguna hilang. Masukkan kembali data ini ke dalam logika aturan atau pelatihan ulang Anda, dan bagikan progres secara jelas: "Kami telah memperbarui moderasi kami untuk mengurangi bias budaya dalam rekomendasi."

Bias muncul dalam data, diperkuat melalui model, dan ditampilkan dalam pengalaman pengguna. Anda dapat menanganinya di ketiga tingkat sistem AI Anda:

  • Data: membuat sumber data transparan dan seimbang.
  • Inteligensi: mendeteksi, menguji, dan mengurangi bias dalam output.
  • UX: mendorong pengguna untuk mengidentifikasi dan memperbaiki bias melalui kontrol dan masukan.

Kepercayaan dan transparansi

Kepercayaan menentukan apakah orang menggunakan, mengadopsi, dan merekomendasikan produk Anda.

Sebagian besar pengguna mengharapkan aplikasi yang dapat diprediksi. Misalnya, klik tombol selalu melakukan tindakan yang ditunjukkan, dan mengarah ke tempat yang sama. AI melanggar ekspektasi ini, karena perilakunya sangat bervariasi dan sering kali tidak dapat diprediksi. Selain itu, sistem AI memiliki potensi kegagalan yang melekat: model bahasa berhalusinasi fakta, model prediktif salah memberi label pada data, dan agen menjadi tidak terkendali.

Pengguna Anda adalah garis pertahanan terakhir terhadap error ini.

Tujuan Anda adalah memindahkan pengguna ke tengah, menuju kepercayaan yang terkalibrasi. Kurang dan terlalu percaya dapat menimbulkan masalah.

Pada awalnya, pengguna mungkin kurang atau terlalu percaya pada sistem Anda. Kurang percaya berarti mereka tidak akan menggunakan sistem, dan terlalu percaya berarti mereka menerima sepenuhnya output, tanpa memeriksa error. Tugas Anda adalah menarik pengguna ke tengah-tengah kepercayaan yang terkalibrasi, tempat mereka mengandalkan AI untuk efisiensi sekaligus tetap bertanggung jawab atas hasil akhir.

Data

Di lapisan data, kepercayaan dibangun dengan menjelaskan secara jelas cakupan dan asal data Anda:

  • Jelaskan secara eksplisit asal dan silsilah data.
  • Mendokumentasikan keaktualan dan ketidakberlakuan data.
  • Jelaskan jenis konten yang telah dilihat model dan tempat model mungkin mengalami kesulitan, seperti data bahasa non-Inggris.

Seiring waktu, saat sistem AI Anda mengumpulkan interaksi dan masukan, pertimbangkan untuk mempertahankan snapshot data yang diberi versi, sehingga Anda dapat menjelaskan bagaimana output berkembang.

Kecerdasan

Di lapisan kecerdasan, Anda dapat mengelola kepercayaan melalui kemampuan penjelasan, indikator keyakinan, dan desain modular:

  • Memberikan penjelasan kontekstual tepat waktu. Menurut paradoks pengguna aktif, Anda sebaiknya menyematkan penjelasan mikro dalam konteks, langsung dalam interaksi, sehingga pengguna memahami apa yang dilakukan sistem AI saat mereka menggunakannya.
  • Sampaikan batasan dan mode kegagalan di awal. Beri tahu pengguna di mana AI mungkin melakukan kesalahan. Misalnya, "Hindari humor atau jargon domain untuk mendapatkan hasil yang lebih baik." Isyarat kontekstual yang singkat memberikan transparansi tanpa mengganggu alur.
  • Indikator keyakinan dan logika penggantian menjaga keandalan AI dalam kondisi yang tidak pasti. Anda dapat memperkirakan keyakinan dari proksi, seperti skor probabilitas atau tingkat keberhasilan sebelumnya. Tentukan penggantian yang aman untuk output yang jelas salah.
  • Arsitektur modular membuat AI lebih transparan. Misalnya, jika asisten penulisan menangani tata bahasa, gaya, dan nada bahasa dalam langkah-langkah terpisah, tunjukkan apa yang berubah di setiap tahap: "Nada bahasa: kurang formal; kompleksitas: disederhanakan".

Pengalaman pengguna

Pengalaman pengguna memberi Anda ruang bermain yang luas untuk membangun dan mengukur kepercayaan. Berikut beberapa teknik dan pola yang dapat dicoba:

  • Menyesuaikan konten edukasi. Jangan menganggap pengguna Anda paham AI. Berikan panduan ringan untuk pengguna tingkat lanjut dan penjelasan mendetail untuk pemula.
  • Terapkan pengungkapan progresif. Mulai dengan isyarat kecil. Sertakan teks yang menyatakan bahwa Anda menggunakan AI, seperti, "Konten ini dibuat secara otomatis", dan izinkan pengguna mengklik untuk mendapatkan lebih banyak insight.
  • Tutup interaksi umpan balik dengan hasil yang terlihat. Saat pengguna memberi rating, mengoreksi, atau mengganti saran AI, bagikan bagaimana input mereka membentuk perilaku di masa mendatang: "Anda lebih menyukai respons yang ringkas. Menyesuaikan gaya bahasa dengan tepat." Visibilitas mengubah masukan menjadi kepercayaan.
  • Menangani error dengan baik. Saat sistem Anda melakukan kesalahan atau memberikan hasil dengan tingkat keyakinan rendah, akui kesalahan tersebut dan delegasikan peninjauan kepada pengguna. Misalnya, "Saran ini mungkin tidak sesuai dengan maksud Anda. Tinjau sebelum dipublikasikan." Berikan jalur yang jelas untuk melanjutkan dengan mengizinkan pengguna mencoba lagi, mengedit, atau mengembalikan ke penggantian yang aman.

Singkatnya, untuk mengatasi ketidakpastian dan potensi kesalahan bawaan AI, pandu pengguna dari keraguan atau ketergantungan berlebihan ke kalibrasi kepercayaan yang tepat:

  • Data: Bersikap transparan tentang asal data.
  • Inteligensi: Membuat penalaran modular dan dapat dijelaskan.
  • UX: Mendesain untuk kejelasan dan masukan progresif.

Kesimpulan Anda

Dalam modul ini, kita telah mempelajari tiga pilar inti AI yang bertanggung jawab, yaitu privasi, keadilan, dan kepercayaan. Hal ini mungkin terasa sulit, terutama saat Anda baru memulai atau mencoba beralih dari prototipe ke produksi.

Fokuskan upaya Anda pada area yang paling penting dan tentukan pendekatan Anda sendiri terhadap tata kelola AI. Iterasi adalah kunci. Setiap rilis dan putaran masukan pengguna akan mempertajam pemahaman Anda tentang bagian sistem yang memerlukan lebih banyak pembatasan, transparansi, atau fleksibilitas.

Resource

Berikut beberapa referensi lanjutan tentang topik yang dibahas dalam modul ini:

Resource

Berikut beberapa referensi lanjutan tentang topik yang dibahas dalam modul ini:

Uji pemahaman Anda

Apa praktik privasi yang direkomendasikan terkait pengumpulan data untuk AI?

Kumpulkan data sebanyak mungkin, untuk berjaga-jaga jika Anda membutuhkannya nanti.
Jawaban Anda salah.
Kumpulkan hanya data yang diperlukan untuk pembelajaran dan hapus semua PII.
Bagus, jawaban Anda benar.
Simpan semua log tanpa batas waktu untuk melacak tren jangka panjang.
Jawaban Anda salah. Log tidak boleh disimpan tanpa batas waktu.

Apa itu kepercayaan yang terkalibrasi?

Saat pengguna selalu percaya bahwa AI benar.
Coba lagi.
Saat pengguna menolak menggunakan AI karena tidak mempercayainya.
Coba lagi.
Titik tengah di mana pengguna mengandalkan AI untuk efisiensi, tetapi tetap memverifikasi hasilnya.
Bagus, jawaban Anda benar.
Kontrak hukum antara pengguna dan developer.
Coba lagi.

Untuk memastikan keadilan di lapisan "Inteligensi", tindakan apa yang dapat dilakukan developer?

Asumsikan data pelatihan tidak bias.
Coba lagi.
Hapus semua data demografi dari database.
Coba lagi.
Menghasilkan beberapa output dan memberi peringkat berdasarkan netralitas dan keragaman.
Bagus, jawaban Anda benar.
Hanya mengandalkan perilaku default model.
Coba lagi.

Apa teknik UX untuk membangun kepercayaan dan transparansi?

Mulailah dengan isyarat kecil dan tawarkan link ke informasi tambahan, seperti tooltip.
Bagus, jawaban Anda benar.
Menyembunyikan semua kompleksitas dan logika dari pengguna
Kurang tepat. Meskipun Anda harus menghindari membebani pengguna, beberapa pengguna akan ingin mengetahui lebih banyak.
Wajibkan fitur AI untuk semua pengguna.
Jawaban Anda salah.
Mengubah perilaku model, tetapi tidak memberi tahu pengguna. Notifikasi membingungkan.
Jawaban Anda salah. Anda mungkin perlu memberi tahu pengguna jika perubahan tersebut memengaruhi pengalaman mereka.