Twoje decyzje projektowe bezpośrednio wpływają na odpowiedzialność i bezpieczeństwo systemu AI. Możesz na przykład zdecydować, jak wybierać źródła danych, konfigurować działanie modelu lub prezentować użytkownikom wyniki działania AI. Te decyzje mają realne konsekwencje dla użytkowników i firmy.
W tym module omówimy 3 kluczowe aspekty zarządzania AI:
- Prywatność: odpowiedzialnie zarządzaj danymi, wyjaśniaj, co jest zbierane, i minimalizuj ilość informacji, które opuszczają przeglądarkę.
- Sprawiedliwość: sprawdzaj modele pod kątem zachowań dyskryminacyjnych (obciążenia) i twórz pętle, które umożliwiają użytkownikom zgłaszanie problemów.
- Zaufanie i przejrzystość: zaprojektuj system tak, aby był przejrzysty i wzbudzał zaufanie, dzięki czemu użytkownicy będą mogli z niego korzystać pomimo niepewności i potencjalnych błędów.
W przypadku każdego tematu wyjaśniamy, jak przejawia się on w różnych usługach AI. Następnie dzielimy je na 3 warstwy rozwiązania opartego na AI: dane, inteligencja i wygoda użytkownika. Dowiesz się, na co zwracać uwagę, jak rozwiązywać problemy i jak utrzymywać skuteczne, proste zarządzanie.
Prywatność
Dowiedzieliśmy się, że rzeczywiste dane o użytkowaniu i interakcjach stanowią podstawę każdego systemu AI. Dane umożliwiają uczenie się, ocenianie i ciągłe doskonalenie. Dobre praktyki w zakresie ochrony prywatności pozwalają nie tylko zabezpieczyć dane, ale też dać użytkownikom kontrolę nad ich informacjami.
Oczekiwania dotyczące prywatności różnią się w zależności od produktu i odbiorców. W przypadku produktów konsumenckich oczekiwania dotyczą zwykle ochrony informacji umożliwiających identyfikację, takich jak imiona i nazwiska, wiadomości czy zachowania podczas przeglądania. W przypadku przedsiębiorstw nacisk kładzie się na suwerenność danych, poufność i ochronę własności intelektualnej.
Sektory, które mają wpływ na źródła utrzymania lub dobrostan ludzi, takie jak opieka zdrowotna, finanse i edukacja, wymagają bardziej rygorystycznych zabezpieczeń prywatności niż obszary o mniejszym ryzyku, takie jak rozrywka.
Zobaczmy, jak można zarządzać prywatnością w różnych komponentach systemu AI.
Dane
Aby stale ulepszać system AI, możesz zbierać dane o interakcjach użytkowników, w tym dane wejściowe i wyjściowe, opinie i błędy. Te informacje można ponownie wykorzystać do oceny, dostrajania modelu lub w przykładach z kilkoma próbkami w promptach. Może też wpływać na projektowanie UX.
Oto kilka wskazówek dotyczących odpowiedzialnego zbierania danych:
- Zbieraj tylko dane potrzebne do uczenia Wyszukiwanie produktów oparte na AI może nie wymagać pełnego profilu użytkownika, aby poprawić wyniki. W większości przypadków wystarczy podać zapytanie, wzorce kliknięć i zanonimizowane dane sesji.
- Usuwanie informacji poufnych Zanim wyślesz dane do modeli zewnętrznych, usuń z nich wszystkie informacje umożliwiające identyfikację. Możesz to zrobić za pomocą anonimizacji, pseudonimizacji lub agregacji.
- Ograniczenie przechowywania Usuwaj dzienniki i dane z pamięci podręcznej, gdy przestaną być potrzebne. Krótkie cykle przechowywania zmniejszają ryzyko bez blokowania dostępu do statystyk.
Określ, jakie informacje zbierasz, jak długo je przechowujesz i dlaczego są potrzebne. Jeśli nie potrafisz w zrozumiały sposób wyjaśnić przepływów danych osobie nietechnicznej, prawdopodobnie są one zbyt złożone, aby je kontrolować lub uzasadnić.
Analiza
Gdy użytkownicy wchodzą w interakcję z Twoim systemem AI, mogą nieświadomie lub nieostrożnie wprowadzać informacje prywatne lub wrażliwe. Ryzyko jest szczególnie wysokie w przypadku otwartych interfejsów czatu lub pisania, w których nie można ograniczyć tego, co wpisują użytkownicy.
Możesz uniemożliwić wysyłanie określonych słów, ale te informacje mogą być zależne od kontekstu. Jeśli Twój model działa na serwerze zarządzanym przez zewnętrznego dostawcę, może on ponownie wykorzystać dane wejściowe użytkownika jako dane treningowe. W końcu model może ujawnić innym użytkownikom fragmenty prywatnego tekstu, dane logowania lub inne poufne informacje.
Oto jak możesz chronić się przed naruszeniami prywatności podczas wnioskowania:
Dokładnie sprawdzaj interfejsy API innych firm. Powinieneś(-aś) dokładnie wiedzieć, co się dzieje z wysyłanymi przez Ciebie danymi. Czy dane wejściowe są rejestrowane, przechowywane lub ponownie wykorzystywane do trenowania? Unikaj nieprzejrzystych usług i wybieraj dostawców, którzy mają przejrzyste zasady i mechanizmy kontroli.
Jeśli samodzielnie trenujesz lub dostrajasz modele, usuń z danych treningowych szczegóły wrażliwe. Uważaj na naukę na skróty. Na przykład w przypadku wniosku o ocenę zdolności kredytowej kody pocztowe mogą prowadzić do tego, że model będzie wyciągał wnioski na temat rasy lub statusu społeczno-ekonomicznego. Może to prowadzić do niesprawiedliwych prognoz i utrwalać istniejące nierówności.
W przypadku domen o charakterze kontrowersyjnym preferuj wnioskowanie po stronie klienta. Może to być wbudowana AI, model w przeglądarce lub niestandardowy model po stronie klienta. Więcej informacji o tym wyborze znajdziesz w następnym module, wybieranie platformy.
Interfejs użytkownika
Interfejs aplikacji daje Ci możliwość pokazania użytkownikom, co się dzieje, zdobycia ich zaufania i zapewnienia im kontroli nad ich danymi:
- Zachowaj przejrzystość. Krótkie etykiety w interfejsie, takie jak „Przetworzono lokalnie” lub „Wysłano bezpiecznie do analizy”, mogą pomóc w budowaniu zaufania. Rozważ dodanie stopniowego ujawniania informacji, aby podać więcej szczegółów, np. etykietek pomocy, które wyjaśniają, kiedy analiza odbywa się na urządzeniu, a kiedy na serwerze.
- Zadawanie pytań w kontekście Proś o zgodę, gdy jest to wymagane. Pytanie „Czy chcesz udostępniać poprzednie wyszukiwania, aby ulepszać rekomendacje?” jest o wiele bardziej zrozumiałe niż ogólna zgoda na udział w programie.
- Zapewnij proste sterowanie. Dodaj dobrze widoczne przełączniki personalizacji, funkcji opartych na chmurze lub udostępniania danych.
- Zapewnij widoczność Dodaj mały panel prywatności, aby użytkownicy mogli zarządzać swoimi danymi bez opuszczania aplikacji.
- Wyjaśnij, dlaczego zbierasz dane. Użytkownicy mogą być bardziej skłonni do udostępniania danych, jeśli będą wiedzieć, jak zostaną one wykorzystane. To samo dotyczy zasad przechowywania i zarządzania.
Prywatność w AI w internecie nie jest pojedynczym krokiem zapewniającym zgodność z przepisami, ale ciągłym sposobem myślenia o projektowaniu:
- Dane: zbieraj mniej danych i lepiej je chroń.
- Intelligence: Mitigate memorization of potentially sensitive data by external models.
- UX: zapewnij użytkownikom przejrzystość i kontrolę nad prywatnością.
Obiektywność
Systemy AI mogą być obciążone uprzedzeniami, które prowadzą do niesprawiedliwej dyskryminacji. Jest to szczególnie ważne w dziedzinach takich jak rekrutacja, prawo i finanse, w których uprzedzenia mogą zniekształcać kluczowe decyzje mające bezpośredni wpływ na prawdziwych ludzi.
Na przykład model rekrutacyjny wytrenowany na podstawie historycznych danych rekrutacyjnych może powiązać określone cechy demograficzne z niższą jakością kandydatów, nieumyślnie karząc kandydatów z niedostatecznie reprezentowanych grup, zamiast oceniać umiejętności i doświadczenie istotne z punktu widzenia pracy.
Dane
Dane szkoleniowe to zbiór odseparowanych od siebie informacji, które mogą odzwierciedlać uprzedzenia z rzeczywistego świata, a nawet wprowadzać nowe. Oto praktyczne kroki, które pomogą Ci zapewnić przejrzystość i zarządzanie odchyleniami związanymi z danymi:
- Dokumentowanie źródeł danych i zakresu Opublikuj krótkie oświadczenie, które pomoże użytkownikom zrozumieć, w jakich sytuacjach model może być mniej skuteczny. Na przykład: „Ten model został wytrenowany głównie na treściach w języku angielskim, z ograniczoną reprezentacją tekstów technicznych”.
- Uruchom testy diagnostyczne. Używaj testów A/B, aby wykrywać systematyczne różnice. Porównaj na przykład, jak system radzi sobie z zdaniami „She is a great leader”, „He is a great leader” i „They are a great leader”. Niewielkie rozbieżności w zakresie sentymentu lub tonu mogą sygnalizować głębsze uprzedzenia.
- Oznaczanie zbiorów danych etykietami Dodaj proste metadane, takie jak domena, region i poziom formalności, aby ułatwić przyszłe audyty, filtrowanie i ponowne równoważenie.
Jeśli trenujesz lub dostrajasz modele niestandardowe, zadbaj o równowagę zbiorów danych. Szersza reprezentacja skuteczniej zmniejsza odchylenie niż korygowanie błędu po utworzeniu modelu.
Analiza
W warstwie inteligencji odchylenia są przekształcane w wyuczone zachowania. Możesz dodać zabezpieczenia, logikę ponownego rankingu lub reguły hybrydowe, aby kierować wyniki w stronę sprawiedliwości i inkluzji:
- Regularnie sprawdzaj, czy nie występują uprzedzenia. Używaj filtrów wykrywających odchylenia, aby oznaczać problematyczne sformułowania, np. terminy związane z płcią lub wykluczający ton. Monitoruj dryf w czasie.
- W przypadku modeli predykcyjnych zachowaj ostrożność w odniesieniu do danych wrażliwych. Atrybuty takie jak kod pocztowy, wykształcenie czy dochód mogą pośrednio kodować cechy wrażliwe, takie jak rasa czy klasa społeczna.
- Generowanie i porównywanie wielu wyników Przed podjęciem decyzji o tym, który wynik udostępnić użytkownikowi, uszereguj wyniki na podstawie neutralności, różnorodności i tonu.
- Dodawanie reguł egzekwujących ograniczenia dotyczące sprawiedliwości Może to być np. blokowanie wyników, które utrwalają stereotypy lub nie zawierają różnorodnych przykładów.
Interfejs użytkownika
W interfejsie użytkownika jasno przedstawiaj uzasadnienie modelu i zachęcaj do przesyłania opinii:
- Uzasadniaj wyniki działania AI. Na przykład „Zalecane w przypadku profesjonalnego tonu na podstawie poprzednich danych wejściowych*”. Dzięki temu użytkownicy widzą, że system kieruje się określoną logiką, a nie ukrytymi osądami.
- Zapewnij użytkownikom znaczącą kontrolę Umożliwiaj im dostosowywanie działania modelu za pomocą ustawień lub promptów, np. wybieranie preferencji dotyczących tonu, złożoności lub stylu wizualnego.
- Ułatwianie zgłaszania uprzedzeń lub nieścisłości Im łatwiej będzie zgłosić problem, tym więcej danych z rzeczywistego świata uzyskasz, aby ulepszyć system AI.
- Zamknij pętlę opinii. Nie pozwól, aby zgłoszenia użytkowników znikały. Przekaż te dane z powrotem do ponownego trenowania lub logiki reguł i udostępnij widoczne postępy: „Zaktualizowaliśmy moderację, aby zmniejszyć uprzedzenia kulturowe w rekomendacjach”.
Obciążenia powstają w danych, są wzmacniane przez modele i ujawniają się w interfejsie użytkownika. Możesz to zrobić na wszystkich 3 poziomach systemu AI:
- Dane: zadbaj o przejrzystość i równowagę źródeł danych.
- Inteligencja: wykrywanie, testowanie i ograniczanie odchyleń w wynikach.
- UX: umożliwiać użytkownikom identyfikowanie i korygowanie odchyleń za pomocą kontroli i opinii.
Zaufanie i przejrzystość
Zaufanie decyduje o tym, czy użytkownicy będą korzystać z Twojego produktu, przyjmą go i będą go polecać.
Większość użytkowników oczekuje przewidywalnych aplikacji. Na przykład kliknięcia przycisków zawsze wykonują wskazaną czynność i prowadzą do tego samego miejsca. AI łamie to oczekiwanie, ponieważ jego zachowanie jest bardzo zmienne i często nieprzewidywalne. Systemy AI mają też wrodzoną tendencję do awarii: modele językowe halucynują fakty, modele predykcyjne błędnie oznaczają dane, a agenci wymykają się spod kontroli.
Użytkownicy są ostatnią linią obrony przed tymi błędami.
Na początku użytkownicy prawdopodobnie nie ufają Twojemu systemowi lub ufają mu za bardzo. Niedostateczne zaufanie oznacza, że użytkownicy nie będą korzystać z systemu, a nadmierne zaufanie oznacza, że będą w pełni akceptować wyniki bez sprawdzania, czy nie zawierają błędów. Twoim zadaniem jest zachęcenie użytkowników do wyważonego zaufania, czyli do korzystania z AI w celu zwiększenia wydajności, ale przy jednoczesnym braniu odpowiedzialności za ostateczne wyniki.
Dane
W przypadku warstwy danych zaufanie buduje się poprzez jasne wyjaśnienie zakresu i pochodzenia danych:
- Wyraźnie określ pochodzenie i historię danych.
- Dokumentuj częstotliwość aktualizacji i nieaktualność danych.
- Opisz typy treści, z którymi model miał kontakt, i wskaż, w jakich sytuacjach może mieć problemy, np. w przypadku danych w języku innym niż angielski.
W miarę gromadzenia przez system AI interakcji i opinii z biegiem czasu warto utrzymywać wersjonowane migawki danych, aby móc wyjaśnić, jak zmieniały się wyniki.
Analiza
W warstwie inteligencji możesz zarządzać zaufaniem za pomocą wyjaśnień, wskaźników ufności i modułowej konstrukcji:
- Wyświetlanie kontekstowych wyjaśnień w odpowiednim momencie. Zgodnie z paradoksem aktywnego użytkownika lepiej jest umieszczać mikroobjaśnienia w kontekście, bezpośrednio w interakcjach, aby użytkownicy rozumieli, co robi system AI, gdy z niego korzystają.
- Z wyprzedzeniem informuj o ograniczeniach i możliwych trybach awarii. Poinformuj użytkowników, gdzie AI może napotkać trudności. Na przykład: „Aby uzyskać lepsze wyniki, unikaj humoru i żargonu branżowego”. Krótkie, kontekstowe wskazówki zapewniają przejrzystość bez zakłócania płynności.
- Wskaźniki pewności i logika rezerwowa zapewniają niezawodność AI w sytuacjach niepewności. Poziom ufności możesz oszacować na podstawie danych zastępczych, takich jak wyniki prawdopodobieństwa lub odsetek udanych prób w przeszłości. Określ bezpieczne rozwiązania zastępcze w przypadku wyników, które są oczywiście nieprawidłowe.
- Architektury modułowe zwiększają przejrzystość AI. Jeśli na przykład asystent pisania zajmuje się gramatyką, stylem i tonem w osobnych krokach, wskaż, co się zmieniło na każdym etapie: „Ton: mniej formalny; złożoność: uproszczona”.
Interfejs użytkownika
Wrażenia użytkowników to szerokie pole do budowania i kalibrowania zaufania. Oto kilka technik i wzorców, które możesz wypróbować:
- Dostosowywanie treści edukacyjnych Nie zakładaj, że użytkownicy znają się na AI. Zapewnij zaawansowanym użytkownikom proste wskazówki, a początkującym – szczegółowe wyjaśnienia.
- Zastosuj stopniowe odkrywanie Zacznij od małych wskazówek. Dodaj tekst informujący o tym, że używasz AI, np. „To zostało wygenerowane automatycznie”, i umożliw użytkownikom kliknięcie, aby uzyskać więcej informacji.
- Zamykanie pętli opinii za pomocą widocznych wyników Gdy użytkownicy oceniają, poprawiają lub zastępują sugestię AI, informuj ich, jak ich dane wejściowe wpłyną na przyszłe działanie: „Wolisz zwięzłe odpowiedzi. dostosowaliśmy ton wypowiedzi”. Widoczność przekształca opinie w zaufanie.
- Prawidłowo obsługuj błędy. Gdy system popełni błąd lub poda wynik o niskim poziomie ufności, przyznaj się do tego i przekaż użytkownikowi możliwość sprawdzenia. Na przykład: „Ta sugestia może nie odpowiadać Twoim intencjom. Sprawdź przed opublikowaniem”. Zapewnij użytkownikowi możliwość ponowienia próby, edytowania lub przywrócenia bezpiecznej wersji.
Krótko mówiąc, aby poradzić sobie z niepewnością i potencjalnymi błędami AI, należy poprowadzić użytkowników od wątpliwości lub nadmiernego zaufania do właściwego poziomu zaufania:
- Dane: zachowaj przejrzystość w zakresie pochodzenia danych.
- Inteligencja: spraw, aby wnioskowanie było modułowe i możliwe do wyjaśnienia.
- UX projektuj z myślą o stopniowym zwiększaniu przejrzystości i przekazywaniu informacji zwrotnych.
Wnioski
W tym module omówiliśmy 3 główne filary odpowiedzialnej AI: prywatność, bezstronność i zaufanie. Może to być przytłaczające, zwłaszcza gdy dopiero zaczynasz lub próbujesz przejść od prototypu do produkcji.
Skup się na najważniejszych obszarach i określ własne podejście do zarządzania AI. Iteracja jest kluczowa. Każda wersja i każda runda opinii użytkowników pozwoli Ci lepiej zrozumieć, w których obszarach system wymaga większej liczby zabezpieczeń, większej przejrzystości lub większej elastyczności.
Zasoby
Oto bardziej zaawansowane materiały dotyczące tematów poruszanych w tym module:
- Porównanie prywatności i bezpieczeństwa asystentów AI zawiera szczegółowe informacje o zasadach ochrony prywatności AI.
- Artykuł na temat zapamiętywania przez LLM, czyli krytycznego trybu awarii związanej z prywatnością, w którym model zachowuje i może być proszony o odtwarzanie konkretnych, wrażliwych informacji z danych treningowych.
- Sprawdź zasoby bezpośrednio powiązane z wybranym modelem. Na przykład Google Cloud udostępnia zasoby związane z bezpieczeństwem.
- Zestaw narzędzi do odpowiedzialnej AI zawiera materiały dla deweloperów dotyczące wszystkich tematów omówionych w tym module.
Zasoby
Oto bardziej zaawansowane materiały dotyczące tematów poruszanych w tym module:
- Porównanie prywatności i bezpieczeństwa asystentów AI zawiera szczegółowe informacje o zasadach ochrony prywatności AI.
- Artykuł na temat zapamiętywania przez modele LLM, czyli krytycznego trybu awarii związanej z prywatnością, w którym model zachowuje i może być proszony o odtwarzanie konkretnych informacji poufnych z danych treningowych.
- Sprawdź zasoby bezpośrednio powiązane z wybranym modelem. Na przykład Google Cloud udostępnia zasoby związane z bezpieczeństwem.
- Zestaw narzędzi do odpowiedzialnej AI zawiera materiały dla deweloperów dotyczące wszystkich tematów omówionych w tym module.
Sprawdź swoją wiedzę
Jakie są zalecane praktyki w zakresie ochrony prywatności dotyczące zbierania danych na potrzeby AI?
Co to jest skalibrowane zaufanie?
Jakie działania mogą podjąć deweloperzy, aby zapewnić sprawiedliwość na warstwie „Inteligencja”?
Jaką technikę UX można zastosować, aby budować zaufanie i przejrzystość?