Wysokie ryzyko czy nie? Jak prawidłowo sklasyfikować swoją obsługę klienta opartą na AI

Czy Twój chatbot AI podlega kategorii 'wysokiego ryzyka"? Poznaj klasy ryzyka AI Act i dowiedz się, jak prawidłowo zaklasyfikować swoją obsługę klienta AI, aby uniknąć zbędnych obciążeń.

Wysokie ryzyko czy nie? Jak prawidłowo sklasyfikować swoją obsługę klienta opartą na AI Poradniki
Karsten Kreh Karsten Kreh

Informacja prawna

Treść tego artykułu służy wyłącznie ogólnym celom informacyjnym i nie stanowi porady prawnej. Mimo że przygotowujemy informacje z najwyższą starannością, nie gwarantujemy ich poprawności, kompletności ani aktualności. W celu uzyskania wiążącej porady dotyczącej Twojej konkretnej sytuacji skontaktuj się z wykwalifikowanym prawnikiem.

Najważniejsze pytanie: wysokie ryzyko czy nie?

Przy wdrażaniu systemu AI w firmie jedno pytanie jest kluczowe: czy system należy do kategorii „wysokiego ryzyka”? Odpowiedź na to pytanie decyduje o nakładach, kosztach i Twoim ryzyku prawnym. System wysokiego ryzyka podlega niezwykle surowym i kosztownym wymogom. System o ograniczonym ryzyku ma natomiast jedynie niewielkie obowiązki w zakresie przejrzystości.

Dobra wiadomość na początek: proste asystenty czatowe i głosowe, których głównym celem jest odpowiadanie na pytania klientów, są zasadniczo klasyfikowane przez EU AI Act jako „ograniczone ryzyko”.

Komplikacje zaczynają się jednak, gdy w grę wchodzą bardziej zaawansowane funkcje. Czy analiza nastrojów lub automatyczne rozpoznawanie pilności mogłoby sprawić, że Twój asystent AI stanie się systemem wysokiego ryzyka?

Kiedy narzędzie komunikacyjne staje się systemem wysokiego ryzyka?

AI Act wymienia w swoim Załączniku III obszary, w których systemy AI mogą potencjalnie zostać uznane za systemy wysokiego ryzyka. Dla obsługi klienta istotne są przede wszystkim dwa punkty: systemy decydujące o dostępie do podstawowych usług lub systemy przeprowadzające profilowanie osób fizycznych.

Oto typowe obawy:

  • Czy analiza nastrojów („dzwoniący brzmi na zdenerwowanego”) zostanie uznana za zakazane „rozpoznawanie emocji” lub ryzykowne „profilowanie”?
  • Jeśli AI rozpoznaje pilność („pilna sprawa”), to czy decyduje o dostępie do podstawowej usługi?

Te obawy są zrozumiałe, ale dokładniejsza analiza pokazuje, dlaczego w większości przypadków są one nieuzasadnione.

Klucz: czy AI jest tylko asystentem dla człowieka?

AI Act przewiduje celowe wyjątki, kiedy system pomimo potencjalnego umieszczenia w Załączniku III nie jest uznawany za system wysokiego ryzyka. Dwa z tych wyjątków mają kluczowe znaczenie dla obsługi klienta:

  1. AI służy do poprawy wyniku wcześniej zakończonej działalności ludzkiej.
  2. AI wykonuje zadanie przygotowawcze do oceny, która ostatecznie jest dokonywana przez człowieka.

Właśnie tu tkwi klucz. Funkcje dobrze zaprojektowanego asystenta AI są dokładnie dopasowane do tych wyjątków. Analiza nastrojów nie podejmuje autonomicznej decyzji. Wykonuje zadanie przygotowawcze, dostarczając ludzkiemu pracownikowi dodatkowy punkt danych (np. „dzwoniący wydaje się zdenerwowany”). Pracownik może wykorzystać tę informację, aby lepiej poprowadzić rozmowę. AI poprawia więc wynik ludzkiej działalności, nie przejmując kontroli.

Ta zasada „Human-in-the-Loop-Augmentation” jest decydującym czynnikiem unikania klasyfikacji jako system wysokiego ryzyka. Dopóki AI wspiera człowieka, a go nie zastępuje, pozostaje z reguły systemem o ograniczonym ryzyku.

EU AI Act: praktyczny przewodnik dla firm

Świadomie po bezpiecznej stronie

Wniosek dla Ciebie jako przedsiębiorcy jest jasny: możesz korzystać z innowacyjnych funkcji AI w obsłudze klienta, nie biorąc na siebie ogromnego ciężaru zgodności z wymogami dla systemów wysokiego ryzyka.

Decydującym czynnikiem jest wybór dostawcy, którego produkt jest od podstaw zaprojektowany jako system wspomagający człowieka. Asystent AI, taki jak na przykład Safina, który przygotowuje informacje i przedstawia je człowiekowi do podjęcia decyzji, jest świadomie tak zaprojektowany, aby nie spełniał kryteriów systemu wysokiego ryzyka. Dzięki temu możesz korzystać z zalet AI, pozostając jednocześnie po bezpiecznej stronie prawnej.

9:41

Safina obsłużyła w tym tygodniu 51 połączeń

46

Zaufane

4

Podejrzane

1

Niebezpieczne

Ostatnie 7 dni
Filter
EM
Emma Martin 67s 15:30

Chce omówić ofertę na nową kampanię i ma pytania dotyczące harmonogramu.

KN
Katarzyna Nowak 54s 14:45

Pyta o status zamówienia i termin dostawy.

TW
Tomasz Wiśniewski 34s 13:10

Umówienie spotkania w sprawie projektu na przyszły tydzień.

Nieznany 44s 11:30

Obietnica wygranej — prawdopodobnie spam.

MW
Magdalena Wójcik 10s 09:15

Reklamacja ostatniego zamówienia, prosi o oddzwonienie.

PZ
Piotr Zieliński 95s 13 gru

Chce omówić potencjalną współpracę.

AR
Anna Rutkowska 85s 13 gru

Jest Twoją koleżanką i chce porozmawiać o projekcie.

JK
Jakub Krawczyk 42s 12 gru

Pyta o dostępne terminy na przyszły tydzień.

LB
Lena Bąk 68s 12 gru

Ma pytania dotyczące faktury i prosi o wyjaśnienie.

Połączenia
Safina
Kontakty
Profil
9:41
Połączenie od Emmy Martin
12 gru
11:30
67s

Chce omówić ofertę na nową kampanię i ma pytania dotyczące harmonogramu.

Kluczowe punkty

  • Oddzwonić do Emmy Martin
  • Wyjaśnić pytania o harmonogram i warunki cenowe
Oddzwoń
Edytuj kontakt

Wgląd AI

Nastrój rozmówcy Bardzo dobry

Rozmówca był współpracujący i przekazał potrzebne informacje.

Pilność Niski

Rozmówca może poczekać na odpowiedź.

Audio i transkrypcja

0:16

Dzień dobry, tu Safina AI, cyfrowy asystent Piotra. W czym mogę pomóc?

Dzień dobry Safina, tu Emma Martin. Chciałam porozmawiać o ofercie i harmonogramie.

Dziękuję, Emmo. Czy przy wdrożeniu rozważają Państwo głównie pakiet Standard czy Pro?

Dokładnie. Potrzebujemy pakietu Pro i chcielibyśmy wystartować w przyszłym miesiącu, jeśli onboarding będzie możliwy w pierwszym tygodniu.

Pożegnaj się ze staromodną pocztą głosową.

Wypróbuj Safina za darmo i zacznij inteligentnie zarządzać swoimi połączeniami.

Wypróbuj za darmo