Publications Office of the EU
Legal notices: Virtual assistant, the explainability notice - O Urzędzie Publikacji
DisplayCustomHeader
Dockbar
Informacja o wytłumaczalności

Wirtualny asystent: Informacja o wyjaśnialności

Publio – Inteligentny asystent Portalu Urzędu Publikacji Unii Europejskiej (Portal UP)

Ostatnia aktualizacja: 16/05/2023

Publio, inteligentny asystent Portalu Urzędu Publikacji Unii Europejskiej (Portal UP), jest narzędziem sztucznej inteligencji (AI), które wchodzi w interakcję z osobami fizycznymi i przeprowadza wyszukiwanie według słów kluczowych, korzystając z informacji, które są publicznie dostępne na Portalu UP.
Ta informacja o wyjaśnialności zawiera informacje dla użytkowników na temat ram regulacyjnych w zakresie sztucznej inteligencji oraz zasad regulujących funkcjonowanie Publio w tym kontekście. Urząd Publikacji Unii Europejskiej jest zobowiązana do zapewnienia przejrzystości oraz godnej zaufania i wytłumaczalnej AI.

Przejrzystość w odniesieniu do sztucznej inteligencji (AI) – zasady ogólne

Przejrzystość i otwartość działań instytucji Unii mają zasadnicze znaczenie z punktu widzenia dobrych rządów i uczestnictwa społeczeństwa obywatelskiego, jak określono w art. 15 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE), który stanowi, że:

„1. W celu wspierania dobrych rządów i zapewnienia uczestnictwa społeczeństwa obywatelskiego, instytucje, organy i jednostki organizacyjne Unii działają z jak największym poszanowaniem zasady otwartości”.

W art. 41 Karty praw podstawowych Unii Europejskiej (Prawo do dobrej administracji) ustanowiono obowiązek administracji uzasadniania swoich decyzji.

W dokumencie pt. Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji (dodatek 1) – serii wytycznych opracowanych w 2019 r. przez powołaną przez Komisję Europejską grupę ekspertów wysokiego szczebla ds. sztucznej inteligencji – przejrzystość wymienia się jako jeden z siedmiu wymogów (dodatek 2), które powinny spełniać systemy AI. W wytycznych tych wyjaśniono również, że przejrzystość jest jednym z elementów składowych zasady możliwości wyjaśnienia, która oznacza, że zaangażowane zbiory danych i procesy techniczne muszą być przejrzyste, a możliwości i cele systemów AI – otwarcie komunikowane. Zbiory danych i procesy techniczne muszą być zatem udokumentowane, identyfikowalne, wytłumaczalne i łatwe do interpretacji.

Instytucje, urzędy, organy i jednostki administracyjne Unii Europejskiej powinny stosować wymienione powyżej zasady przy opracowywaniu, wdrażaniu i wykorzystywaniu rozwiązań i narzędzi opartych na AI.

Jak wynika z tych zasad ogólnych, osoby wchodzące w interakcję z systemem AI muszą zostać na początku poinformowane o tym fakcie. Dzięki temu użytkownicy mogą świadomie zdecydować, czy chcą kontynuować taką interakcję, czy rezygnują z tego narzędzia.

Zgodnie z zasadami przejrzystości użytkownicy muszą również otrzymać niezbędne informacje, które pomogą im zinterpretować wygenerowane przez system wyniki i odpowiednio je wykorzystać.

Godna zaufania i wytłumaczalna AI

Godna zaufania i wytłumaczalna AI to najważniejszy cel dla UE. UE pracuje nad stworzeniem ram regulacyjnych dla AI. We wniosku Komisji Europejskiej z dnia 21 kwietnia 2021 r. dotyczącym rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (zwanym dalej „aktem w sprawie sztucznej inteligencji”) (dodatek 3) wprowadzono dwa główne rodzaje zobowiązań dla dostawców rozwiązań i narzędzi opartych na AI – przejrzystość i przekazywanie informacji.

Użytkownicy systemów AI mają prawo do otrzymania informacji. Prawu temu towarzyszą odpowiednie obowiązki, takie jak obowiązek korzystania z systemu zgodnie z instrukcjami oraz monitorowania skuteczności działania danego narzędzia AI. Przestrzeganie tych zasad jest obowiązkiem wszystkich zaangażowanych podmiotów.

Art. 52 proponowanego aktu w sprawie sztucznej inteligencji (Obowiązki w zakresie przejrzystości w odniesieniu do określonych systemów sztucznej inteligencji) stanowi, że „1. Dostawcy zapewniają, aby systemy sztucznej inteligencji przeznaczone do wchodzenia w interakcję z osobami fizycznymi projektowano i opracowywano w taki sposób, aby osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem sztucznej inteligencji, chyba że okoliczności i kontekst korzystania z systemu jednoznacznie na to wskazują. […]”

W proponowanym akcie w sprawie sztucznej inteligencji zastosowano podejście oparte na analizie ryzyka, wprowadzając rozróżnienie między zastosowaniami AI, które stwarzają (i) niedopuszczalne ryzyko, (ii) wysokie ryzyko oraz (iii) niskie lub minimalne ryzyko.

Publio, inteligentny asystent Portalu UP, jest narzędziem sztucznej inteligencji (AI), wchodzi w interakcję z osobami fizycznymi i przeprowadza wyszukiwanie według słów kluczowych, korzystając z informacji, które są publicznie dostępne na Portalu UP. Publikacja tych informacji odbywa się zgodnie z zasadą przejrzystości leżącą u podstaw polityki i prawodawstwa UE we wszystkich dziedzinach. Inteligentny asystent nie generuje nowych treści, nie manipuluje wyborami użytkowników ani nie wpływa na nie – proponuje jedynie możliwe opcje filtrowania dla prowadzonego przez użytkowników wyszukiwania. Należy zatem uznać, że Publio zalicza się do kategorii „niskiego ryzyka” (iii) zgodnie z definicją zawartą w projekcie aktu w sprawie sztucznej inteligencji.

W tytule IV projektu aktu w sprawie sztucznej inteligencji (Przejrzystość) określono, że projektowanie i funkcjonowanie systemów AI powinno uwzględniać szczególne rodzaje ryzyka, jakie systemy te stwarzają: 1) ryzyko manipulacji z wykorzystaniem technik podprogowych, tj. technik będących poza świadomością użytkowników lub 2) ryzyko wykorzystania słabszych grup, które może spowodować szkody psychiczne lub fizyczne. Większe obowiązki w zakresie przejrzystości mają zastosowanie do systemów, które (i) wchodzą w interakcję z człowiekiem, (ii) są wykorzystywane do wykrywania emocji lub określania powiązań z kategoriami (społecznymi) na podstawie danych biometrycznych lub (iii) generują treści lub manipulują nimi (technologia deepfake). Mimo iż Publio rzeczywiście wchodzi w interakcję z osobami fizycznymi, inteligentny asystent nie jest przeznaczony do wykrywania emocji w celu manipulacji; podobnie narzędzie to nie zawiera żadnych elementów, które mogłyby nieumyślnie wywołać taki efekt. Publio nie spełnia zatem wymienionych wyżej kryteriów.

AI a odpowiedzialność

28 września 2022 r. wniosek Komisji Europejskiej dotyczący aktu w sprawie sztucznej inteligencji uzupełniono o wniosek w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (dodatek 4) (zwanego dalej „dyrektywą w sprawie odpowiedzialności za sztuczną inteligencję”), w następstwie rezolucji Parlamentu Europejskiego przyjętej na podstawie art. 225 TFUE (dodatek 5).

Jak stwierdzono w proponowanej dyrektywie w sprawie odpowiedzialności za sztuczną inteligencję, obowiązujące systemy odpowiedzialności na zasadzie winy nie są przystosowane do obsługi roszczeń z tytułu szkód spowodowanych przez produkty i usługi oparte na AI. Zgodnie z obowiązującymi zasadami odpowiedzialności ofiary muszą udowodnić, że miało miejsce niewłaściwe działanie lub zaniedbanie, wskazać osobę, która spowodowała szkodę, oraz ustalić związek przyczynowy. Szczególne cechy AI, w tym jej złożoność, autonomia i nieprzejrzystość (tzw. efekt czarnej skrzynki), utrudniają wskazanie osoby odpowiedzialnej za szkodę wynikającą z jej wykorzystywania. Ofiary, które poniosły taką szkodę, mogą być zatem zniechęcone do występowania z roszczeniami odszkodowawczymi. Ze względu na charakter kwestii ciężaru dowodu w proponowanej dyrektywie w sprawie odpowiedzialności za sztuczną inteligencję przewidziano innowacyjne rozwiązania, łagodząc wspomniane wyżej wymagania dzięki zastosowaniu ujawniania informacji oraz wzruszalnych domniemań niezgodności z przepisami.

Proponowana dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję zapewnia skuteczne środki umożliwiające identyfikację potencjalnie odpowiedzialnych osób i odpowiednich dowodów. Przepisy dyrektywy stanowią na przykład, że sąd krajowy może wydać nakaz ujawnienia (i zabezpieczenia) odpowiednich dowodów dotyczących konkretnych systemów AI wysokiego ryzyka, co do których istnieje podejrzenie, że spowodowały szkody (dodatek 6). Ponadto, z zastrzeżeniem wymagań określonych w art. 4 proponowanej dyrektywy, sądy krajowe domniemywają [...] istnienie związku przyczynowego między winą pozwanego a wynikiem uzyskanym przez system sztucznej inteligencji (lub faktem nieuzyskania przez taki system wyniku).

Jak stwierdzono w uzasadnieniu proponowanej dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję, „[d]odatkową zaletą takich skutecznych przepisów dotyczących odpowiedzialności cywilnej jest fakt, że dają one wszystkim podmiotom zaangażowanym w działalność związaną z systemami sztucznej inteligencji dodatkową zachętę do przestrzegania zobowiązań dotyczących ich spodziewanego zachowania”.

O Publio

Terminy i definicje

Termin Definicja
Tabele autorytatywne Tabele autorytatywne (ang. authority tables/Named Authority Lists/NALs) wykorzystuje się do harmonizacji i standaryzacji kodów i etykiet stosowanych w różnych środowiskach (platformy internetowe, systemy i aplikacje) oraz do ułatwiania wymiany danych między instytucjami Unii, na przykład w kontekście procesów decyzyjnych. Przykładami takich tabel autorytatywnych są ujednolicone wykazy języków, państw, osób prawnych itp.
Chatbot Chatbot jest to system sztucznej inteligencji (AI) zaprojektowany, aby symulować ludzką rozmowę i prowadzić interakcję z użytkownikami za pomocą tekstu lub mowy. System ten wykorzystuje techniki przetwarzania języka naturalnego (PJN), aby zrozumieć informacje wprowadzane przez użytkowników i odpowiadać na nie, udzielając zautomatyzowanej pomocy i informacji lub wykonując określone zadania w oparciu o wcześniej zdefiniowane zasady lub algorytmy. Chatboty wykorzystuje się powszechnie w różnych aplikacjach, takich jak obsługa klientów, wirtualni asystenci i komunikatory internetowe, aby ułatwiać komunikację i udzielać natychmiastowych odpowiedzi na pytania użytkowników.
Konwersacyjna sztuczna inteligencja (ang. conversational AI) Konwersacyjna sztuczna inteligencja jest formą sztucznej inteligencji, która ułatwia prowadzenie w czasie rzeczywistym konwersacji między człowiekiem a komputerem zbliżonej do sposobu komunikacji z człowiekiem.
System dialogowy Termin „system dialogowy” odnosi się do płynnego i logicznego przebiegu konwersacji (podróży użytkownika) między chatbotem a użytkownikiem. Odnosi się do sposobu, w jaki chatbot rozumie intencję użytkownika, udziela odpowiednich odpowiedzi i prowadzi konwersację, aby osiągnąć określone przez użytkownika cele.
Encja Używany w tym kontekście termin „encja” oznacza informację, którą można wyodrębnić z wypowiedzi użytkownika, istotną z punktu widzenia przyjętego przez niego celu, tj. taką, która pozwala zrozumieć cel użytkownika. Takie informacje zostaną zidentyfikowane i będą przechowywane, aby uzyskać dokładnie te informacje, których szuka użytkownik. Przykładem encji może być autor konkretnego artykułu.
EU Vocabularies lub EuroVoc EuroVoc (EU Vocabularies) jest to szczególny zestaw wielojęzycznych i multidyscyplinarnych tabel autorytatywnych, którymi zarządza Urząd Publikacji i które obejmują działalność UE. Zawiera on terminy w 24 językach urzędowych UE oraz w trzech językach państw kandydujących do UE: albańskim, macedońskim i serbskim.
Intencja Używany w tym kontekście termin „intencja” odnosi się do celu, w jakim użytkownik wpisuje na klawiaturze lub wypowiada na głos pytanie lub komentarz (zapytanie). Intencja przedstawia ideę lub koncepcję, którą można zawrzeć w wiadomości (wypowiedzi) użytkownika. Przykładem intencji jest fakt, że użytkownik chce wyszukać informacje na konkretny temat, konkretną publikację lub osobę.
Model językowy Model językowy jest to rodzaj programu sztucznej inteligencji (AI) skonstruowany w taki sposób, aby analizować i rozumieć język naturalny. Wykorzystuje się w nim techniki statystyczne i ocenę prawdopodobieństwa, aby przewidywać, które słowa lub wyrażenia mogą pojawić się jako następne w danym zdaniu lub sekwencji tekstu. Innymi słowy model językowy jest narzędziem, które można wykorzystywać do generowania lub uzupełniania zdań na podstawie kontekstu i treści wypowiedzi.
Language Understanding (LUIS) Usługa konwersacyjnej sztucznej inteligencji oparta na chmurze, w której stosuje się spersonalizowaną inteligencję uczenia maszynowego do naturalnego języka konwersacji użytkownika, aby przewidzieć ogólne znaczenie i uzyskać istotne, szczegółowe informacje.
Duży model językowy Duży model językowy (ang. Large Language Model – LLM) to rodzaj modelu sztucznej inteligencji, który przeszkolono na dużej ilości danych tekstowych, aby nauczył się rozumieć i generować ludzki język. Duże modele językowe wykorzystują techniki głębokiego uczenia maszynowego do tego, by analizować kontekst, wychwytywać niuanse i rozpoznawać wzorce językowe. To pozwala im przetwarzać skomplikowane zdania i udzielać spójnych i dostosowanych do kontekstu odpowiedzi.
Uczenie maszynowe Uczenie maszynowe jest to rodzaj sztucznej inteligencji (AI), który umożliwia aplikacjom oprogramowania „uczenie się” na podstawie wcześniejszych doświadczeń i informacji zwrotnych, a tym samym uzyskanie większej dokładności w przewidywaniu wyników przy braku wyraźnego zaprogramowania w tym celu.
Przetwarzanie języka naturalnego (PJN) Przetwarzanie języka naturalnego (PJN) jest to dziedzina sztucznej inteligencji (AI), dzięki której komputery mogą analizować i rozmieć język ludzki, zarówno pismo, jak i mowę.
Podróż wyszukiwania Termin podróż wyszukiwania odnosi się do sekwencji interakcji, przez które przechodzi użytkownik, wyszukując określone informacje. Jest to proces przeprowadzania użytkownika przez serię pytań i odpowiedzi służących identyfikacji i spełnienia jego intencji wyszukiwania. Podróż wyszukiwania w przypadku chatbota obejmuje zrozumienie zapytania ze strony użytkownika, uzyskanie odpowiednich informacji z bazy danych lub bazy wiedzy oraz przedstawienie ich użytkownikowi w sposób zrozumiały i odpowiadający jego potrzebom.
Podróż użytkownika Doświadczenie osoby w trakcie jednej sesji korzystania ze strony internetowej lub aplikacji, na które składa się seria czynności wykonanych w celu osiągnięcia konkretnego celu na tej stronie internetowej lub w tej aplikacji.
Wypowiedź Informacje wprowadzane przez użytkownika – może to być dowolna wiadomość wpisana na klawiaturze lub wypowiedziana podczas konwersacji. Jedna wypowiedź może składać się z jednego słowa lub wielu słów, na przykład w pytaniu lub zdaniu.

Czym jest Publio?

Publio, inteligentny asystent Portalu Urzędu Publikacji Unii Europejskiej (Portal UP), jest narzędziem sztucznej inteligencji, które wchodzi w interakcję z osobami fizycznymi i przeprowadza wyszukiwanie według słów kluczowych, korzystając z informacji, które są publicznie dostępne na Portalu UP. Publio łączy w sobie techniki konwersacyjnej sztucznej inteligencji (AI), takie jak przetwarzanie języka naturalnego i uczenie maszynowe, z interaktywnym rozpoznawaniem głosu i tradycyjnymi systemami wyszukiwania, aby pomóc użytkownikom w znajdowaniu unijnych publikacji, przepisów UE i osób do kontaktu w europejskich instytucjach.

Inteligentny asystent umożliwia w szczególności konwersację mówioną lub pisaną na klawiaturze między użytkownikami końcowymi a Portalem UP. Usługa inteligentnego asystenta jest obecnie dostępna w językach angielskim, francuskim i hiszpańskim. Jest to usługa, z której mogą korzystać wszyscy, ale inteligentny asystent zapewnia również rozwiązanie dostosowane do potrzeb osób z niepełnosprawnością w zakresie czytania, co jeszcze bardziej zwiększa jego dostępność. Ponadto umożliwia wyszukiwanie konwersacyjne, które jest nowym sposobem wyszukiwania pozwalającym użytkownikom na mówienie pełnymi zdaniami – tak jak w trakcie normalnej rozmowy – do obsługiwanego przez AI asystenta głosowego, który udziela odpowiedzi. Dzięki temu wymiana między użytkownikiem a inteligentnym asystentem ma formę rozmowy.

Jakiego rodzaju dane wykorzystuje Publio?

Publio korzysta z informacji, które są publicznie dostępne na Portalu UP. Ich publikacja odbywa się zgodnie z zasadą przejrzystości mającą zastosowanie do polityki i prawodawstwa UE we wszystkich dziedzinach. W oparciu o ten korpus Publio wykorzystuje klasyfikacje i kategorie dostępne na Portalu UP, takie jak tematy, autorów lub format Eurovoc, aby prowadzić i udoskonalać konwersację i pomóc użytkownikom w przeszukiwaniu trzech głównych zbiorów na Portalu UP: publikacji UE, prawa Unii i oficjalnej organizacyjnej bazy danych Unii Europejskiej (EU Whoiswho).

Publio wykorzystuje istniejący model językowy, aby rozumieć zadawane przez użytkowników pytania i przeprowadzić ich przez podróż wyszukiwania. Dzięki informacjom zwrotnym od użytkowników model językowy Publio jest stale udoskonalany i szkolony, aby spełniać oczekiwania użytkowników i radzić sobie z różnorodnością wprowadzanych przez nich informacji w trzech obsługiwanych językach.

Takie szkolenie obejmuje szereg elementów tworzących system Publio:

  • wstępnie zdefiniowany zestaw wypowiedzi powiązany z różnymi możliwymi formami intencji, aby Publio mógł najpierw rozpoznać ostateczny cel użytkownika, a następnie poprowadzić go krok po kroku do jego osiągnięcia;
  • wstępnie zdefiniowany zestaw stałych pytań, które Publio „rozumie” i na które może udzielić użytkownikom wstępnie zdefiniowanej odpowiedzi. Przykład: Jak mogę zamówić publikacje?
  • Encje uczone maszynowo, które Publio może zidentyfikować i wykorzystać w prowadzonych w tle procesach do wykrywania parametrów wyszukiwania, dostarczają dokładniejszych wyników lub opcji wyszukiwania, aby można było jeszcze bardziej udoskonalić ten proces. Encje te opierają się na istniejącej klasyfikacji i kategoriach danych, takich jak tezaurusy EuroVoc lub inne tabele autorytatywne, którymi zarządza EuroVoc: autorów, formatów, języków, organów (organizacji) UE, funkcji w strukturze służby publicznej UE itp. Dzięki temu Publio może na przykład stwierdzić na podstawie zapytania użytkownika, że szuka on publikacji na konkretny temat lub konkretnego autora.

Jak działa Publio?

Publio korzysta z usługi Language Understanding (LUIS) firmy Microsoft (dodatek 7), w połączeniu z systemem ekstrakcji encji opartym na LLM, aby poprawnie i efektywnie przetwarzać wprowadzane przez użytkowników informacje (wypowiedzi pisemne lub głosowe). LUIS dostarcza podstawowe informacje o celu i encjach użytkownika, a przy bardziej skomplikowanych zapytaniach komponent LLM zawęża rozpoznawanie encji, co daje lepsze wyniki w przypadku odcieni znaczeniowych i skomplikowanych zapytań. Na podstawie rozpoznanych zamierzeń i encji Publio rozpoczyna konwersację dostosowaną do potrzeb użytkownika, aby w kilku łatwych krokach pomóc mu w osiągnięciu określonego rezultatu.

Obecnie Publio wdraża 4 główne systemy dialogowe:

  • system wyszukiwania dokumentów pomagający użytkownikom wyszukującym publikacje UE lub unijne akty prawne
  • system wyszukiwania osób pomagający użytkownikom w wyszukiwaniu funkcjonariuszy publicznych zatrudnionych w instytucjach Unii
  • system wyszukiwania organizacji pomagający użytkownikom w wyszukiwaniu organów (organizacji) UE
  • system pytań i odpowiedzi (QnA) udzielający wcześniej zdefiniowanych odpowiedzi na często zadawane pytania.

W przypadku rozpoznania systemu „wyszukiwania” wirtualny asystent przeprowadzi użytkownika przez proces wyszukiwania odpowiedniego dokumentu, osoby lub organizacji, zadając mu proste pytania i proponując opcje filtrowania na podstawie jego odpowiedzi.

W przypadku systemu QnA Urząd Publikacji prowadzi wykaz par często zadawanych pytań i wstępnie zdefiniowanych odpowiedzi na te pytania. Jeżeli Publio rozpozna intencję dotyczącą QnA, a między konkretnym pytaniem od użytkownika i jednym z pytań przechowywanych w systemie istnieje duże podobieństwo, użytkownik niezwłocznie otrzyma stosowną odpowiedź. Na przykład:

– w przypadku rozpoznania intencji dotyczącej QnA i pytania w rodzaju „Gdzie jest moje zamówienie?” asystent odpowie „Status zamówienia można sprawdzić w sekcji Moje zamówienia w profilu użytkownika”;

– w przypadku rozpoznania intencji dotyczącej QnA i pytania w rodzaju „Gdzie mogę znaleźć dokumenty dla dzieci?” asystent odpowie zdaniem: „Publikacje dla dzieci można znaleźć w dziale Dla dzieci”.

Użytkownicy mogą wpisać pytania na klawiaturze lub zadać je na głos. Chatbot rejestruje dźwięk (pytanie wypowiedziane przez użytkownika) i przesyła go do systemu rozpoznawania mowy, który przetwarza mowę na tekst. Nagranie dźwiękowe jest przetwarzane przez platformę Microsoft Azure Speech na usługę tekstową (dodatek 8). Następnie Publio wyświetla wypowiedziany tekst zgodnie z tym, jak został on zinterpretowany przez system rozpoznawania mowy, a potem wyświetla odpowiedź jako tekst i odtwarza jako słowa przy użyciu syntezatora mowy. Odbywa się to błyskawicznie i bez pozostawiania śladów.

W jaki sposób Publio analizuje pytanie i proponuje wyniki?

Do generowania odpowiedzi dla użytkowników Publio nie wykorzystuje LLM ani żadnej innej technologii generatywnej AI. Wszystkie wiadomości od Publio są oparte na wcześniej opracowanych szablonach. Publio wykorzystuje model językowy uczenia maszynowego, który jest szkolony, aby nauczyć się rozpoznawania wprowadzanych przez użytkownika informacji i reagować na nie. Model ten odpowiada za przetwarzanie wiadomości lub zapytania użytkownika, identyfikując intencję, z jaką przekazano wiadomość i udzielając stosownej odpowiedzi. Proces szkolenia Publio polega na wprowadzeniu do modelu uczenia maszynowego dużej ilości oznaczonych danych szkoleniowych, które obejmują przykłady informacji wprowadzanych przez użytkowników i odpowiadających im intencji wraz z możliwymi odpowiedziami.

Publio wykorzystuje Przetwarzanie Języka Naturalnego i wyszkolony model językowy, aby zrozumieć intencję użytkownika i wyodrębnić z jego pytania rozpoznane encje (na przykład wyszukiwanie terminu, tematu, autora, daty dokumentu, formatu dokumentu). Publio używa tych encji do przeprowadzenia wyszukiwania i wyświetlenia jego wyników.





Jeżeli wynik wyszukiwania jest zbyt szeroki, Publio kontynuuje konwersację, zadając użytkownikowi dodatkowe pytania, aby zawęzić wyniki wyszukiwania przez filtrowanie innych encji.

Pytania formułowane przez Publio ograniczają się do identyfikacji intencji użytkownika, zrozumienia jego celu i sformułowania odpowiedniego zapytania wyszukiwania do korpusu treści opublikowanych na Portalu UP. Proponowane przez Publio wyniki pochodzą w całości z tego korpusu.

Informacje zwrotne od użytkowników



W dowolnym momencie konwersacji użytkownik końcowy może przekazać pozytywne, neutralne lub negatywne informacje zwrotne dotyczące jego doświadczeń z korzystania z Publio. Mogą to być informacje zwrotne wprowadzone ręcznie przez użytkownika w dowolnym momencie lub w odpowiedzi na automatyczne wyskakujące okienko, które wyświetla się po kilku sekundach bezczynności z prośbą do użytkownika o przekazanie informacji zwrotnych. Dodatkowo pytania, których Publio nie „zrozumiał” właściwie, są automatycznie rejestrowane i okresowo przetwarzane przez zespół pracowników Urzędu Publikacji. Zarówno informacje zwrotne od użytkowników, jak i analiza pytań, których Publio nie „zrozumiał” właściwie, są wykorzystywane do ponownego szkolenia modelu językowego w celu stałego udoskonalania usług świadczonych na rzecz użytkowników końcowych.

Przetwarzanie danych prywatnych

Przetwarzanie danych osobowych na Portalu UP odbywa się zgodnie z przepisami unijnego ogólnego rozporządzenia o ochronie danych (RODO) oraz rozporządzenia w sprawie przetwarzania danych osobowych przez instytucje, agencje i organy Unii Europejskiej (dodatek 9).

Publio nie gromadzi, nie przechowuje ani nie archiwizuje żadnych elementów – ani informacji wprowadzanych przez użytkowników, ani informacji przekazywanych w odpowiedziach Publio.

Gromadzone informacje zwrotne są anonimizowane w taki sposób, aby nie można było ich powiązać z użytkownikami, od których pochodzą.

Żadnych danych osobowych nie wykorzystuje się na potrzeby zautomatyzowanego podejmowania decyzji, śledzenia ani profilowania w jakikolwiek możliwy sposób. Przy ekstrakcji encji za pomocą LLM jedynymi danymi przekazywanymi między Publio i LLM są zapytanie użytkownika oraz wstępna lista wyekstrahowanych encji, wygenerowana w usłudze LUIS. Nie udostępnia się ani nie przekazuje żadnych danych osobowych użytkownika. Wszystkie serwisy Publio są przechowywane w europejskich centrach danych, a wszystkie operacje przetwarzania są zgodne z unijnymi przepisami ochrony prywatności. .

Aktualne ograniczenia

  • Transkrypcja imion i nazwisk przy użyciu głosu: chociaż większość imion i nazwisk zostaje „zrozumiana” i zapisana poprawnie, ich wyodrębnianie opiera się na uczeniu maszynowym i nie jest w 100% dokładne. Ze względu na ograniczenia usługi LUIS niektóre imiona i nazwiska nie zostają prawidłowo wyodrębnione nawet po wyszkoleniu modelu przy pomocy konkretnych przykładów ze zbioru danych.
  • Daty w językach francuskim i hiszpańskim: w bardziej złożonych kontekstach „rozumienie” dat w językach hiszpańskim i francuskim jest mniej dokładne. Na przykład w języku hiszpańskich rok zostanie rozpoznany przy użyciu „entre 2016 y 2017” bez dodatkowego kontekstu, natomiast nie zostanie rozpoznany przy użyciu „entre el año 2019 y 2020”. W języku angielskim wyrażenie „2 years ago” jest rozpoznawane, natomiast wyrażenie „il y a 2 ans” w języku francuskim – nie.
  • Rozpoznawanie mowy działa tylko w jednym języku na raz.
  • Rozpoznawanie mowy nie obejmuje trybu pisowni, co oznacza, że nie jest wyposażone w funkcję, która pozwoliłaby użytkownikom literować słowa znak po znaku w celu zapewnienia dokładnej transkrypcji.
  • Rozpoznawanie encji imienia i nazwiska nie sprawdza się w przypadku dłuższych wyrażeń w połączeniu ze zwrotami „Mrs”/„Miss”.

Urząd Publikacji Unii Europejskiej, 16 maja 2023 r.

1 Dostępne pod adresem https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html.

2 Siedem wymogów, które powinna spełniać godna zaufania sztuczna inteligencja, to: 1. przewodnia i nadzorcza rola człowieka; 2. solidność techniczna i bezpieczeństwo oprogramowania; 3. ochrona prywatności i odpowiednie zarządzanie danymi; 4. przejrzystość; 5. różnorodność, niedyskryminacja i sprawiedliwość; 6. dobrostan społeczny i środowiskowy; 7. odpowiedzialność.

3 Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii Przyjęty i podpisany akt można znaleźć tutaj.

4 Wniosek dotyczący dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji („dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję”), COM(2022) 496 final, Bruksela, 28.9.2022 r.

5 Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)).

6 Zob. art. 3.

7 https://www.luis.ai/

8 https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE5cCGB

9 Rozporządzenie (UE) 2016/679, Dz.U. L 119 z 4.5.2016, s. 1 oraz rozporządzenie (UE) 2018/1725, Dz.U. L 295 z 21.11.2018, s. 39.