Autor: Katarzyna Kowalska

  • Internet rzeczy

    Internet rzeczy

    Internet rzeczy

    Internet rzeczy to pojęcie odnoszące się do rzeczy (urządzeń) połączonych do sieci Internet i posiadających funkcjonalność przesyłania informacji do innych urządzeń lub systemów.

    W życiu codziennym z Internetem rzeczy mamy do czynienia w przypadku tzw. inteligentnego domu (smart home).

    W działalności biznesowej IoT znajduje zastosowanie np. do zarządzania flotami samochodowymi czy śledzeniem produktów.

    Akt w sprawie danych

    Kluczową regulacją prawną dotyczącą Internetu rzeczy jest rozporządzenie Parlamentu Europejskiego i Rady (UE) 2023/2854 z dnia 13 grudnia 2023 roku w sprawie zharmonizowanych przepisów dotyczących sprawiedliwego dostępu do danych i ich wykorzystywania oraz w sprawie zmiany rozporządzenia (UE) 2017/2394 i dyrektywy (UE) 2020/1828 (akt w sprawie danych) ma na celu, jak wyjaśnia motyw 5 rozporządzenia, zapewnienie użytkownikom produktu skomunikowanego lub usługi powiązanej w Unii możliwości terminowego dostępu do danych generowanych w wyniku korzystania z danego produktu skomunikowanego lub z danej usługi powiązanej oraz wykorzystywania tych danych, w tym dzielenia się nimi z wybranymi przez siebie osobami trzecimi.

    Produkt skomunikowany

    Akt w sprawie danych definiuje pojęcie „produkt skomunikowany” jako rzecz, która pozyskuje, generuje lub zbiera dostępne dane dotyczące jej wykorzystywania lub jej otoczenia i która jest w stanie komunikować dane z produktu za pomocą usługi łączności elektronicznej, łącza fizycznego lub dostępu na urządzeniu i której podstawową funkcją nie jest przechowywanie, przetwarzanie ani przesyłanie danych w imieniu strony innej niż użytkownik.

    Usługa powiązana

    Akt w sprawie danych definiuje pojęcie „usługa powiązana” jako usługę cyfrową, w tym oprogramowanie, ale z wyłączeniem usług łączności elektronicznej, która podczas zakupu, najmu, dzierżawy lub leasingu jest skomunikowana z produktem w taki sposób, że jej brak uniemożliwiłby produktowi skomunikowanemu wykonywanie co najmniej jednej z jego funkcji, lub która zostaje skomunikowana z produktem przez producenta lub osobę trzecią później, aby dodać, uaktualnić lub zmodyfikować funkcje produktu skomunikowanego.

    Więcej o Data Act

    Zobacz też: Chmura obliczeniowa

  • Chmura obliczeniowa

    Chmura obliczeniowa

    Chmura obliczeniowa

    Chmura obliczeniowa, przetwarzanie w chmurze (cloud computing) to określenie dotyczące sposobu dostępu do mocy obliczeniowych, gdzie klient na żądanie otrzymuje od usługodawcy określony zasób przestrzeni pamięci komputerowej i mocy obliczeniowych, którymi samodzielnie zarządza, bez potrzeby instalowania na własnych zasobach oprogramowania i nabywania licencji na to oprogramowanie.

    Oferowane usługi chmury obliczeniowej zapewniają klientom zwykle wstępnie skonfigurowane narzędzia, skalowalne zasoby i zarządzanie usługami. Klienci usług chmury obliczeniowej mogą skupić się na swojej podstawowej działalności zamiast na utrzymywaniu infrastruktury i nabywaniu licencji na poszczególne oprogramowania.

    Cechy charakterystyczne chmury obliczeniowej

    Usługa chmury obliczeniowej wyróżnia się tym, że klient w ramach określonego płatnego planu (wariantu) usługi uzyskuje dostęp do określonych zasobów IT, przy czym użytkownicy ze strony klienta samodzielnie i automatycznie uzyskują potrzebne zasoby IT.

    Zasoby IT w ramach chmury obliczeniowej są dostępne przez sieć internetową za pomocą różnorakich urządzeń (komputerów, smartfonów itp.) jednocześnie wielu użytkownikom i są elastyczne oraz skalowalne.

    Podstawy prawne

    Kwestia chmury obliczeniowej nie została uregulowana w jednym akcie prawnym. Regulacja chmury obliczeniowej ma charakter rozproszony, co oznacza, że zastosowanie znajduje szereg przepisów prawa znajdujących się w różnych aktach prawnych, np. RODO.

    Zobacz też: Internet rzeczy

  • Sztuczna inteligencja w finansach – raport Rzecznika Finansowego

    Sztuczna inteligencja w finansach – raport Rzecznika Finansowego

    Sztuczna inteligencja w finansach to przedmiot raportu Rzecznika Finansowego „AI W FINANSACH” opublikowanego 16 października 2025 roku.

    Cel raportu


    Autorzy raportu (wymienieni w nim członkowie Doradczego Komitetu Naukowego przy Rzeczniku Finansowym) wskazuję we wstępie do raportu, że ich intencją było m.in. pomoc w zrozumieniu, w jakim zakresie i w jakiej formie sztuczna inteligencja już jest wykorzystywana w sektorze finansowym oraz wskazanie, jakie są obowiązki podmiotów gospodarczych wykorzystujących sztuczną inteligencję i jakie są uprawnienia osób, wobec których stosowana jest ta technologia

    Definicje

    Raport na początku wyjaśnia znaczenie podstawowych pojęć takich jak „sztuczna inteligencja”, którą autorzy definiują jako szeroką dziedzinę technologii, której celem jest stworzenie programów komputerowych zdolnych do wykonywania zadań, które do tej pory uważano, że wymagają ludzkiego intelektu w ramach której należy wyróżnić trzy główne obszary:

    1) uczenie maszynowe

    2) głębokie uczenie

    3) wielkie modele językowe

    Klasyfikacja sztucznej inteligencji

    Sztuczna inteligencja według autorów raportu może być podzielona na następujące klasy:

    1) wąska sztuczna inteligencja – wykonująca jedno konkretne zadanie;

    2) ogólna sztuczna inteligencji (AGI) – posiada funkcje poznawcze na poziomie człowieka;

    3) supersztuczna inteligencja (ASI) – przewyższa wszystkie ludzkie możliwości.

    Metody AI

    Raport proponuje podział metod AI na:

    1) metody dyskryminacyjne oraz

    2) metody generatywne

    AI ACT

    Raport odnosi się także do AI Act 

    Przykłady zastosowań AI przez instytucje finansowe

    Sztuczna inteligencja w finansach to najczęściej narzędzia wykorzystywane przez instytucje finansowe. Raport wymienia najczęściej stosowane w takich instytucjach narzędzia AI:

    1) chatboty;

    2) systemy oceny zdolności kredytowej;

    3) zautomatyzowane doradztwo inwestycyjne;

    4) personalizacja ofert i dopasowywanie produktów do klienta.

    AML

    Sztuczna inteligencja w finansach to także wykorzystanie systemów AI na potrzeby przeciwdziałania praniu brudnych pieniędzy.

    Korzyści i zagrożenia

    Raporty opisuje także korzyści i zagrożenia wynikające ze stosowania systemów sztucznej inteligencji w instytucjach finansowych. Autorzy zwracają uwagę m.in. na ryzyko związane ze zjawiskami „bias” oraz „halucynacji”.



  • Polskie modele językowe AI

    Polskie modele językowe AI

    Polskie modele językowe AI

    Model, to jak podaje Słownik Języka Polskiego między innymi wzór, wg którego coś zostało lub zostanie wykonane; przedmiot będący wzorcem, wykonany zwykle w mniejszej skali; także: próbny egzemplarz, prototyp. Wikipedia model definiuje jako informacyjną reprezentację obiektu, osoby lub systemu.

    Język według Słownika Języka Polskiego oznacza między innymi system znaków obejmujący gramatykę i słownictwo, służący porozumiewaniu się.

    Model językowy jest więc wzorem, informacyjną reprezentacją ludzkiej zdolności językowej – do tworzenia języka naturalnego.

    Bielik AI

    BIelik AI to model językowy rozwijany przez Fundację Speakleash z siedzibą we Wrocławiu.

    PLLuM

    PLLuM to model językowy określany przez twórców (konsorcjum różnych podmiotów) jako otwarty polski model językowy, który został stworzony w ramach projektu finansowanego przez Ministra Cyfryzacji.

  • Prawo nowych technologii

    Prawo nowych technologii

    Prawo nowych technologii to dziedzina prawa zajmująca się regulacją technologii takich jak systemy sztucznej inteligencji, Internet rzeczy czy chmura obliczeniowa.

    AI Act

    Prawo nowych technologii obecnie to przede wszystkim regulacja systemów sztucznej inteligencji.

    Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji), zwany skrótowo AI Act to akt prawny, który ustanawia, jak to określa Komisja Europejskpierwsze w historii ramy prawne dotyczące sztucznej inteligencji, które uwzględniają zagrożenia związane ze sztuczną inteligencją i stawiają Europę w roli globalnego lidera.

  • Akt w sprawie danych

    Akt w sprawie danych

    Akt w sprawie danych

    Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2023/2854 z dnia 13 grudnia 2023 roku w sprawie zharmonizowanych przepisów dotyczących sprawiedliwego dostępu do danych i ich wykorzystywania oraz w sprawie zmiany rozporządzenia (UE) 2017/2394 i dyrektywy (UE) 2020/1828 (akt w sprawie danych) ma na celu, jak wyjaśnia motyw 5 rozporządzenia, zapewnienie użytkownikom produktu skomunikowanego lub usługi powiązanej w Unii możliwości terminowego dostępu do danych generowanych w wyniku korzystania z danego produktu skomunikowanego lub z danej usługi powiązanej oraz wykorzystywania tych danych, w tym dzielenia się nimi z wybranymi przez siebie osobami trzecimi.

    Produkt skomunikowany

    Akt w sprawie danych definiuje pojęcie „produkt skomunikowany” jako rzecz, która pozyskuje, generuje lub zbiera dostępne dane dotyczące jej wykorzystywania lub jej otoczenia i która jest w stanie komunikować dane z produktu za pomocą usługi łączności elektronicznej, łącza fizycznego lub dostępu na urządzeniu i której podstawową funkcją nie jest przechowywanie, przetwarzanie ani przesyłanie danych w imieniu strony innej niż użytkownik.

    Usługa powiązana

    Akt w sprawie danych definiuje pojęcie „usługa powiązana” jako usługę cyfrową, w tym oprogramowanie, ale z wyłączeniem usług łączności elektronicznej, która podczas zakupu, najmu, dzierżawy lub leasingu jest skomunikowana z produktem w taki sposób, że jej brak uniemożliwiłby produktowi skomunikowanemu wykonywanie co najmniej jednej z jego funkcji, lub która zostaje skomunikowana z produktem przez producenta lub osobę trzecią później, aby dodać, uaktualnić lub zmodyfikować funkcje produktu skomunikowanego.

    Akt w sprawie danych – przedmiot regulacji

    Akt w sprawie danych ustanawia zharmonizowane przepisy między innymi dotyczące:

    1. udostępniania danych z produktu i z usługi powiązanej użytkownikowi produktu skomunikowanego lub usługi powiązanej;
    2. udostępniania danych przez posiadaczy danych odbiorcom danych;
    3. udostępniania danych przez posiadaczy danych organom sektora publicznego, Komisji, Europejskiemu Bankowi Centralnemu i organom Unii – w przypadku wystąpienia wyjątkowej potrzeby wykorzystania tych danych do celów wykonania określonego zadania realizowanego w interesie publicznym;
    4. ułatwiania zmiany dostawcy usług przetwarzania danych;
    5. wprowadzania zabezpieczeń przed niezgodnym z prawem dostępem osób trzecich do danych nieosobowych; oraz
    6. opracowania norm interoperacyjności wobec danych, które mają być udostępniane, przekazywane i wykorzystywane.

    Akt w sprawie danych a dane osobowe

    Akt w sprawie danych dotyczy danych osobowych i nieosobowych, w tym następujących rodzajów danych i następujących kontekstów:

    1. rozdział II ma zastosowanie do danych, z wyjątkiem treści, dotyczących działania, wykorzystywania i środowiska produktów skomunikowanych i usług powiązanych;
    2. rozdział III ma zastosowanie do wszelkich danych sektora prywatnego podlegających ustawowym obowiązkom w zakresie dzielenia się danymi;
    3. rozdział IV ma zastosowanie do wszelkich danych sektora prywatnego udostępnianych i wykorzystywanych na podstawie umów między przedsiębiorcami;
    4. rozdział V ma zastosowanie do wszelkich danych sektora prywatnego ze szczególnym uwzględnieniem danych nieosobowych;
    5. rozdział VI ma zastosowanie do wszelkich danych i usług przetwarzanych przez dostawców usług przetwarzania danych;
    6. rozdział VII ma zastosowanie do wszelkich danych nieosobowych dostawców usług przetwarzania danych przechowywanych na terenie Unii.

    Podmiotowy zakres zastosowania aktu w sprawie danych

    Akt w sprawie danych ma zastosowanie do:

    1. producentów produktów skomunikowanych wprowadzanych do obrotu w Unii i dostawców usług powiązanych, niezależnie od miejsca siedziby tych producentów i dostawców;
    2. znajdujących się w Unii użytkowników produktów skomunikowanych lub usług powiązanych, o których mowa w lit. a);
    3. posiadaczy danych, którzy udostępniają dane odbiorcom danych w Unii, niezależnie od miejsca siedziby tych posiadaczy;
    4. odbiorców danych w Unii, którym dane są udostępniane;
    5. organów sektora publicznego, Komisji, Europejskiego Banku Centralnego oraz organów Unii, które w przypadku wyjątkowej potrzeby wykorzystania tych danych występują do posiadaczy danych z wnioskiem o udostępnienie danych do celów wykonania określonego zadania realizowanego w interesie publicznym, oraz posiadaczy danych, którzy dostarczają tych danych w odpowiedzi na taki wniosek;
    6. dostawców usług przetwarzania danych świadczących takie usługi klientom w Unii, niezależnie od miejsca siedziby tych dostawców;
    7. uczestników przestrzeni danych oraz sprzedawców aplikacji korzystających z inteligentnych umów, a także osób, których działalność handlowa, gospodarcza lub zawodowa obejmuje wdrażanie inteligentnych umów w ramach wykonywania umowy.

    Autor: radca prawny Michał Kowalski

  • Systemy AI wysokiego ryzyka

    Systemy AI wysokiego ryzyka

    Systemy AI wysokiego ryzyka

    Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) , zwany skrótowo AI Act to akt prawny, kóry ustanawia, jak to określa Komisja Europejska  pierwsze w historii ramy prawne dotyczące sztucznej inteligencji, które uwzględniają zagrożenia związane ze sztuczną inteligencją i stawiają Europę w roli globalnego lidera. Więcej o AI Act.

    Klasyfikacja systemów AI jako systemów AI wysokiego ryzyka

    AI Act w art. 6 ust. 1 stanowi, że bez względu na to, czy system AI wprowadza się do obrotu lub oddaje do użytku niezależnie od produktów, o których mowa w lit. a) i b), taki system AI uznaje się za system wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:

    a) system AI jest przeznaczony do wykorzystania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I lub sam system AI jest takim produktem;

    b) produkt, którego związanym z bezpieczeństwem elementem jest zgodnie z lit. a) system AI, lub sam system AI jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I – ocenie zgodności przez stronę trzecią w związku z wprowadzeniem tego produktu do obrotu lub oddaniem go do użytku.

    Systemy AI wymienione w załączniku III do AI Act

    AI Act za systemy wysokiego ryzyka uznaje także systemy AI, o których mowa w załączniku III do AI Act.

    W załączniku tym wymieniono osiem obszarów, takich jak np. biometria, infrastruktura krytyczna, zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia, a w ramach tych obszarów poszczególne rodzaje systemów AI, np. systemy AI przeznaczone do wykorzystywania do celów rekrutacji lub wyboru osób fizycznych.

  • Ochrona danych osobowych w CEIDG

    Ochrona danych osobowych w CEIDG

    Ochrona danych osobowych w CEIDG

    Ochrona danych osobowych w CEIDG stała się przedmiotem zainteresowania Prezesa Urzędu Ochrony Danych Osobowych, kóry poinformował w dniu 8 sierpnia 2025 roku na stronie internetowej Urzędu Ochrony Danych Osobowych o swoim wystąpieniu do Ministra Finansów i Gospodarki (sygn. DPNT.413.32.2025) zawierającym wniosek o podjęcie działań legislacyjnych mających na celu rewizję funkcjonującego obecnie modelu powszechnej dostępności danych osobowych osób fizycznych będących przedsiębiorcami zamieszczonych w Centralnej Ewidencji i Informacji o Działalności Gospodarczej (CEIDG).

    Nowe ryzyka

    Prezes UODO zwraca w wystąpieniu uwagę, że model wpisywania i ujawniania danych przedsiębiorców do CEIDG zasadniczo nie uległ zmianie od 2011 roku, podczas gdy w tym czasie doszło do szybkiego szybkiego postępu technologicznemu i towarzyszącego mu rozwojowi procesów i metod przetwarzania danych osobowych, co wiąże się z pojawieniem się nowych ryzyk związanych z przetwarzaniem danych osobowych dostępnych w CEIDG.

    Prezes UODO zwrócił w szczególności uwagę na narastającą tendencję do podejmowania prób zautomatyzowanego pobierania danych z publicznych rejestrów, w celu łączenia ich z innymi danymi, profilowania, śledzenia, czy też dalszego wykorzystywania w różnych zamiarach, także z zastosowaniem algorytmów sztucznej inteligencji (AI).

    Stanowisko TSUE w sprawie rejestrów beneficjentów rzeczywistych

    Prezes UODO przedstawiając potrzebę rewizji funkcjonującego obecnie modelu powszechnej dostępności danych osobowych osób fizycznych będących przedsiębiorcami zamieszczonych w CEIDG odniósł się m.in. do stanowiska Trybunału Sprawiedliwości Unii Europejskiej (TSUE) wyrażonego w wyroku z 22 listopada 2022 r. w sprawie C-37/20, dotyczącego uzyskiwania danych z krajowych rejestrów beneficjentów rzeczywistych.

    Adres prowadzenia działalności gospodarczej a adres zamieszkania

    Zasadniczym problemem, na który uwagę zwrócił w w/w stanowisku Prezes UODO, jest fakt, iż często adres prowadzenia działalności gospodarczej jest adresem zamieszkania lub stałego pobytu przedsiębiorcy, co rodzi zagrożenia dla życia prywatnego i rodzinnego przedsiębiorcy.

    W tym kontekście Prezes UODO odwołał się do apelu Naczelnej Izby Lekarskiej i zagrożeń dla lekarzy prowadzących praktykę w miejscu zamieszkania.

    Zasadność rewizji obecnego modelu

    Ochrona danych osobowych w CEIDG wymaga w ocenie Prezesa UODO dokonania rewizji modelu powszechnej jawności danych osobowych przedsiębiorców podlegających wpisowi do CEIDG.

    Autor artykułu: radca prawny Michał Kowalski

  • Definicja systemu sztucznej inteligencji

    Definicja systemu sztucznej inteligencji

    Definicja systemu sztucznej inteligencji

    Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji), zwany skrótowo AI Act to akt prawny, który ustanawia, jak to określa Komisja Europejskpierwsze w historii ramy prawne dotyczące sztucznej inteligencji, które uwzględniają zagrożenia związane ze sztuczną inteligencją i stawiają Europę w roli globalnego lidera.

    Systemy AI – definicja

    System AI jest definiowany w AI Act (art. 3 pkt 1) jako system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.

    Wytyczne Komisji dotyczące definicji systemu sztucznej inteligencji

    AI Act nałożył w art. 96 ust. 1 lit. f) na Komisję Europejską obowiązek opracowania wytycznych dotyczących praktycznego wdrażania tego rozporządzenia w zakresie stosowania definicji systemu AI określonej w art. 3 pkt 1 AI Act.

    Komisja wykonała powyższy obowiązek, a opracowane wytyczne zostały opublikowane 6 lutego 2025 roku.

    Brak możliwości przedstawienia wyczerpującego wykazu potencjalnych systemów AI

    Komisja w wytycznych wskazuje, że ze względu na dużą różnorodność systemów AI nie jest możliwe przedstawienie w niniejszych wytycznych wyczerpującego wykazu wszystkich potencjalnych systemów AI. Jest to zgodne z motywem 12 aktu w sprawie sztucznej inteligencji, w którym wyjaśniono, że pojęcie „systemu AI” powinno być jasno zdefiniowane przy jednoczesnym „zapewnieniu swobody umożliwiającej dostosowanie się do szybkiego rozwoju technologicznego w tej dziedzinie”. Definicja systemu AI nie powinna być stosowana w sposób mechaniczny; każdy system należy oceniać na podstawie jego szczególnych cech.

    Charakter wytycznych


    W wytycznych wyjaśniono, że nie mają one charakteru wiążącego, a wszelkiej autorytatywnej wykładni aktu w sprawie sztucznej inteligencji może ostatecznie dokonywać wyłącznie Trybunał Sprawiedliwości Unii Europejskiej („TSUE”)

    Definicja systemu sztucznej inteligencji – główne elementy

    Wytyczne wyjaśniają, że definicja systemu sztucznej inteligencji zamieszczona w AI Act  obejmuje siedem głównych elementów: 

    1) system maszynowy; 

    2) który został zaprojektowany do działania z różnym poziomem autonomii; 

    3) który może wykazywać zdolność adaptacji po jego wdrożeniu; 

    4) a także który – na potrzeby wyraźnych lub dorozumianych celów; 

    5) wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, 

    6) takie jak predykcje, treści, zalecenia lub decyzje, 

    7) które mogą wpływać na środowisko fizyczne lub wirtualne. 

    Perspektywa opartą na cyklu życia

    W wytyczny Komisja zauważa, że w definicji systemu AI przyjęto perspektywę opartą na cyklu życia obejmującą dwa główne etapy:

    1) etap przed wdrożeniem, czyli etap „tworzenia” systemu, oraz

    2)  etap po wdrożeniu, czyli etap „wykorzystywania” systemu.

    Siedem elementów wymienionych w tej definicji nie musi być stale obecnych na obu etapach tego cyklu życia. Zamiast tego w definicji uznano, że poszczególne elementy mogą pojawiać na jednym etapie, ale mogą nie utrzymywać się na obu. To podejście do zdefiniowania systemu AI jest odzwierciedleniem złożoności i różnorodności systemów AI, co gwarantuje, że definicja odpowiada celom aktu w sprawie sztucznej inteligencji poprzez uwzględnienie szerokiego zakresu systemów AI.

    Autor: radca prawny Michał Kowalski
    Okręgowa Izba Radców Prawnych w Lublinie Lb-1484
    Kontakt

  • Zakazane praktyki w zakresie sztucznej inteligencji

    Zakazane praktyki w zakresie sztucznej inteligencji

    Zakazane praktyki w zakresie sztucznej inteligencji

    Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) , zwany skrótowo AI Act, ustanawia ramy prawne dla sztucznej inteligencji.

    O AI Act więcej tutaj.

    W artykule 5 AI Act określone zostały zakazane praktyki w zakresie AI, w tym w pierwszej kolejności następująca praktyka: wprowadzanie do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę.

    Wytyczne Komisji w sprawie zakazanych praktyk w zakresie sztucznej inteligencji

    AI Act nałożył w art. 96 ust. 1 lit. b) na Komisję Europejską obowiązek opracowania wytycznych dotyczących praktycznego wdrażania tego rozporządzenia w zakresie zakazanych praktyk, o których mowa w art. 5 AI Act.

    Komisja wykonała powyższy obowiązek, a opracowane wytyczne zostały opublikowane 4 lutego 2025 roku.

    Cel wytycznych

    Komisja wyjaśniła w wytycznych, że mają one na celu zwiększenie jasności prawa i zapewnienie informacji na temat tego, jak Komisja interpretuje zakazy zawarte w art. 5 aktu w sprawie sztucznej inteligencji, z myślą o zapewnieniu ich spójnego, skutecznego i jednolitego stosowania. Wytyczne te powinny pełnić rolę praktycznych wskazówek pomagających właściwym organom określonym w akcie w sprawie sztucznej inteligencji w działaniach w zakresie egzekwowania przepisów, a także dostawcom systemów AI i podmiotom je stosującym w wypełnianiu obowiązków wynikających z tego aktu. Zgodnie z założeniem interpretacja zakazów przedstawiona w wytycznych ma być proporcjonalna, co umożliwi osiągnięcie celów aktu w sprawie sztucznej inteligencji w zakresie ochrony praw podstawowych i bezpieczeństwa, zarazem promując innowacje i zapewniając pewność prawa. 

    Charakter wytycznych

    W wytycznych wyjaśniono, że nie mają one charakteru wiążącego, a wszelkiej autorytatywnej wykładni aktu w sprawie sztucznej inteligencji może ostatecznie dokonywać wyłącznie Trybunał Sprawiedliwości Unii Europejskiej („TSUE”)

    Zakazane praktyki w zakresie sztucznej inteligencji – przykłady

    Zakazane praktyki w zakresie sztucznej inteligencji oraz pojęcia stosowane w AI Act w tym kontekście zostały w wytycznych określone na podstawie podanych w nich przykładów, przy czym wytyczne zastrzegają, że stosowanie art. 5 aktu w sprawie sztucznej inteligencji będzie wymagać indywidualnej oceny, z należytym uwzględnieniem konkretnej sytuacji w danym przypadku. W związku z tym przykłady podane w niniejszych wytycznych mają jedynie charakter orientacyjny i pozostają bez uszczerbku dla konieczności przeprowadzenia takiej oceny w każdym przypadku

    Autor: radca prawny Michał Kowalski

    Okręgowa Izba Radców Prawnych w Lublinie Lb-1484
    Kontakt