Czytaj

arrow pointing down

Etyka AI – regulacje prawne a potencjał sztucznej inteligencji

Etyka AI – regulacje prawne a potencjał sztucznej inteligencji. Zrozum, jak prawo wpływa na rozwój AI i jakie są etyczne dylematy dotyczące tej technologii.

Poniżej przeczytasz transkrypcję rozmowy, którą przeprowadziliśmy na kanale Beyond AI.

W tym odcinku Beyond AI rozmawiamy z Sylwią Strzeboński-Gancarczyk, HR Managerem z firmy CPL, o etycznych aspektach sztucznej inteligencji w kontekście pracy. Jaka jest przyszłość AI w HR i jak firmy powinny przygotować się na nowe regulacje?

Obejrzyj ten materiał na YouTube:

Sztuczna inteligencja: szansa czy zagrożenie?

Rozmowa z Sylwią z CPL o etycznych aspektach AI w HR

Jan Twardowski: Cześć! Nazywam się Jan. Dzisiaj moim gościem jest Sylwia z firmy CPL. Cześć, Sylwia!

Sylwia Srzeboński-Gancarczyk: Cześć!

Dużo na tym kanale rozmawialiśmy o możliwościach sztucznej inteligencji. Dzisiaj chcemy porozmawiać chwilę o etycznych aspektach, ale zanim do tego przejdziemy, Sylwia, jakbyś powiedziała, czym się w ogóle zajmujesz w CPL?

W CPL jestem HR managerem, odpowiadam za kwestie związane z opieką nad pracownikami, szeroko pojętą, w całym zakresie, ale też w ramach naszego działu HR odpowiadamy za kwestie prawne. To jest dość duża część naszej pracy – wdrażanie różnego rodzaju rozporządzeń, tworzenie tej ramy prawnej dla biznesu. To jest powód, dla którego po części też właśnie etyka AI i rozwiązania prawne są dla mnie interesujące.

Chciałbym zacząć od tej strony konkretnego pracownika. Czyli takiego Kowalskiego, który z tym AI się spotyka i właśnie gdzie różne etyczne aspekty mogą mieć miejsce. To jakbyś powiedziała jeszcze najpierw: czy to z perspektywy waszej firmy, czy z innych firm, o których wiesz, w jaki sposób pracownicy z tą sztuczną inteligencją się stykają? To znaczy: gdzie firmy wdrażają czy integrują sztuczną inteligencję w taki sposób, że pracownicy rzeczywiście mają z tym kontakt?

Na przykład w naszej branży ciekawe jest to, że Linkedin wprowadził już różnego rodzaju rozwiązania oparte o AI. Jako rekruter automatycznie masz w podpowiedzi, w jaki sposób dostosować komunikację do potencjalnego kandydata. I tego typu narzędzia są już dostępne, a rekruterzy mogą z nich na bieżąco korzystać, a zwykły użytkownik, po części, zakładam, że nie zdaje sobie sprawy, że tą wiadomość, którą dostałeś od rekrutera, po części wygenerowała już AI. I tego typu przykłady jak najbardziej są dostępne u nas w branży też, jeśli chodzi o naszą organizację, my dość szybko, na przykład, musieliśmy zareagować w momencie, kiedy czat stał się modny, bo mieliśmy świadomość, że nasi pracownicy bardzo chętnie korzystają z nowinek biznesowych i chcieli sobie pomóc przy takiej codziennej pracy. Mając na uwadze to, że procesujemy dane osobowe, tak jako agencja rekrutacyjna, musieliśmy zadbać o to, żeby te dane kandydatów nie wychodziły na zewnątrz. Więc dość szybko musieliśmy zareagować i powiedzieć pracownikom, że możecie korzystać z narzędzi, ale tylko w momencie, kiedy tak nasz wewnętrzny CPL Lab zatwierdzi dane narzędzie, że ono może być użytkowane wewnętrznie w organizacji. Bo w innym przypadku potencjalnie właśnie wzrastało ryzyko dotyczące tego, że możesz gdzieś wrzucić dane, które nie powinny się pojawić tam, gdzie są.

No właśnie, bo pojawiły się różnego rodzaju narzędzia, czy to ChatGPT, czy takie bardziej celowane. I rzeczywiście nie sposób uniknąć tego, i nie chcemy nawet unikać tego, żeby nasi pracownicy zaczęli z tego korzystać. Natomiast, no korzystanie z tych narzędzi może powodować pewne rzeczywiście problemy, czy kwestie natury etyczno-prawnej. No właśnie, i powiedziałaś o jednej, tej takiej ogólnej, że nie chcemy, żeby nasze dane gdzieś tam wyszły. Natomiast, czy są jeszcze jakieś inne, czy masz spostrzeżenia na temat takich kwestii etycznych, czy problemów etycznych, albo prawnych, które się pojawiają w momencie, w którym zaczynamy te rozwiązania wykorzystywać?

Problemy etyczne i prawne związane z wykorzystywaniem AI w pracy

Potrzebne są dość jasne instrukcje dla pracowników w tym aspekcie. Bo przykładowo: masz przygotować prezentację - narzędzi AI do tego jest sporo, ale informacje, jakie wrzucisz do tego danego narzędzia, to już po części jest własność pracodawcy, i możliwe że tajemnica przedsiębiorstwa. Więc ważne jest to, żeby pracownik miał świadomość, jakie dane wrzuca i gdzie wrzuca, jeśli z tego typu narzędzi korzysta. Jeśli już organizacja jakieś narzędzia certyfikuje, albo uznaje za bezpieczne, to żeby miał pracownik dość jasne wytyczne w tym aspekcie, z czego można skorzystać, co można wrzucić na takim poziomie praktycznym.

Mamy temat własności intelektualnej i większość z nas podpisuje w cudzysłowie tzw. „klauzulę śmieć”, tak jakby przekazuje wszystkie prawa do swoich wynalazków i tego, co stworzyłem w organizacji, na pracodawcę, ale z drugiej strony, jeśli wytworzy jakiś produkt, albo wytworzy coś przy użyciu narzędzi, które ktoś inny być może wymyślił, albo gdzie to ChatGPT, nie wiem, podpowie na podstawie czyjejś innej twórczości, coś zostanie stworzone, to gdzie jest ta granica, że to ta rzecz, która została wytworzona, jest rzeczywiście twoja, i że pracodawca może w ogóle rościć prawa własności intelektualnej do tych do tych produktów? Tak, więc tych poziomów, na których pojawiają się wyzwania, jest dość sporo.

Jasne, bo z jednej strony, jeszcze wracając do pierwszego punktu, który powiedziałaś, to jest tak, że my chcemy zachęcać naszych pracowników, bo chyba nikt nie neguje w tej chwili tego, że te narzędzia poprawiają naszą wydajność. Myśląc o organizacji i o jej wydajności, chcemy, żeby ludzie z tego korzystali. Natomiast firmy wprowadzają pewne swoje wewnętrzne regulacje, w jaki sposób z tych narzędzi należy korzystać, tak, czyli żeby pewnych informacji nie umieszczać w chacie, albo to jest też tak, że pewnie nie wszyscy nawet mają świadomość, że w zależności od tego, którego modelu się używa, bo mamy ChatGPT, ale mamy też inne rozwiązania, chociażby Gemini od Google, no to też są różne polityki tych firm do kwestii tego, co się z tymi danymi dzieje. Nawet sam ChatGPT, w zależności od pakietu, który mamy, no albo daje gwarancję, że nie uczy modelu na tych danych, albo jej nie daje. W momencie, w którym mamy przetwarzanie danych osobowych, czy analizy właśnie jakichś CV, no to nie możemy robić z tym, co nam się żywnie podoba. Czyli rozumiem, że tego typu wewnętrzne wskazówki, czy mówiąc dalej, regulacje istnieją. Firma mówi: „Co można robić, a czego nie powinno się robić”.

Wewnętrzne regulacje i testowanie narzędzi AI

Tak. My się staramy u nas rzeczywiście dać pracownikom jasne wytyczne, co mogą zrobić, z jakich narzędzi mogą korzystać, i też stworzyliśmy taki zespół, który testuje różne narzędzia. Zanim wdrożymy je wewnętrznie w organizacji na poziomie globalnym, mamy zespół, który patrzy, co aktualnie pojawia się na rynku i z których tych narzędzi możemy skorzystać w taki sposób, żeby były bezpieczne, nawet na naszym lokalnym poziomie.

Dostajemy niejednokrotnie oferty, na przykład automatyzacji generacji leadów. Te oferty są różne pod względem poziomu bezpieczeństwa tych danych i tego, w jaki sposób te modele funkcjonują. Więc ważne jest to, żeby organizacja miała świadomość, w jaki sposób musi analizować te ryzyka i w jaki sposób wdrażać różnego rodzaju rozwiązania.

Bo ja mam wrażenie, że często jest jeszcze tak, że jesteśmy takimi huraoptymistami i często testujemy sobie różne fajne, nowe aplikacje, ale nie do końca właśnie mamy świadomość tego, w jaki sposób to działa, czego się może nauczyć i jak wdrożyć to efektywnie u nas, w sposób bezpieczny.

No super. Jest to, co mówisz, o tym dziale, który pewnie w wielu firmach się może znajdować, a jak nie, to powinien, czyli dziale, który rzeczywiście patrzy, co w tej chwili rynek oferuje. Bo prędkość zmian, które się dzieją, prędkość pojawiania się nowych modeli, nowych narzędzi, jest olbrzymia i trudno nad tym zapanować. Nie możemy oczekiwać od pracowników, że oni oprócz swojej normalnej pracy będą drugie tyle czasu poświęcali na to, żeby być na bieżąco z tym, co się dzieje na rynku.

Rzeczywiście scentralizowanie tego w pewnym miejscu, które może to robić, które może dać pewną rekomendację, co jest warte, a co nie, i jak używać tego w sposób bezpieczny, jest świetne. Bo oczywiście trzeba uważać z byciem huraoptymistą, natomiast też trzeba uważać, żeby się nie przestraszyć za bardzo. Tak, to nadal są technologie, które dają nam olbrzymie możliwości. Trzeba to robić jak większość rzeczy, z głową. No ale nie powinniśmy się tego bać i odrzucać, bo to jest coś, co trochę definiuje rynek na nowo.

Czy pracownicy są w ogóle informowani? Powiedziałaś o narzędziach, które mają, z których mogą korzystać, ale to jest łatwo dostępna informacja? To znaczy, czy jest w firmie, czy to twojej, czy w innych, jak obserwujesz, taka kultura tego, że to jest coś dodatkowego? Jak ktoś chce, to może skorzystać, czy jednak jest taka presja, żeby z tego korzystać, bo to jest coś, co wnosi dużą wartość?

U nas raczej tej presji jeszcze nie ma i raczej rzeczywiście staramy się pomóc zorganizować ten świat tak jakby, tych zmian. Jak jest w innych organizacjach? Tutaj, w zależności od organizacji. Zakładam, że są różne podejścia, w zależności od tego, w jaki sposób firma buduje swoją przewagę rynkową. Tak, zakładam, że w pewnym momencie może naciskać na wykorzystanie pewnych narzędzi, w innych sytuacjach niekoniecznie.

My raczej wychodzimy z idei, gdzie człowiek jest w centrum, więc staramy się wspomóc człowieka narzędziami, rzeczywiście zaproponować jakieś rozwiązania, powiedzieć: „Co można...". Fajne jest to, że rzeczywiście na rynku pojawia się coraz więcej świadomych firm, które, na przykład, publikują swoje kodeksy etyczne albo informacje na temat tego, w jaki sposób wykorzystują AI. I jak popatrzysz na niektóre, nawet strony internetowe globalnych korporacji, to tego typu właśnie code of conduct, albo w ogóle w code of conduct tych firm, pojawia się ten temat.

To zaczyna być o tyle interesujące, że firmy zauważają, że to może budować swego rodzaju przewagę rynkową, bo pokazuje, że jesteśmy świadomi tego, co robimy, i możemy łatwiej zbudować zaufanie naszych potencjalnych klientów. Bo wiemy, co się dzieje na rynku, nadążamy za tym. Więc pod tym względem takie właśnie wdrożenie regulacji i pokazanie innym, że te regulacje są... Myślę, że jest ciekawym trendem.

No i jest to na tyle świeży temat, że rzeczywiście, jeśli ktoś nawet się tym dzieli, to jest to pewnie duże wsparcie dla innych, bo to nie jest temat, który już przeszliśmy wiele razy i wiemy, jak do tego podchodzić. Tylko trochę to jest tak, że minęło tam, powiedzmy, 2 lata od tego, kiedy to wszystko wybuchło, trochę to wszystko, no może nie ustabilizowało się, bo to wciąż jest bardzo dynamiczne, ale trochę się oswoiliśmy z tym wszystkim i zaczęliśmy myśleć o tym jako czymś, co będzie nam towarzyszyć cały czas i trzeba to w pewne ramy ubrać, i gdzieś sobie powiedzieć: „Gdzie są granice".

AI Act – regulacje unijne dotyczące sztucznej inteligencji

Powiedziałaś jeszcze o kwestiach praw własności, bo rzeczywiście pracownik podpisuje umowę, w której przekazuje czy sprzedaje prawa autorskie do tego, co zrobił. Tylko pytanie, czy on miał prawa autorskie do tego, co zrobił, bo jeżeli zrobiła to sztuczna inteligencja, to tu chyba zdania są podzielone. Jest to obszar, który jest niezbadany do końca. Różne podmioty różnie twierdzą i odnoszą się do tego, kto tym właścicielem jest. Tym bardziej, że nie jest to temat łatwy.

To nie jest tak, że model sam z siebie coś wygenerował. Myśmy tam też swoją pracę włożyli, chociażby zadając mu odpowiednie pytania, promptując. Pytanie rzeczywiście, w którym miejscu jest ta nasza praca? Do czego już praw nie mamy, czy firmy mogą z tego korzystać? Tych dylematów może być trochę. Polskie firmy nie są jedynymi, które je mają.

Unia Europejska jest instytucją, która jako pierwsza chyba na świecie podjęła temat, bo to, co się dzieje w Chinach, żadnych regulacji nie ma. W Stanach chyba jedyne, co to prezydent wydał pewnego rodzaju wskazówki, jak do tego podchodzić w sposób bezpieczny czy zrównoważony.

W Europie się dzieje więcej, tak jak to Europa lubi robić, czyli pojawiają się regulacje. Mówimy teraz o czymś, co się nazywa AI Act, czyli o zestawie regulacji, które mają zdefiniować, w jakich granicach możemy się poruszać. To znaczy systemy i rozwiązania bazujące na sztucznej inteligencji, co mogą, a czego nie mogą. To jest coś, co jeszcze nie działa, będzie działać, będzie się pojawiało na przestrzeni lat. Już pewien zarys tych koncepcji, jak to ma działać, jest.

Unia Europejska wyszczególniła cztery grupy tych rozwiązań:

  1. Gdzie ryzyko jest nieakceptowalne i to są systemy niedozwolone. To są na przykład systemy, w których kategoryzujemy ludzi po ich poglądach, religii, pochodzeniu, czy systemy social scoringu, albo śledzenia twarzy, gdzie mamy kamery w całym mieście i możemy łatwo wyszukiwać daną twarz. To jest coś, czego nie będzie można robić, chyba że to są wojsko albo służby specjalne.
  2. Systemy, które mają ryzyko wysokie, ale akceptowalne, to są na przykład systemy dotyczące infrastruktury krytycznej, wodociągów, elektrowni, gdzie jest dużo formalności do dopełnienia, żeby taki system mógł działać. Trzeba to zgłosić w pewnym rejestrze i dopilnować wielu procedur.
  3. Systemy, które większość z nas kojarzy: różne rodzaje chatbotów, systemy generujące obrazy, które mają umiarkowane ryzyko. Unia zaleca, że nie musimy tego nigdzie rejestrować. Warto poinformować użytkownika o tym, że tutaj sztuczna inteligencja coś robi. Są plany, żeby obrazy generowane przez sztuczną inteligencję miały pewien znak wodny czy informację, że to jest coś wygenerowane.
  4. Systemy niskiego czy braku ryzyka, gdzie to jest cała reszta.

Unia Europejska rzeczywiście jako pierwsza podchodzi do tego tematu i coś stara się zrobić. Czy to dobrze?

Mi się wydaje, że dobrze. Dlatego, że budujemy jakieś ramy, w ramach których biznesy będą mogły się poruszać. W końcu szczycimy się tym, że propagujemy wolność jako kontynent i dajemy ludziom wolną wolę i promujemy różnorodność i inkluzywność. W sytuacji, kiedy porównujemy do Chin, moglibyśmy wykorzystać profilowanie czy segmentację. Z perspektywy obywatela czuję się bezpieczniej, że będą jakieś narzędzia, które będą zakazane.

To, co wydaje mi się ważne, to chyba taki aspekt świadomościowy. Porównując wdrożenie tej dyrektywy do RODO, to wydaje mi się, że powinno się zadziać zwiększenie świadomości takiego zwykłego Kowalskiego i w ogóle użytkowników na temat tego, jak ten dokument miałby działać. Jak jest powiązany z wartościami.

Po co w ogóle to robimy. Zapytasz teraz kogoś, co to jest RODO? Ktoś Ci powie, że to jest bardzo uciążliwe, coś, co nie pozwala Ci na nic. Gdziekolwiek coś próbujesz załatwić, zawsze jest: "Nie możemy, bo RODO".

Dobrze byłoby nie doprowadzić do tego samego z regulacjami dotyczącymi sztucznej inteligencji.

Dokładnie, żeby to nie był taki zwykły tik, który trzeba zrobić i który będzie sprawiał, że ograniczamy wolność biznesową i wymyślanie różnego rodzaju nowych, innowacyjnych narzędzi. Aspekt świadomościowy na pewno jest ważny w tym zakresie, żeby zwykli użytkownicy wiedzieli, po co to jest tak naprawdę.

Ten aspekt dotyczący analizy ryzyka wydaje mi się sensowny. Bierzemy pod uwagę to, w jaki sposób dane narzędzie może wpływać na całość społeczeństwa i na ile rzeczywiście ten konkretny produkt jest niebezpieczny. Więc nie zamykamy sobie drogi do innowacji, tylko staramy się zabezpieczyć jakieś podstawowe prawa.

Właśnie, o to chciałem zapytać, czy nie boisz się zamknięcia tej innowacji? Bo idea jest pewnie szczytna, żeby ukierunkować to na wartości, którymi chcemy się w Europie posługiwać, natomiast świat się zmienia i rzeczywiście ma szansę ustawić się na nowo, jeśli chodzi o gospodarki krajów. Mamy Chiny, które nie będą mieć żadnych skrupułów. Mamy też Stany, które w tej chwili też nie mają.

Nie boisz się tego, że pomimo dobrego pomysłu, idei, zostanie to zrealizowane w taki sposób, że Europa zostanie trochę w tyle za innymi i te technologie nie będą się mogły rozwijać tutaj, pewne biznesy zagraniczne nie będą mogły z racji tych regulacji działać na terenie Europy? Czyli zamiast się dostosować, po prostu się z Europy wycofają i zostaniemy trochę kontynentem, na którym z jednej strony mało się będzie działo, z drugiej strony nie będziemy mieć nawet dostępu do narzędzi, do których będzie miała dostęp reszta świata?

Czy AI Act spowolni rozwój AI w Europie?

Ja wierzę w to, że jesteśmy na tyle dużym rynkiem, że jednak jesteśmy interesujący dla Stanów czy Chin, między innymi z tego względu, że Europa jest zaawansowana technologicznie. Więc jesteśmy atrakcyjnymi, potencjalnymi użytkownikami. W Polsce my zawsze znajdziemy sposób, żeby efektywnie zorganizować się wokół przepisów, które są. Więc chyba o polską gospodarkę się nie boję. Jeśli nasi rządzący rzeczywiście w jakiś sprawny sposób, nie za bardzo formalny i obciążający, będą wdrażać te przepisy...

Podoba mi się to określenie: znajdziemy efektywny sposób, żeby coś zrobić. Właśnie, bo ma wchodzić na przestrzeni dłuższej... W tej chwili powstaje coś, co się nazywa AI Act, czyli pomimo że przepisy jeszcze nie obowiązują, i proces legislacyjny trwa, to można dobrowolnie zacząć już spełniać te kryteria. Czy widzisz już coś takiego, widzisz wśród firm, że zaczynają się same dostosowywać do tej idei, która się gdzieś tam rodzi?

Dostosowywać? Myślę, że niekoniecznie, bardziej w ogóle podejmować temat, interesować się. Zaczynają się pojawiać jakieś takie wstępne, tak jak wspomnieliśmy, Code of conduct, czy jakieś zasady. To nie jest jeszcze aż tak formalne, raczej to są takie próby, badanie, na co możemy sobie pozwolić. Gdzie, w jaki sposób chcielibyśmy się my ułożyć jako biznes? Co my byśmy chcieli zdefiniować jako biznes dla nas i w jaki sposób my prowadzimy swoją działalność. Więc bardziej myślę, że firmy myślą o swoich własnych wartościach, i ewentualnie, w jaki sposób te wartości łączą się potencjalnie z tymi nowymi regulacjami, ale nie widziałam jeszcze na takim poziomie praktycznym, żeby już ktoś wdrażał jakieś poszczególne przepisy w życie.

Czyli bardziej rośnie świadomość tego, że jakaś kwestia jest i pewnie trzeba ją w jakiś sposób zaadresować. Do tej pory chyba szliśmy jako ludzkość, czy jako Europa, cały czas na takiej fali: "No jest coś nowego, trzeba to poznawać". A teraz zaczynamy trochę myśleć, że okej, ale tak jak z wieloma innymi rzeczami, trzeba sobie zbudować to w sposób jakiś bezpieczny.

Chwilę przed rozmawialiśmy o kwestii płatności w Polsce, i właśnie tego, że nawet nie jesteśmy do końca świadomi tego, że u nas to wszystko przebiega bardzo bezpiecznie, właśnie z racji różnych regulacji, gdzie w innych krajach ludzie często się boją korzystać chociażby z kart, dlatego, że tam różne rzeczy się zdarzają. U nas być może dzięki regulacjom, a być może dzięki czemuś innemu, zbudowaliśmy sobie taką przestrzeń, w której nikt nie boi się z tego korzystać. Jest to pewnie jedna z bezpieczniejszych form w ogóle płatności.

Wnioski i spojrzenie w przyszłość

No właśnie, problem jest chyba jeszcze o tyle trudny, że proces legislacyjny nigdy nie nadążał za tym, co się działo na świecie. Potrzeba było wiele czasu, żeby zdefiniować, na przykład, czym jest hulajnoga elektryczna i co można na niej robić, i gdzie można się poruszać. A jednak, jak porównamy hulajnogę elektryczną, która jest czymś mało nowym, z czymś, czego nie potrafimy opisać, co rozwija się w tempie takim, że rok temu nie myśleliśmy, że do czegoś takiego dojdzie, to ja nie wróżę dużych szans na nadążenie tej legislacji za zmieniającym się rynkiem. Jak ty to widzisz?

Pewnie rzeczywiście będzie trudno. Porównałabym to do rozwoju motoryzacji, bo jak motoryzacja się zaczynała, to też na początku była wolna amerykanka, i dopiero z czasem wypracowywanie tego biznesu, w jaki sposób budować samochody, jak robić, żeby były bezpieczne, jakie mają być przepisy drogowe etc. Więc myślę, że tutaj to będzie tak samo, będziemy trochę z tyłu, ale w pewnym momencie dojdziemy do takiego poziomu, że będziemy w stanie w jakiś sposób mniej więcej regulować te zasady. Zakładam, że konkretne regulacje zawsze będą trochę w tyle, ale dlatego tak ważna jest świadomość. Bo jeśli mamy świadomych użytkowników i jakieś podstawowe wartości, zasady, którymi się kierujemy, to te regulacje nie zawsze już muszą być takie up to date.

Mimo wszystko, naszą wartością jako człowieka, jest to, że mamy gdzieś to pojęcie jakiejś etyki, jakieś wartości, którymi się kierujemy, bez względu na to, z jakiej kultury pochodzimy. Tak więc dlatego tak ważne jest zbudowanie świadomości w społeczeństwach, bo to sprawi, że te regulacje może niekoniecznie będą aż tak potrzebne.

Czy wiesz, że... ...subskrybenci Beyond AI są o 50% bardziej odporni na zagubienie się w rozmowach o AI? Bądź tym, który wie, o co chodzi – kliknij "subskrybuj" na naszym kanale

No do zbudowania tej świadomości pewnie nie potrzeba regulacji, tylko rzeczywiście pewnego podejścia i spójnego działania wielu organizacji i krajów.

No dobrze, a czy to mówimy o całej Unii Europejskiej, czy jest coś, co uważasz, że w Polsce powinno wyglądać, albo pewna regulacja powinna mieć miejsce, właśnie tutaj u nas, na tym rynku lokalnym?

To, co chyba jest ważne w Polsce, to żebyśmy nie skomplikowali za bardzo wdrożenia AI Act, bo my w Polsce rzeczywiście mamy tendencję do brania dyrektyw unijnych i wdrażania ich czasami jeszcze bardziej restrykcyjnie niż ta oryginalna dyrektywa unijna była. Więc zakładam, że to jest taki ważny punkt, który powinniśmy mieć na uwadze, nasi rządzący powinni mieć na uwadze, żeby nie przesadzić z poziomem sformalizowania i skomplikowania pewnego rodzaju procedur, bo czasami rzeczywiście widać tego typu tendencję u nas. Z moich obserwacji, Polacy i Niemcy uwielbiają formalności. Za duży poziom tych formalności może nas później powstrzymywać.

Jasne, bo to trochę jest tak, że nie chodzi o to, żeby wprowadzić regulacje, tylko żeby osiągnąć pewien cel, dla którego te regulacje powstały. A rzeczywiście jest tak, że jesteśmy w takim momencie, i jesteśmy taką gospodarką, jaką jesteśmy, że to jest dla nas duża szansa. To znaczy, korzystanie z tej sztucznej inteligencji może nas w tym nowym rozdaniu ulokować zdecydowanie wyżej. Bo mamy pewną dynamikę działania, mamy potencjał intelektualny w kraju, który potrafi działać. Nawet są pewne inicjatywy, i tworzą się pewne rady doradcze do spraw sztucznej inteligencji. W związku z tym, rzeczywiście ważne, żeby tego nie zepsuć, właśnie zbyt nadmiernym stosowaniem się, czy chęcią spełnienia pewnych regulacji, bardziej niż to jest konieczne.

I myślę, że to jest dobry moment, żeby sobie krótko podsumować to, o czym mówiliśmy. Czyli mamy pewną rosnącą, trochę oddolnie, świadomość tego, że sztuczna inteligencja jest szansą, ale trzeba do tego podejść, tak jak do wielu innych rzeczy, z głową i w sposób rozważny. Trzeba być może sobie te granice gdzieś zarysować. Mamy na horyzoncie pewne regulacje, idące z góry, z Unii Europejskiej. Trzeba do nich podejść znowu rozsądnie i nie przesadzić. Natomiast ja wciąż jestem takim entuzjastą tej technologii, i nie chcę patrzeć na nią przez pryzmat regulacji, traktuję trochę jako coś, co musi być, jak przy każdej pojawiającej się technologii czy w ogóle dziedzinie i branży. Natomiast nadal, ty pewnie też widzisz duży wzrost tej wartości, którą te rozwiązania generują.

Tak, jak najbardziej. Sztuczna inteligencja jest dla nas szansą, jeśli chodzi o rozwój, i nie możemy się jej bać, tylko po prostu musimy ją w sposób rozsądny okiełznać.

Jasne, i to jest, myślę, bardzo dobre zdanie, optymistycznie kończące dyskusję. Bardzo Ci dziękuję za rozmowę.

Podsumowanie:

  • Współczesne firmy wdrażają AI w różnych dziedzinach, w tym HR.
  • Wykorzystanie AI stwarza nowe wyzwania etyczne i prawne, które wymagają uregulowania.
  • AI Act, unijne regulacje dotyczące AI, mają na celu stworzenie ram prawnych dla rozwoju AI.
  • Świadomość społeczna jest kluczowa dla odpowiedzialnego wdrażania AI.
  • Polska powinna rozsądnie wdrażać AI Act, unikając nadmiernej biurokracji.

_____

Odwiedź Beyond AI na YouTube!

Zapraszamy do odwiedzenia kanału Beyond AI, który jest poświęcony dynamicznie rozwijającemu się światu sztucznej inteligencji. Na kanale znajdziesz najnowsze informacje, analizy i dyskusje na temat AI — Twój przewodnik po dynamicznym świecie AI.

Odwiedź Beyond AI na YouTube

Kanał Beyond AI jest tworzony przez specjalistów z firmy WEBSENSA, która od 2011 roku dostarcza rozwiązania AI dla czołowych przedstawicieli różnych branż.

Inne wpisy z tej serii

AI używa komputera? Apple Intelligence rozczarowuje? W co inwestuje Google? | Newsy AI

Poznaj najnowsze inicjatywy AI od Anthropic, Apple i Google. Od AI sterującego komputerem po prawnicze startupy – omawiamy nowości w obszarze sztucznej inteligencji.

AI na wakacjach, awatary i deepfake'i (o przyszłości, która już nadeszła) | Newsy AI

Odkryj nowości w świecie AI w kolejnym odcinku podcastu Beyond AI. Dowiedz się, jak modele językowe wpływają na komunikację, prywatność i wyzwania prawne.