Czytaj

arrow pointing down

Iwona Białynicka-Birula – wywiad 2: praca przy AI w USA

Iwona Białynicka-Birula to uznana ekspertka sztucznej inteligencji z doświadczeniem w eBay, Google czy Facebook. Rozmawiamy o specyfice pracy przy AI w USA.

Na tej stronie wykorzystujemy grafiki wygenerowane przy pomocy sztucznej inteligencji.

💡 To druga część wywiadu z Iwoną Białynicką-Birulą. Przeczytaj pierwszy wywiad tutaj – klik.

Poprzednio rozmawialiśmy o życiowych doświadczeniach Iwony. W tym wywiadzie skupiamy się na tym, jak wygląda praca przy sztucznej inteligencji w USA.

Obejrzyj i posłuchaj całego wywiadu na YouTube:

Możesz również posłuchać na platformach podcastowych:

Wywiad

[Ziemowit Buchalski] A jakie były twoje doświadczenia w Facebooku, bo tam też pracowałaś?

[Iwona Białynicka-Birula] Tak, w Facebooku pracowałam głównie w Marketplace. Facebook Marketplace jest bardzo popularnym produktem. W Polsce Słyszałam, że też. Moim zadaniem było katalogowanie, wprowadzanie właściwie struktury do tych wszystkich ogłoszeń na Facebook Marketplace. Ponieważ, jak wiadomo, człowiek umieszczający ogłoszenie na Facebook Marketplace często nie podaje żadnej kategorii, żadnych, nic. Robi zdjęcie, robi jakiś tam opis. Czasami w ogóle pisze tylko: „Na sprzedaż”. Bardzo ciężko potem stworzyć jakiś katalog tych wszystkich produktów i rozumieć, że tutaj są podobne produkty, a tutaj niepodobne. Więc tam stworzyłam taki system, który automatycznie analizował te wszystkie ogłoszenia i je układał w taką hierarchię, gdzie były kategorie, podkategorie, atrybuty i tak dalej.

Potem przez jakiś czas się zajmowałam rankingiem filmów, w szczególności muzycznych teledysków, które w Polsce chyba nie są dostępne. Trzeba płacić tym firmom, które nagrywają. Natomiast w Stanach mieliśmy licencje na rozprowadzanie tych teledysków. No i trzeba było je jakoś inteligentnie do tych wszystkich feedów wkładać, tak żeby to ludzi zaciekawiło. Trzeba było rozumieć, jaki kto ma gust muzyczny. No i to było ciekawe, ponieważ nauczyłam się trochę, jak działa taki newsfeed ranking, algorytm, który jest dosyć kontrowersyjny. Czasami niektórzy uważają, że nawet szkodzi psychicznemu zdrowiu.

Trenowałaś modele po to, żeby zwiększyć oglądalność akurat muzyki. To było twoje tak zdefiniowane zadanie, sztuczna inteligencja, ale nie generatywna, tylko deep learning.

Tak, to jeszcze było przed takim rozkwitem generatywnej sztucznej inteligencji. Myślę, że teraz bardzo dużo by się zmieniło w jej wyniku, ponieważ właśnie w Mecie bardzo dużo było takiego… No może nie w rankingu, w rankingu mieliśmy bardzo dużo danych organicznych, ponieważ wiedzieliśmy, kto na co klika i kto co lajkuje, więc nie było jakby takiego niedoboru tych danych do robienia supervised learning. Natomiast na przykład już w takim Marketplace, no to bardzo ich brakowało, ponieważ nie było, nie mieliśmy tych produktów oznaczonych tymi kategoriami albo atrybutami. Facebook zatrudniał całe rzesze, dziesiątki tysięcy ludzi, którzy właśnie robili takie oznaczenia, i oni głównie służą do moderowania, czyli pilnowania, żeby ktoś tam nie napisał czegoś brzydkiego, czegoś nielegalnego. Oni oglądają te posty cały dzień i tam oznaczają je, czy tam jest terroryzm, albo hate speech, albo coś takiego. Natomiast my w Marketplace mieliśmy dostęp do małego procentu, na przykład 10 tysięcy roboczogodzin przez tydzień, i oni nam oznaczali te wszystkie dane do supervised learning. Myślę, że teraz w mecie, i powód, dla którego meta tyle inwestuje w te własne modele, LLaMA, jest że teraz dużo z tych takich prac mogą prawdopodobnie zastąpić modelem, który będzie to automatycznie oznaczał i będzie w ten sposób produkować dane do machine learning.

Na naszym kanale jest odcinek, na którym zrobiłem dwa miesiące temu prostą automatyzację, gdzie na bazie jednego zdjęcia, dzięki wykorzystaniu modelu GP Vision, możliwe jest przygotowanie treści sprzedażowej. Czyli robi się tam zdjęcie, model wykrywa, co jest na zdjęciu, wymyśla osoby, dla których taka rzecz mogłaby mieć jakąś wartość, jakieś znaczenie, a następnie wymyśla jeszcze, co by takiego oni mogli osiągnąć, i pod to pisze treść ogłoszenia. Czyli robi znacznie, znacznie więcej niż to zadanie, które ty wykonywałaś. Natomiast no to pewnie jest 5 lat różnicy w technologii, i no dzisiaj pewnie taka kategoryzacja to jedna linijka w Pythonie napisana i by to się działo lepiej lub gorzej.

To jeszcze o tej skali, bo mówiłaś, że czasami wykorzystywano pracę dziesiątków tysięcy osób po to, żeby przygotować dane, które można było wykorzystać do modeli. Ale też pewnie sama organizacja pracy w takim projekcie, jakim jest Facebook, musiała być odpowiednio zorganizowana? Tam były jakieś testy AB, czy jak to się w ogóle działo? Jakbyś mogła powiedzieć.

Tak, właściwie wszystko w Facebooku, a później w Mecie, dzieje się w oparciu, aż nawet do przesady, o tak zwane AB testy. Polega to na tym, że każdą funkcję systemu należy przetestować za pomocą eksperymentu kontrolowanego. Czyli powiedzmy, że chcemy zdecydować, czy guzik ma być niebieski, czy zielony, to dzielimy naszych użytkowników przypadkowo na dwie grupy. Jedna grupa dostaje guzik zielony, jedna niebieski, i ten eksperyment toczy się, powiedzmy, przez tydzień. Facebook ma bardzo dużo użytkowników, miliardy, więc bardzo dużo danych można zebrać w krótkim czasie, i potem porównujemy te dwie populacje: kto więcej czasu spędził na Facebooku, kto więcej lajkował, kto więcej klikał, kto dłużej oglądał filmiki. Wszystkie takie dane, na których nam zależy, i potem bardzo ważne, mierzymy znaczenie statystyczne, czyli na ile jesteśmy przekonani, że ten wynik, który zobaczyliśmy, nie nastąpił losowo. No bo oczywiście wiadomo, że jeśli populacja jest mała, to ktoś może po prostu przypadkiem więcej oglądać i to może wpłynąć na tę różnicę. Natomiast przy dużych liczbach coraz bardziej spada prawdopodobieństwo tego, że to, co obserwujemy, stało się przypadkowo, i nabieramy coraz więcej przekonania, że ten wynik naprawdę jest spowodowany tą różnicą w kolorze guzika.

W przypadku twoich projektów i twoich zmian, które robiłaś, to jak duże były te próbki i jak duże były te populacje, na których testowano?

No to bardzo zależy, ponieważ sam Facebook Marketplace na przykład jest dostępny w wielu krajach, natomiast często skupmy się na jakimś podzbiorze populacji, i wtedy zawsze tych użytkowników było tak dużo. Natomiast w największej ilości jest to faktycznie te 1 miliard czy tam 3 miliardy, zależy, jak się liczy, użytkowników Facebooka, na których można eksperymentować.

Należy wspomnieć też, że w Facebooku kariera jest właśnie uzależniona bezpośrednio od wyników tych testów. Znaczy, że co pół roku jest performance review, trzeba pokazać, że się uruchomiło jakieś testy, i ficzery które się zaproponowało, miały taki a taki wpływ, i bez tego nie można nawet pozostać zatrudnionym w firmie. Co ma oczywiście swoje zalety, ponieważ znaczy to, że wszystko trzeba móc zmierzyć i tak naprawdę podejść w sposób systematyczny i nie robić decyzji przypadkowo. Natomiast wadą tego jest to, że nie wszystko można zmierzyć, w szczególności bardzo trudno mierzy się takie efekty dłuższe, na przykład rozpoznawanie marki Facebooka albo na ile Facebook jest wiarygodny jako źródło ciekawych filmów do obejrzenia. Nie jest to coś, co można zmierzyć w ciągu tygodnia, i w związku z tym takie zmiany, których efektu nie dało się zmierzyć, nie zostawały wprowadzane. To niestety mnie bardzo frustrowało tam.

A samo to, że co pół roku no stoi się przed takim mocnym punktem weryfikacyjnym, czy jeszcze się będzie pracowało, czy się nie będzie pracowało, a wszystko w zależności od tego, jaki był efekt pracy. To czy to nie było stresujące?

Znaczy, w Mecie to było mniej stresujące niż na przykład w Googlu, tylko wyłącznie dlatego, że dużo lepiej wyszkoleni byli menedżerowie, więc menedżer mówił na samym początku półrocza, że takie a takie są oczekiwania, i trzeba było tylko je spełnić. Nie było tutaj żadnej niespodzianki, jak to półrocze minęło, ponieważ wiadomo było, co trzeba robić. Trochę było frustrujące, jeśli to, co trzeba było robić, było tak naprawdę nie w najlepszym interesie firmy, natomiast wiadomo było, że trzeba to zrobić, żeby dostać performance review. Natomiast w Google na przykład nie ma takiego jakby szacunku do menedżerów, zwłaszcza w niektórych organizacjach, i wtedy menedżerami stają się ludzie, którzy po prostu bardzo dobrze programują, ale nie wiedzą, co należy zrobić, że należy właśnie tak usiąść na początku ze swoim pracownikiem. W związku z tym tam to była dosłownie ruletka. I to było bardziej stresujące.

No myślę, że to jest inaczej niż w naszych polskich realiach, gdzie programiści po prostu dostają zadanie i są rozliczani z wykonania zadania, a niekoniecznie z efektów biznesowych. Tak, no bo rozumiem, że tutaj to liczył się efekt biznesowy, na przykład wydłużenie czasu, w którym ludzie poświęcają na oglądanie filmików. I Twoim zadaniem było sprawienie, żeby miliony czy miliardy użytkowników spędzało więcej czasu w filmach z teledyskami.

Tak. Zarówno Google, jak i Meta są firmami tak zwanymi bottom-up, czyli oczekuje się od inżynierów nie tylko, że wykonają zadanie, ale i też wymyślą, jakie zadanie powinni wykonywać. Więc to inżynierzy proponują ficzery i potem przekonują innych inżynierów, żeby się dołączyli do współpracy, i wtedy powstaje jakaś zmiana w produkcie. Natomiast menedżerowie tylko tak to lekko koordynują, powiedzmy.

Źródło: https://www.cascade.app/blog/top-down-vs-bottom-u

Role marketingowe albo role właśnie od produktów, menadżerów produktów. Czy to nie oni są takimi inicjatorami? To rzeczywiście się oczekuje od inżynierów, że to oni będą przychodzili z możliwymi do wykonania funkcjami?

Tak, zdecydowanie, to inżynierzy proponują, tłumaczą tym product managerom, co jest możliwe i co przydatne, natomiast product managerowie mogą to wziąć pod uwagę i powiedzieć: „No, w związku z tym to jest zbyt kosztowne, tego nie będziemy robić, a to jest mniej kosztowne i bardziej potrzebne, więc to będziemy robić”. Tego typu role pełnią.

Ciekawe jest też to, że z tego, co wiem, istnieje taka rola jak individual contributor, czyli taki indywidualny programista, która od A do Z zrobi wszystko.

Znaczy, individual contributor to tylko oznacza, że nie ma się bezpośrednich podwładnych, nie jest się menedżerem niczyim.

A co taki contributor robi?

No to może mieć różne role, może być właśnie software engineerem. Większość ludzi, z którymi ja współpracowałam tak najbardziej bezpośrednio, to miało stanowisko software engineer, i w ramach software engineer można też mieć specjalizacje bardziej lub mniej. Kiedy ja zaczynałam w Google’u, w 2014 roku, to właściwie nie było specjalizacji. Zatrudniał się software engineer i założenie było takie, że software engineer musi umieć robić wszystko. W związku z tym przychodziło się tylko na jedno interview, a potem można już się było między zespołami przenosić. Z postępem zaczęło być to oczywiste, że jednak trzeba trochę się specjalizować, ponieważ ta informatyka się tak rozbudowała, że już bardzo ciężko jest i móc pracować nad web-devem, i nad sztuczną inteligencją, i nad aplikacjami mobilnymi. Więc trochę tej teraz jest takiej specjalizacji, że można się na przykład specjalizować w machine learning i być machine learning software engineer. Więc moją specjalizacją teraz jest machine learning software engineer. Natomiast w ramach tego jeszcze można sobie wybrać, czy chce się specjalizować jeszcze bardziej, na przykład tylko w tekście, albo tylko w rozpoznawaniu obrazu. Ja raczej wolę iść w kierunku general machine learning, czyli taki, który właśnie umie skorzystać z obrazów i z tekstu, i nawet jakoś połączyć. No, jest to kosztem tego, że może nie znam jakichś największych szczegółów tych bardzo konkretnych zastosowań, natomiast też przydaje się, żeby taki inżynier, nawet jeśli jest machine learning, żeby mógł pracować w różnych częściach systemu i tam nad backendem, i może nawet trochę nad frontendem, i nad tym middleware’em, tak aby takie rozwiązanie doprowadzić od produkcji, przeprowadzić samemu, ponieważ w ten sposób można to najlepiej skoordynować.

To rzeczywiście bardzo ciekawe są te różnice w pracy za oceanem i u nas. Natomiast wróćmy do sztucznej inteligencji i może pociągnij sprawę różnic. Mianowicie, no słyszałem o takim fenomenie, który się nazywa P(doom) score, czy ty też słyszałaś? Czyś mogłabyś opowiedzieć, o co tutaj chodzi?

Tak, dużo się teraz o tym mówi. P(dooom) generalnie jest to osobiste prawdopodobieństwo tego, że cywilizacja ludzka upadnie w wyniku sztucznej inteligencji. Natomiast wszystko, co powiedziałam w tym zdaniu, zupełnie nie ma sensu, ponieważ prawdopodobieństwo jest to ściśle określona rzecz w matematyce. Nie ma czegoś takiego, że ja mam prawdopodobieństwo, i ty masz prawdopodobieństwo, i jutro ja będę miała inne prawdopodobieństwo. Można to jakoś inną wielkością nazwać.

Ale w ogóle, po co taki P(doom) score został wymyślony? Jak go się stosuje? Co się z nim robi?

Zbierają się ludzie, którzy uważają się za specjalistów od końca świata i od sztucznej inteligencji, mówią: „Moje P(doom) jest 10”, czyli procent, czyli 10%, że koniec ludzkości w wyniku sztucznej inteligencji. Ktoś inny mówi: „A moje P(doom) jest 90”, i tak każdy mówi, a potem, co jeszcze jest bardziej bez sensu, wyciąga się z tego średnią, co już zupełnie nie ma sensu. No ale potem publikuje się artykuł w prasie, który mówi: „Spytaliśmy ekspertów, i eksperci uważają, że na 40% będzie koniec świata”, i w takie artykuły no bardzo ludzie klikają. I to chyba głównie temu służy, albo może to jest tym, co motywuje ten fenomen.

Źródło: https://en.wikipedia.org/wiki/P(doom)

Ponieważ historia o końcach świata, no to to nie jest nic nowego. Co jakiś czas świat oblatuje jakaś nowa teoria, w jaki sposób ta cywilizacja się skończy, czy to tam kalendarz Majów. No i obecnie teraz nowy scenariusz mówi o tej sztucznej inteligencji, która się jakoś wymknie spod kontroli, co jest też, no moim zdaniem, trochę bardzo absurdalnym scenariuszem, ponieważ jeśli cokolwiek, to odchodzimy raczej od takich modeli, na przykład ewolucyjnych, algorytmów ewolucyjnych, które można sobie jakoś bardzo wysilić, wyobrazić, mogą się jakoś tak wymknąć spod kontroli. Obecne modele typu ChatGPT, no to one są po prostu funkcją. Tak samo jak y = x * x jest funkcją, tak samo ChatGPT jest funkcją, która bierze wektor liczb, który jest zakodowanym tekstem, który napiszesz, i przetwarza to na inny wektor liczb, który jest zakodowanym tekstem, który ChatGPT odpowiada. I tak samo może ChatGPT się wymknąć spod kontroli, jak funkcja y = x * 2 się może wymknąć. Same te liczby się nie pomnożą, ktoś je musi pomnożyć. To jest dodatkowo funkcja deterministyczna, więc nic się tam nie ma, nie ma jak wymyślić. Natomiast ludzie widzą, jakie te modele mają możliwości, których nie miały faktycznie wcześniej, i ekstrapolują, prawdopodobieństwo końca świata w wyniku wymknięcia i zakończenia jak w filmie Terminator.

No ludzie się boją tego. Tak, to znaczy, że w Europie są inicjatywy ustawodawcze, jest AI Act, tak, który pewnie będzie za chwilę implementowany również w krajach członkowskich. A jak to jest w Ameryce? Czy tam też następuje próba regulacji tego obszaru?

Tak, jak najbardziej. I no oczywiście jest taka potrzeba, ponieważ mamy teraz możliwości, których nie mieliśmy do tej pory, a prawodawstwo nie nadąża za tym. Trzeba zmienić prawo, dostosować, natomiast jak to robić? Jest to szalenie kontrowersyjny temat i dużo ludzi ma różne pomysły na ten temat.

Niestety, jak powiedziałeś, istnieje taka trwoga czasami, i to może spowodować nadmierną regulację i taką chęć w ogóle spowalniania tego postępu. W szczególności mieliśmy dużo takich listów otwartych, gdzie ludzie pisali do polityków i do innych firm zajmujących się sztuczną inteligencją z prośbą, żeby, no, zatrzymać ten rozwój.

Elon Musk wystosował taki apel, tylko zaraz potem stworzył własne modele, więc to też jest taki trochę dziwny model.

To też jest takie dziwne, że „aby zapobiec sztucznej inteligencji złej, to my stworzymy swoją własną firmę, która będzie robić sztuczną inteligencję bezpieczną”. To jest bardzo duży trend. Natomiast faktem jest, że są różne próby regulowania sztucznej inteligencji, bardziej podobne do tego, co się dzieje w Europie, które mają na celu właśnie ograniczenie budowania modeli. [7] [8]

W szczególności Kalifornia teraz wprowadziła taki projekt ustawy, który na razie przeszedł przez ich senat, jeszcze nie został zatwierdzony ogólnie, który proponuje coś, no moim zdaniem, bardzo niebezpiecznego, ponieważ mówi o tym, że modele powyżej jakiejś wielkości będą regulowane w ten sposób, że twórca tego modelu musi zagwarantować, że nikt tego modelu nie wykorzysta do jakichś złych celów, co jest oczywiście, no, niemożliwe. No bo tak samo jak produkując klawiaturę, nie możemy zagwarantować, że nikt na tej klawiaturze nie napisze brzydkiego słowa, prawda? Tak samo nie może nikt zagwarantować, że ktoś nie weźmie modelu i nie wspomoże jakiejś działalności złej. Więc złą działalność jak najbardziej należy regulować, uregulowanie modeli może doprowadzić do tego, że ten przemysł i ten rozwój, który widzieliśmy w ostatnich latach, się faktycznie zwolni, i byłoby to moim zdaniem niebezpieczne z dwóch względów.

Po pierwsze dlatego, że ogromne, ogromne korzyści idą, w medycynie na przykład, z tych modeli. Możemy mieć nowe leki, leczyć choroby, które były nieuleczalne. Ale jeszcze jest drugie takie niebezpieczeństwo, że mamy różne państwa na tym świecie. Jeśli część państw świadomie zwolni swój postęp, to będzie, będą w tyle za państwami, które rozwiną tę technologię. Państwa, które zwolnią postęp sztucznej inteligencji, będą takimi państwami, no jak teraz mówimy, państwami nierozwiniętymi ekonomicznie, i to jest duże zagrożenie.

Czyli sugerujesz, że nie powinniśmy wciskać hamulca, bo ktoś inny nas weźmie i wyprzedzi, i on, pozbawiony jakichś skrupułów, wykorzysta ten, tę rozwiniętą bardziej sztuczną inteligencję.

Tak, nawet do militarnych zastosowań w najgorszym razie.

A czy twoim zdaniem istnieją jakieś etyczne wyzwania związane z rozwojem sztucznej inteligencji, przed którymi stoimy my jako ludzkość?

My jako ludzkość stoimy przed wyzwaniami etycznymi. Sztuczna inteligencja niektóre takie wyzwania jakby bardziej akcentuje, a niektóre są takie same bez względu na to, czy mamy sztuczną inteligencję, czy nie. Jak dyskryminacja na przykład. Dyskryminacja… Właśnie, dobrym przykładem tutaj. Może podam taki przykład, gdzie sztuczna inteligencja poprzez to, że ludzie nie rozumieją, jak działa, doprowadziła do takiej instytucjonalnej dyskryminacji.

Co to jest w ogóle dyskryminacja? To jest, jeśli podejmujemy decyzje w oparciu nie o to, co ten człowiek zrobił, tylko o jakieś jego cechy, nad którymi nie panuje, na przykład w oparciu o kolor skóry tego człowieka, albo płeć, albo wzrost, albo dowolną rzecz. Zwłaszcza jest to rażące w systemie sądowniczym, gdzie w systemie sądowniczym naprawdę chcemy karać ludzi za to, co oni zrobili, a nie dlatego, że przynależą do jakiejś grupy, która statystycznie robi coś źle, bo to jest… Większość ludzi uważa, że jest to nieetyczne, niesprawiedliwe. Natomiast jak się tak powie, że podejmujemy decyzję na temat tego człowieka w oparciu o to, co zrobili inni podobni ludzie, no to wszyscy mówią: „Nie, to jest nieetyczne, nie róbmy tego”.

Natomiast co zrobili w Stanach? Zbudowali model sztucznej inteligencji, który niby miał przewidywać prawdopodobieństwo recydywy, czyli przewidywać prawdopodobieństwo, że dany człowiek popełni przestępstwo. Na podstawie ten model się, no nie tyle skazywało człowieka do więzienia, ale na przykład można było zdecydować o jego przedłużonym pobycie w tym więzieniu albo skróconym.

To jest moim zdaniem szalenie nieetyczne i niesprawiedliwe z tych powodów, co powiedziałam. Natomiast problem, dlaczego to w ogóle wystąpiło, jest taki, że ludzie jakby nie rozumieją limitów sztucznej inteligencji. Ludziom się wydaje, że ta sztuczna inteligencja jest naprawdę w stanie przewidzieć, czy ten człowiek popełni przestępstwo, podczas gdy oczywiście sztuczna inteligencja nie może czegoś takiego przewidzieć, ponieważ mamy wolną wolę, i każdy decyduje sam, czy popełni przestępstwo, czy nie.

To, co robi ta sztuczna inteligencja, to po prostu liczy statystykę, że ludzie w podobnej sytuacji, z podobnym, wzrostem i innymi cechami, popełniali te przestępstwa. Więc taki brak zrozumienia prowadzi często do decyzji, które są nieetyczne, niesprawiedliwe. Natomiast, jak się tak powie, że podejmujemy decyzję na temat tego człowieka w oparciu o to, co zrobili inni, podobni ludzie – no to wszyscy mówią: „Nie, to jest nieetyczne, nie róbmy tego”. Natomiast, co zrobili w Stanach? Zbudowali model sztucznej inteligencji, który niby miał przewidywać prawdopodobieństwo recydywy, czyli przewidywać prawdopodobieństwo, że dany człowiek popełni przestępstwo. I w oparciu o ten model się – no nie tyle skazywało człowieka do więzienia, ale na przykład można było zdecydować o jego przedłużonym pobycie w tym więzieniu albo skróconym. I to jest, moim zdaniem, szalenie nieetyczne i niesprawiedliwe. Z tych powodów, co powiedziałam. Natomiast problem, dlaczego to w ogóle wystąpiło? Dlatego, że ludzie jakby nie rozumieją limitów sztucznej inteligencji. Ludziom się wydaje, że ta sztuczna inteligencja jest naprawdę w stanie przewidzieć, czy ten człowiek popełni przestępstwo, podczas gdy oczywiście sztuczna inteligencja nie może czegoś takiego przewidzieć, ponieważ mam wolną wolę i każdy decyduje sam, czy popełni przestępstwo, czy nie. To, co robi ta sztuczna inteligencja, to po prostu liczy statystykę, że ludzie w podobnej sytuacji, z podobną historią i innymi cechami, popełniali te przestępstwa. Więc taki brak zrozumienia prowadzi często do decyzji, które są nieetyczne. [9]

Źródło: https://www.amazon.com/Weapons-Math-Destruction-Increases-Inequality/dp/0553418815

A jeżeli ten model był szkolony na danych statystycznych, no to on zawierał dokładnie te rzeczy, które zaczęły dyskryminować ludzi, którzy być może byli nim oceniani.

Dokładnie, ale nawet jeśli model bezpośrednio nie ma dostępu do jakichś tam danych, powiedzmy, na punkcie płci albo rasy, takich, które są wrażliwe, to zawsze ma jakieś dane, które często są skorelowane z tymi cechami, na przykład miejsce zamieszkania, często skorelowane z grupą etniczną. No i tak dalej, a nawet jeśli te cechy nie są skorelowane, to i tak jest to nieetyczne, na tej podstawie dyskryminować ludzi.

Przeczytaj drugą część wywiadu w oddzielnym wpisie – klik. Rozmawiamy w nim o krajobrazie sztucznej inteligencji w USA.

Odwiedź nasz kanał YouTube!

To była transkrypcja jednego z odcinków na naszym kanale YouTube. Jeśli chcesz usłyszeć więcej rozmów i komentarzy na temat sztucznej inteligencji – zapraszamy na kanał Beyond AI.

Odwiedź Beyond AI na YouTube

Kanał Beyond AI jest tworzony przez specjalistów z firmy WEBSENSA, która od 2011 roku dostarcza rozwiązania AI dla czołowych przedstawicieli różnych branż.

Inne wpisy z tej serii

Jak polskie firmy używają sztucznej inteligencji? Retail Trends 2024

Jak o sztucznej inteligencji wypowiadają się liderzy rynku Retail w Polsce? Sprawdź wywiady z najciekawszymi gośćmi Retail Trends 2024!

Technologia Oczami Niewidomej: AI w Służbie Dostępności

Technologia Oczami Niewidomej: AI w Służbie Dostępności. Zobacz, jak sztuczna inteligencja pomaga niewidomym w codziennym życiu.