Beyond AI
Jak ChatGPT zmienia naszą pracę? Rewolucja w rekrutacji IT
Ten wpis to transkrypcja rozmowy, którą przeprowadziliśmy na kanale Beyond AI. Tematem jest technologia z głównym naciskiem na sztuczną inteligencję w służbie osób niewidomych.
Obejrzyj ten materiał na YouTube:
[Ziemowit Buchalski]: Witam na kanale Beyond AI. Dzisiaj naszym gościem jest Paulina Gajoch. Dzień dobry.
[Paulina Gajoch]: Dzień dobry.
Zaprosiliśmy Paulinę, ponieważ skomentowała jeden z naszych filmów.
Tak rzeczywiście było, bo akurat film był o GPTs i ja swojego GPTs zrobiłam, no i ten mój był stworzony dla osób niewidomych, bo ja sama też jestem osobą niewidomą. I z grubsza mówiąc, miał udzielać wsparcia technicznego i opisywać zdjęcia bardziej dokładnie niż zwykły czat.
Dla Ciebie ten świat technologii nie jest niczym strasznym, wręcz czerpiesz z tego korzyści. Z tego co wiem, też studiujesz informatykę?
Tak, jestem teraz na studiach magisterskich z informatyki społecznej na Akademii Górniczo-Hutniczej. Nam zamiar w tym roku się obronić, chociaż też moja droga była odrobinę na około, bo pierwszy stopień robiłam na socjologii. Chciałam od razu tam iść na tą informatykę społeczną, ale się nie dostałam. Stwierdziłam, że się przeniosę, nie przeniosłam się. Skończyłam tą socjologię i potem egzamin kierunkowy zdałam na informatykę społeczną. Przez to, że moja specjalizacja, czyli sztuczna inteligencja i data mining, jest zajęta tylko przez jedną osobę, czyli przeze mnie, no to muszę między wydziałami AGH biegać, żeby odpowiedniki przedmiotów realizować. No więc też kwestie nawigacyjne wchodzą.
Jeżeli możesz nam zdradzić, jakie masz plany po skończeniu studiów?
No, jeżeli trafi mi się akurat jakieś dobre zatrudnienie, dobry pomysł na rozwijanie się dalej tak już zawodowo, to super. Ja go wezmę i podejdę do tego jak do szansy. Natomiast, jeżeli nie, to myślę o tym, żeby piąć się dalej w akademickiej strukturze i zrobić doktorat. Tylko że właśnie jeszcze nie wiem gdzie, jak i tak dalej. Mogą wystąpić z tym pewne komplikacje, jak to zawsze z doktoratami. No ale, jestem bardzo otwarta na to co może mnie spotkać.
Przypomnijmy, że GPTs jest częścią usługi Chat GPT od OpenAI, która umożliwia zaszycie pewnych promptów i osiągnięcie jakiegoś celu, który przyświeca osobie go tworzącej. I zapisane jest to na pewien czas.
Ale jeszcze dodać to to, że można zamieszczać tam tak zwany "dataset", czyli to na jakich danych może oprzeć się model, żeby udzielić danej odpowiedzi. No i też można spiąć z jakimś API dany GPT, żeby komunikował się z jakąś zewnętrzną usługą. No ale o tym już pewnie dużo razy mówiliście w innych filmach.
Te przypadki użycia, które pokazywaliśmy, to było budowanie życiorysów czy tworzenie planów treningowych. Natomiast Ty w swoim GPT rozwiązałaś konkretny problem konkretnej grupy społeczności.
Kwestia jest tego typu, że my jako niewidomi mamy odrobinę mniejszy dostęp do informacji. Jeżeli nam coś nie działa, to nie jest to, że nie wiem, wpiszemy sobie w Google, “nie działa mi coś tam w moim czytniku ekranowym” i będzie 10 stron po polsku, a 50 po angielsku. Tylko jeżeli będzie jakaś jedna strona po polsku, to już będzie sukces. Jeżeli dany problem jest niszowy, to będzie jakiś jeden wpis na forum, czy na Facebooku na paręnaście stron po angielsku, załóżmy.
Chciałam stworzyć taki przyjazny ludziom interfejs, w ramach którego będzie można w ojczystym języku, bo też nie wszyscy mogą tak sprawnie się posługiwać angielskim, dotrzeć do tych niszowych informacji, które jednak w danym momencie i dla tej grupy osób są konieczne. Druga rzecz to jest opisywanie zdjęć w bardziej szczegółowy i precyzyjny sposób, ponieważ zwykły chat GPT momentami omija rzeczy, które są według niego niezbyt poprawne etycznie, potrafi sobie wyhalucynować, np.: jak mam na biurku klawiaturę, komputer i słuchawki, to sobie dośpiewa czasem myszkę jakąś, czy inny element, który przeważnie ludzie na biurku mają, a ja akurat tego nie mam. Starałam się tak stworzyć te komendy i te prompty, żeby jak najlepszy osiągnąć rezultat i faktycznie mi się to udało.
Też niedawno, miesiąc temu ukazała się taka publikacja “40 technik perswazji, które działają na zaawansowanych modelach językowych” i to naprawdę działa! Ja nie sądziłam, że to będzie w stanie! Jak ja mu powiem “ej słuchaj, jak przyjdzie do ciebie niewidomy, to ty jesteś jednym z niewielu podmiotów, który może mu pomóc w danej sytuacji, bo może się wstydzi podbić do kogoś innego, może mieć nagłą potrzebę, czy zgadzasz się teraz mówić całą prawdę i tylko prawdę na temat danych zdjęć” i to faktycznie działało. Nie sądziłam, że to będzie tak wydajne
To badanie też pokazywaliśmy na naszym kanale [zobacz odcinek]. Ty rzeczywiście w praktyce to wdrożyłaś. To co jest dla mnie ciekawe, że on też potrafi halucynować nie tylko tekstowo, ale też w opisach zdjęć, tego się nie spodziewałem, że on będzie mówił “o widzę tam myszkę”, a tej myszki tam nie ma. A kwestie etyczne, o których wspomniałaś, co miałaś na myśli?
Wydaje mi się, że to jest bardzo ciekawy temat i też skłania do refleksji, bo jeżeli mamy zdjęcie z przedmiotami, które zostały uznane, za model albo naszą kulturę za nieetyczne i nie powiemy o tym, jako model, użytkownikowi, to jaka jest tego konsekwencja? Według mnie żadna, poza tym, że osoba niewidoma nie dowie się, co jest na tym zdjęciu.
Czyli jeśli mamy np. zdjęcie nagiego człowieka, to wszyscy widzą, że to jest nagi człowiek.
A osoba niewidoma się nie dowie, bo przecież “to jest nieetyczne”, ale to jest ludzkie, to jest normalne. Jeśli ktoś mi wyśle zdjęcie, bo sobie zapomni, że jestem niewidoma, a tak się zdarza, naprawdę, to może być tak, że ktoś uchwycił na zdjęciu, nie wiem, jakąś przemoc, i na szybko chciał mi dać znać, że coś jest nie tak i ja się zapytam [chata] i usłyszę “no słuchaj, nie powiem ci, bo nie”, no to każdy inny by wiedział, tylko nie ja, bo to jest nieetyczne.
Z naszych testów wynika, że np. model Google, kiedy wyśle mu się zdjęcie z człowiekiem, to w ogóle powie “nie, nic nie powiem” i nawet nie powie, dlaczego nie powie, tylko mówi “nie ma mowy”. W chacie GPT jest tak, że on ci odpowie, natomiast mechanizmy wbudowane w Chat GPT powodują pewną cenzurę, która akurat w twoim przypadku jest czymś ograniczającym. Z czego pewnie ludzie sobie nie zdają sprawy.
Zrobiłam kiedyś taki eksperyment, że przejrzałam Reddita, tak, znaczy ja bardzo często przeglądam Reddita, ale jak jest zdjęcie, to skipuję. Teraz zrobiłam tak, że każde zdjęcie, które mi się pokazało na stronie głównej Reddita, przerzucam przez Chat GPT4. I okej, większość memów zrozumiałam, ale na przykład, nie wiem, był sobie mem z jakimś politykiem, który w danym roku coś tam robił, a w danym roku robi coś innego, i nie wiem, dowiadywałam się, że “na zdjęciu jest wysoki mężczyzna, który ma pod sobą podpis taki a taki, a potem jest ten sam mężczyzna, który widać, że jest starszy i ma podpis taki i taki”. No czyli, nie wiem, teoretycznie mogłabym podpiąć, że to jest taka osoba, albo taka osoba. Jakby nie wiem, jak wyglądają politycy, nie interesuje mnie to jakoś bardzo, więc po samym tym opisie, jaki to jest mężczyzna, czy jaka to jest kobieta, nie będę w stanie tego się dowiedzieć. I ja wiem, że jest dużo szkody, która mogłaby wyniknąć z identyfikacji osób niepublicznych przez model. Ale no jest też szkodliwość, która wynika ze zbyt nachalnego wrzucania wszystkiego do worka z etyką, zaetykietowane “nie, bo nie”.
Z tego co słyszę, jesteś osobą bardzo na czasie, interesujesz się nowinkami, nawet przeglądasz Reddita, który jest dosyć hardkorowym źródłem danych, rzeczywiście. Też nie stronisz od wykorzystania nowinek technologicznych, sztucznej inteligencji. Rozumiem, że z jednej strony są frustrujące jej ograniczenia, ale też są pewnie pozytywne strony, tak, to, że ona coś umożliwia takiego, którego wcześniej nie było. Gdybyś mogła opowiedzieć, co ta sztuczna inteligencja, która się pojawiła, daje i jak to teraz w ogóle wygląda u ciebie?
Też kwestia jest tego, co daje mi jako osobie i mi jako osobie niewidomej? No bo jako osobie niewidomej, w głównej mierze daje opisywanie zdjęć, bo tak naprawdę można wyróżnić trzy kategorie takiego opisu. I no najpierw wiadomo, był OCR, i w ramach OCR powstawały różne aplikacje na telefon, tak, jak załóżmy Google Lookout, Envision AI, Seeing Assistant Home, które pozwalały zbliżyć kamerę telefonu do pudełka z, załóżmy, jakąś żywnością, czy innym produktem, i dowiedzieć się co w nim jest, właśnie przez to, że aplikacja wyzywała tekst z tego zdjęcia, i dowiadywałam się, co fotografuję.
Mogłaś w sklepie, na przykład, zorientować się, jaki jest skład, albo ile, jaka jest kaloryczność.
Tak, ale też w celach domowych, że jeżeli mam coś o takim smaku, i o innym smaku, a chcę o takim, to biorę i skanuję je i rozpoznaję. W sklepie jest za dużo tych produktów, bo to też nie jest tak, że to mówi od razu — ja muszę obracać to pudełko, i zbliżać, oddalać tą kamerę. To nie jest takie precyzyjne, że ja od razu wezmę telefon, wezmę produkt, i za jednym gestem mam odpowiedź. Tylko właśnie czasami dostanę informacje o składzie, a czasami o tym, kto to wyprodukował, a czasami o tym, no, co to jest, a czasami o tym, jaki to jest przepiękny produkt i co zrobi z moim życiem, jeżeli tylko tego spróbuję. Też muszę tak wyobracać to opakowanie, żeby dostać się do tej informacji, o którą mi chodzi w danym momencie.
A w domowych warunkach, że “to była brzoskwinia, a to była truskawka”.
Tak, otóż to. Idąc dalej, później pojawiły się takie modele — wiem, że Microsoft ma jakiś swój, i z tego co wiem, Amazon, ale mogę się mylić — że wychwytywał konkretne kategorie na zdjęciach. Gdybym teraz sobie zrobiła zdjęcie to może powiedziałby “kobieta”, “uśmiech”, w danym momencie “sweter”, “spodnie”, coś tam, wypowiedziałby sobie “pokój”, losowe jakieś takie słowa, obiekty, które wyciągnął z tego obrazu. Byłam z tym w stanie się jakoś tam w miarę zorientować, o co chodzi, w sensie, co to jest za zdjęcie, czego to jest zdjęcie, ale nic więcej mi to nie dawało, więc niezbyt to było też przydatne. Natomiast teraz dzięki temu, że ukazał się Bard (dziś Gemini, przyp.), i ukazał się GPT z modułem Vision, jestem w stanie się w bardzo łatwy sposób dowiedzieć — OK, pomijając czekanie i pomijając to, że jest coś na tle ściany, która wygląda jakby, jakbym była w zabytkowej kamienicy, bo o nią nie dbałam, na przykład, i cokolwiek jeszcze innego, co sobie model stwierdzi, że dla poetyczności dopowie.
Czyli rozumiem, że te opisy czasami są zbyt rozbudowane, w stosunku do tego co potrzebujesz?
Paulina: Tak, tak. Ja to teraz troszkę ironicznie mówię, nie dlatego, żeby mnie to straszliwie frustrowało, tylko dlatego, żeby zobrazować, że poza tym, że się dowiem, o co mi chodzi, to jeszcze będę musiała się dowiedzieć tysiąca innych rzeczy, które dla osób widzących są normalną częścią tego co ich otacza. Tak naprawdę jest to gdzieś tam w podświadomości, jest gdzieś w percepcji, ale nie dotyka ich to jakoś strasznie, nie zwalnia ich, nie ogranicza produktywności. Nie mogę powiedzieć modelowi, żeby mówił to, “co jest dla mnie istotne”, bo tego on nie wie. Jeżeli jest zdjęcie, na którym istotny jest obiekt na głównym planie, no to super. Zdarzają się też takie zdjęcia, w których chciałabym dokładnie wiedzieć, co na nich jest. Na przykład moi znajomi użyli sobie mojego GPTs do tego, żeby na zdjęciach ślubnych dowiedzieć się, co na nich dokładnie było, i jakie widoczki były, i jak oni byli przedstawieni na tych zdjęciach. Czasami jest tak, że istotne jest takie praktyczne i użytkowe opisanie, co tam było. Czasami istotne jest to, co jest gdzieś w tle, bo w tle sfotografuje się rzecz też ważną.
Jak jakiś mistrz trzeciego planu, i to też jest istotne pod kątem tego, co chciałabyś wiedzieć.
Tak, ja się skupiłam po prostu na tym, żeby on był precyzyjny, żeby on nie kłamał, nie pomijał, nie poetyzował, nie robił rzeczy, które nie są potrzebne. Żeby nie ograniczać tego, co dostaje, co ma w inpucie, żeby nic nie pomijał z tego, co dostanie, bo nigdy nie wiadomo co się przyda.
Sztuczna inteligencja, to jest pewnie tylko część twojego życia, ale czy są jeszcze jakieś inne zastosowania, gdzie ta sztuczna inteligencja jest przez ciebie wykorzystywana?
Pozostałe zastosowania, które są, to bardziej dotyczą mnie jako osoby, i załóżmy, bardzo lubię czasami stworzyć coś, opierając się o Music Gen – o jest taki model do tworzenia muzyki. Jak sobie stworzę jakiś ładny bit, na przykład, no to potem sobie go zapętlę, dogram sobie coś na klawiaturze MIDI, i mam bardzo ładną muzykę. Jest też Music Gen Continuation, który pozwala mi zrobić kontynuację czegoś, co zastanawiałam się, jakby mogło brzmieć dalej. Zawsze to jest dla mnie ciekawe, czy model podobnie myśli, jak ja, bo też to mnie fascynuje w sztucznej inteligencji, że one zdają się dostrzegać nieoczywiste, ale nie dostrzegać oczywistego.
Daj przykład, bo to rzeczywiście jest interesujące.
Dla sztucznej inteligencji nie będzie łatwe powiedzieć, ile sylab było w danym zdaniu, bo ona myśli trochę po angielsku, trochę po polsku, trochę dataset. Jak się zapyta Chat GPT 3,5, “wymień słowa na A”, to on powie "jabłko”. No bo “apple” jest na “a”. Jeśli chodzi o takie zależności nietypowe, to czasami zdarza się, że jakiś pomysł nie przyjdzie mi do głowy, i człowiekowi zwykłemu by nie przyszedł. I też, tak, najbardziej sztampowy pomysł to jest AlphaGo. Jeżeli nie przychodzą ludziom do głowy pomysły takie, jak przychodzą sztucznej inteligencji, żeby rozegrać mecz w Go, no to znaczy, że jest w naszym myśleniu jakaś różnica. Jeżeli nie ma człowieka, który jest w stanie ograć AlphaGo, to znaczy, że ten AlphaGo myśli w inny sposób o grze, niż my. W zupełnie inny sposób sobie ją wyobraża, rozczytuje daną sytuację.
On też jest wyspecjalizowany w rozwiązywaniu tej jednej gry, i ma troszkę większą moc obliczeniową, którą może ukierunkować na rozwiązanie jednego jedynego problemu. Rzeczywiście lepiej niż my to potrafimy. Wyobrażam sobie, że w twoim życiu odgrywa ona (AI) też ogromne znaczenie. To nie tylko sztuczna inteligencja, ale chociażby telefon.
Czy twój telefon wygląda tak jak telefon wszystkich nas, czy czymś się różni?
[Przyp.: aby w pełni doświadczyć pracy z telefonem Pauliny, odsłuchaj jej prezentację w części wywiadu od 17:31 - klik]
Rozumiem, że telefon jest źródłem informacji, też spełnia dla ciebie funkcje komunikacyjne, ale czy też pomaga ci w nawigacji? W poruszaniu się?
Paulina: Tak, używam dwóch aplikacji do takiego poruszania się, i samodzielności w terenie. Pierwszą aplikacją jest MPK, czyli no coś jak JakDojadę, tylko że fajniejszy interfejs, taki prostszy, i to pozwala mi, sprawdzić, na przykład, z jakiego adresu na dany adres, albo z jakiego przystanku na dany przystanek, mam o której godzinie komunikacje, ile czasu na przesiadkę, jakie przesiadki, jakie numery przystanków — jeżeli dane miasto wspiera numery przystanków. Natomiast, jeżeli potrzebuję dotrzeć gdzieś w dane miejsce, no to wiadomo, nawigacja. Przy czym osoby niewidome mają swoje programy do nawigacji, żeby te osoby były prowadzone przez te programy zakręt po zakręcie, czyli żeby wiadomo było, kiedy dokładnie skręcić, ile dokładnie iść, i tak dalej. Ja jestem osobą, która niezbyt umie chodzić z taką nawigacją, i najczęściej to się kończy tak, że idąc rzeczywiście w danym kierunku, w którym powinnam iść, trafiam na jakąś osobę, która mi pomaga, bo się frustruje tym, że najpierw mi mówi, że jestem poza trasą, a potem mi mówi, że mam skręcić w prawo. No to jak uważa, że jestem poza trasą, to czemu mi nagle karze skręcić w prawo? Jest to też kwestia problematyczna, jeżeli chcę z przystanku jednego przejść na przystanek w drugą stronę, bo nawigacja nie jest przystosowana do tego, żeby prowadzić po konkretnych numerach przystanków. Więc jeżeli mam przystanek o nazwie Hoża, to dla nawigacji to jest tyle. On nie pozwoli przejść z przystanku autobusowego na tramwajowy, nawigując. Trzeba albo znać tą trasę, albo sobie ją gdzieś zapamiętać, zapisać w notatkach. No to jest, myślę, takie najbardziej problematyczne, ale staram się mniej więcej sobie radzić. Też bardzo jest dużo śmiesznych sytuacji, mogłabym być standuperką, jeżeli bym zaczęła opowiadać wszystkie sytuacje, które mnie spotkały, dlatego, że poprosiłam kogoś, żeby mnie gdzieś zaprowadził.
Technologia pomaga osobom niewidomym, i pewnie osoby widzące myślą sobie, “o, tutaj jest możliwość stworzenia nowej apki, zrobimy coś, co pomoże”, czy to rzeczywiście zawsze jest takie proste, że ta technologia rozwiązuje wszystkie problemy?
Bardzo fajnie, że ludzie chcą pochylać się nad naszymi problemami, i chcą z nami empatyzować. Często są jakieś czy to hackatony, czy projekty w ramach wolontariatów, czy innych działań, które mają na celu podnieść jakość naszego życia przez zrobienie nawet prostej apki, ale takiej, która jest bardzo użyteczna w danych kontekstach. Tylko że gorzej, jeżeli ktoś stwierdzi na siłę, że no dobra, to ja teraz będę super, i poprawie życie niewidomym, a nawet niezbyt się rozezna w tym, co jest nam potrzebne. Może taka drobna pokazówka, jak jest analogowe rozwiązanie, to jest ramka banknotówka, tak zwana, po to, żeby przyłożyć do niej banknot, i dowiedzieć się, co to dokładnie jest: dycha, dwie dychy, pięć dych, stówa, dwie. Coś sobie wyciągnę, no i widzę, że to jest dycha.
Też taka aplikacja na telefon, zrobiona chyba nawet przez jakichś polskich programistów, nazywa się chyba Recognize Banknote. No i ja teraz czekam. Dobra, dowiedziałem się w miarę od razu.
Poprzednim razem, jak pokazywałaś to, to trwało znacznie, znacznie, znacznie dłużej. Były gorsze warunki oświetleniowe, i to rzeczywiście nie działało.
No to tak, zawsze jest, że jak się chce pokazać, że nie działa, to działa, a jak że działa, to nie działa. No więc niektóre te aplikacje potrafią wnieść więcej takie trochę szkody, niż pożytku, bo człowiek pomyśli sobie o, kurczę, ale to już beznadziejnie działa, już mi się nie chce tego testować. Niby mówili, że technologia tyle mi da, a tak naprawdę, wziąć karton, wyciąć ramkę, i po robocie, a nie się tam cackać.
Opowiadałaś, na przykład, o takim programie jak Be My Eyes.
To to jest szczytna apka, bo tam jest naprawdę duża baza użytkowników, i to jest aplikacja, która pozwala nam niewidomym łączyć się z widzącymi wolontariuszami, którzy sobie to też zainstalują i oczekują od nas na połączenia, które się im pokazują w powiadomieniach. No i jak się połączymy przez kamerkę, no to jestem w stanie zapytać się danej osoby, czy coś mi, nie wiem, data przydatności mi się nie skończyła, a dlaczego mi nie działa, bo jest ciemny ekran, bo ja akurat mam poczucie światła, ale nie wiem, ktoś może zupełnie nie widzieć. Po prostu nie mówi mu komputer, albo telefon, pralka, mikrofalówka, coś sobie kliknęłam, kliknąłem na ekspresie do kawy, na telewizorze, na czymś. Na przykład, ostatnio u babci byłam, babcia przez noc tam nacisnęła pilotem, wywaliła sobie kanały z telewizora, i nie mogła oglądać. No i przez Be My Eyes przestrajałam dekoder. Więc da się różne ciekawe rzeczy robić. Natomiast ostatnio w tym pojawiła się taka zakładka Be My Eye, która pozwala osobom niewidomym bez płacenia korzystać z tego modułu Vision GPT 4. I faktycznie działa to bardzo prosto: jest przycisk “zrób zdjęcie” ustawiamy sobie aparat, tak, żeby zrobił, jest jakaś tam muzyczka, żebyśmy wiedzieli, że jeszcze czekamy, i jak już się wygeneruje, to akurat na iPhonach czyta automatycznie, a na Androidach zdarza się, że nie czyta od razu, i trzeba sobie kliknąć. Natomiast, pozwala to po prostu się zorientować, że na zdjęciu jest tam mikrofalówka, która ma wyświetlone to, to, to, i to. Pierwszy przycisk, to jest to, drugi przycisk jest to, i tak dalej. Tylko że to też potrafi być niebezpieczne, bo GPT jak powszechnie wiadome, że halucynuje tekstowo, ale graficznie również potrafi sobie coś dośpiewać. Dla przykładu mi dośpiewał myszkę przy klawiaturze, której nie mam, bo nie potrzebuję jej. I też czasami on stwierdzi, że zamiast powiedzieć ze zdjęcia, jakie są, załóżmy, przyciski na danym urządzeniu, to on sobie zaczerpnie taką informację ze swojej bazy, która może być niezgodna z tym, co jest naprawdę. Więc zdarzyło się moim kilku znajomym losowo sobie poklikać w coś, bo akurat nie wiedzieli, że on ma taką tendencję do halucynacji. Tym niemniej, jest to bardzo przydatne, i pewnie ich GPTs zachęca do tego, żeby skorzystać z pomocy wolontariusza w danym problemie.
Inna sprawa, że polityka prywatności tej usługi jest bardzo niepewna, i taka wzbudzająca refleksja. Zakłada ona, że Be My Eyes może przekazywać zdjęcia, które robią sobie osoby niewidome, czy tam jakimś innym podmiotom, organizacjom, które dbają o dobro niewidomych w danych krajach, i swoim jakimś partnerom. Więc jest taka wątpliwość moja i też wielu innych osób niewidomych, że nasze środowisko nie jest zbyt duże. Więc jeżeli do organizacji, która mnie zna, trafi zdjęcie jakieś, które w dany sposób mnie kompromituje, bo zapytam się modelu, czy jestem dobrze ubrana na egzamin, a będę miała plamę na środku okazałą, no to potem sobie ktoś pomyśli, że “o, matko, cóż to za nieporządna osoba”. No a niekoniecznie, wiadomo, bo czasami się akurat tak trafi, że nie jest wyczuwalna dana plama.
Załóżmy, że nie pamiętam, jaki mam serię i numer dowodu osobistego, i nie mam tego jak sprawdzić. No to żadna usługa, która opisuje zdjęcia, nie gwarantuje mi takiej polityki prywatności, dla której wiedziałabym, że mogę ten dowód sobie zeskanować, i mieć pewność, że za chwilę nie zapuka do mnie smutny pan.
Czyli z jednej strony osoby niewidzące, są uzależnione od takiej technologii, bo być może jest to jedyna opcja, żeby coś zrobić, coś wykonać, a z drugiej strony ta prywatność może nie być aż tak chroniona, jakbyście chcieli.
Zgadza się, właśnie to też pewnie wynika z tego, że biznesowe jakieś ograniczenia, pomimo że ludzie chcą zrobić coś fajnego, wymagają, żeby było coś kosztem czegoś. No i nawet jeżeli się to kupi, nawet jeżeli się w to zainwestuje, i tak się na to narażamy. Więc jedyną kwestią, którą trzeba podjąć, jest czujność. Dbać o swoje bezpieczeństwo, zastrzec sobie numer PESEL, zatwierdzać wszystkie operacje bankowe, które nam przychodzą, i tak dalej. Patrzeć na to, bo no nie uchroni my się, czy osoby widzące, czy osoby niewidome. Jeżeli nie będziemy czujni, to i tak się nie uchronimy, i tak. Czasami po prostu stwierdzam, że okej, trudno, potrzebuję tego, więc nie będę teraz podbijać do randomowej osoby widzącej, i się pytać o to, bo i tak też ta osoba widząca może okazać się niegodna zaufania.
Trzeba dbać o swoje w każdej sytuacji. Bardzo ci dziękuję za udział w naszym odcinku, za to, że nas odwiedziłaś i przybliżyłaś swój świat, swoje doświadczenia ze sztuczną inteligencją, ogólnie też z technologią
Bardzo dziękuję, do widzenia.
Do zobaczenia.
—
To była transkrypcja jednego z odcinków na naszym kanale YouTube. Jeśli chcesz usłyszeć więcej rozmów i komentarzy na temat sztucznej inteligencji – zapraszamy na kanał Beyond AI.
Jak o sztucznej inteligencji wypowiadają się liderzy rynku Retail w Polsce? Sprawdź wywiady z najciekawszymi gośćmi Retail Trends 2024!
Iwona Białynicka-Birula to uznana ekspertka sztucznej inteligencji z doświadczeniem w eBay, Google czy Facebook. Rozmawiamy o specyfice pracy przy AI w USA.