Sztuczna inteligencja — szansa czy zagrożenie

Marta Maj
opublikowano: 2022-12-06 20:00

Czy powinniśmy bać się sztucznej inteligencji? Z czym wiąże się jej rozwój i gdzie obecnie możemy ją spotkać — w szóstym odcinku Trendbooka na te pytania starały się odpowiedzieć Magdalena Kasiewicz, członkini zarządu Microsoft w Polsce, oraz Jowita Michalska, prezeska Digital University, Warsaw Singularity Group.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Posłuchaj 6. odcinka audycji Trendbook:

Sztuczna inteligencja (AI), do niedawna kojarzona z amerykańskimi filmami science fiction, jest obecna w wielu aspektach naszego codziennego życia. Podgląda nas, podsłuchuje, zapisuje dane. Robi to za naszą pełną zgodną, a później analizuje, wyciąga wnioski i podejmuje decyzje. Maszyny i algorytmy są naszymi towarzyszami każdego dnia. Odblokowują smartfony dzięki rozpoznawaniu twarzy, rozmawiają z nami poprzez asystentów głosowych i chatboty. Podpowiadają, co warto kupić, obejrzeć, zjeść, przeczytać. Z czym wiąże się rozwój technologii AI? Jakie niesie zagrożenia, a jakie możliwości?

— Definicja sztucznej inteligencji jest bardzo pojemna, ponieważ są to wszystkie algorytmy, które naśladują ludzką inteligencję. Mogą to być zarówno proste i przewidywalne algorytmy, jak również takie sieci neuronowe, których działania do końca nie rozumiemy. Pojęcie sztuczna inteligencja często mylone jest z uczeniem maszynowym, które jest tylko częścią AI — mówi Magdalena Kasiewicz, członkini zarządu Microsoft w Polsce.

Marzenie i wiara:
Marzenie i wiara:
Wierzę, że technologia może wnieść w ludzkie życie wiele dobrego. Moim marzeniem jest, by algorytmy i sztuczna inteligencja pomogła nam usunąć wszystkie uprzedzenia.
materiały prasowe

W badaniu „Sztuczna inteligencja w społeczeństwie i gospodarce” NASK-Państwowego Instytutu Badawczego polscy internauci wskazują na najbardziej adekwatną definicja sztucznej inteligencji jako technologii, która działa bez udziału człowieka (55,8 proc.).

— Warto zwrócić uwagę na obecne nastroje dotyczące sztucznej inteligencji. Ludzie obawiają się, że AI może wyrządzić im fizyczną krzywdę, zabrać pracę albo wręcz przeciwnie — uważają, że może nas uratować. Jest to oczywiście narracja filmowa. Sztuczna inteligencja to po prostu wyższa matematyka, która w ciekawy sposób wynajduje anomalie i rzeczy w ogromnych zbiorach danych — mówi Jowita Michalska, prezeska Digital University, Warsaw Singularity Group.

Mądrość algorytmów:
Mądrość algorytmów:
Obecnie AI odnotowuje największe sukcesy przy prostych odpowiedziach tak—nie, jednak algorytmy są coraz bardziej złożone i mądre, dzięki czemu wkrótce będą w stanie odpowiedzieć na bardziej szczegółowe pytania.
materiały prasowe

Różnica w działaniu

Systemy AI skutecznie rozwiązują problemy, które wymagają analizy dużej liczby danych, a do ich rozstrzygnięcia używają określonego schematu.

— Od sztucznej inteligencji różni nas podstawowa kwestia — analiza. My operujemy na bardzo małych zbiorach danych. Zazwyczaj mamy dwie, trzy zmienne i wtedy podejmujemy decyzję. W sztucznej inteligencji jest dokładnie odwrotnie, im więcej ma danych, tym lepiej dla jej funkcjonowania — podkreśla Jowita Michalska na antenie Radia 357.

Wydajne funkcjonowanie systemów AI opiera się na odpowiednio dużym, różnorodnym, adekwatnym i uporządkowanym zbiorze danych. W przeciwnym razie zastosowana zostanie zasada AI, polegająca na segregacji danych i usuwaniu informacji uznanych przez nią za niepotrzebne, nawet jeżeli będą to nowe dane.

— Ludziom trudno podejmować decyzje na podstawie dużych zbiorów danych, ponieważ są one zazwyczaj nieuporządkowane. Maszyny ze względu na swoją moc obliczeniową są w stanie wykryć pewne wzorce — mówi Magdalena Kasiewicz.

AI nie jest gwarancją, że decyzja jest dobra
Piotr Łukasiński
data scientist, obszar business intelligence, Santander Bank Polska
AI nie jest gwarancją, że decyzja jest dobra

Terminu AI używamy do opisania różnych technik automatycznego podejmowania decyzji. Najpopularniejsza z nich — uczenie maszynowe — polega na uczeniu komputera przez pokazanie mu wielu dokonanych już wyborów. Na przykład system klasyfikacji obrazów wytrenujemy, prezentując wiele obrazów i ich opisy, a system tłumaczenia — teksty oryginalne i przetłumaczone. Ta metoda działa najlepiej tam, gdzie mamy do czynienia z szybkimi, powtarzającymi się decyzjami. Te narzędzia mają dwie duże słabości. Po pierwsze — nie potrafimy uzasadnić ich wyborów. Po drugie — mogą wzmacniać stereotypy, również te krzywdzące. Pierwszy problem wynika z tego, że algorytmy szukają tylko powiązań. Nie są budowane, aby odpowiadać na pytanie „dlaczego?”. Drugi problem, czyli występowanie uprzedzeń, wynika ze sposobu, w jaki są budowane — przez trenowanie na przeszłych decyzjach. Jeśli w tych decyzjach świadomie lub nieświadomie występowały uprzedzenia, system ich się nauczy i będą one standardem. To, co możemy zrobić — jako klienci, obywatele, pacjenci czy rodzice — to domagać się większej przejrzystości w tym, jakie decyzje są automatyzowane, gdzie i jak. To pomoże w ich ulepszeniu. Musimy też pamiętać, że fakt, iż decyzja została podjęta przez komputer, wcale nie gwarantuje tego, że jest ona dobra, ani także tego, że jest sprawiedliwa. Dlatego modele często są tylko elementem bardziej skomplikowanego procesu decyzyjnego, w który wpisane jest wiele czynników kontrolnych.

Codzienność z AI

Sztuczna inteligencja nas otacza. Spotkać ją można w domach, bankach, sklepach. Znaczna część osób ma w swoich mieszkaniach inteligentne telewizory, laptopy, sprzęt AGD. Z badania NASK „Sztuczna inteligencja w społeczeństwie i gospodarce” wynika, że ponad 40 proc. ogółu badanych twierdzi, że sztuczna inteligencja ma wpływ na ich codzienne życie, m.in. w takich obszarach jak: rozrywka i gry, transport, motoryzacja i komunikacja publiczna oraz media internetowe. Technologie oparte na sztucznej inteligencji są ich zdaniem najczęściej wykorzystywane do kierowania pojazdami lub innymi maszynami, automatyzacji pracy fizycznej, pozyskiwania informacji i wiedzy oraz symulacji 3D i gier video.

— Sztuczna inteligencja ma już wielorakie zastosowanie. Zacznijmy od medycyny — anomalie na zdjęciach rentgenowskich dużo lepiej wyszukuje AI niż człowiek. Podczas pandemii zaczęliśmy jej używać do wyszukiwania nowych zastosowań dla leków. Jej algorytmy pomagają nam także w pracy nad nowymi lekami czy w przeszukiwaniu zbiorów medycznych. W jednym z raportów przeczytałam, że co 6-12 miesięcy podwaja się na świecie liczba publikacji medycznych. Nawet najbardziej zaangażowany naukowiec czy lekarz nie byłby w stanie ich wszystkich przeczytać, dlatego sztuczna inteligencja przeszukuje te zbiory w poszukiwaniu odpowiedzi na wiele pytań — twierdzi Jowita Michalska.

Medycyna i AI to elementy wzajemnie się przenikające i coraz bardziej ze sobą połączone. Sztuczną inteligencję wykorzystuje się nie tylko do odczytu niejednoznacznych wyników badań, ale również w kardiologii, onkologii, a nawet psychiatrii. Od 2018 r. istnieje algorytm certyfikowany przez amerykańską Agencję Żywności i Leków (FDA), mogący samodzielnie diagnozować lub stanowić element diagnozy. Algorytm bada dno oka pod kątem występowania retinopatii cukrzycowej. Kolejny algorytm przeznaczony jest do oceny mammografii piersi i zmniejsza liczbę wyników fałszywie ujemnych o około 9 proc. Ponadto AI pomaga lekarzom w szybszym sporządzaniu dokumentacji medycznej.

Medycyna to jednak nie wszystko. Sztuczna inteligencja jest szeroko wykorzystywana również w marketingu i sprzedaży, finansach i bankowości czy ubezpieczeniach. Raport firmy Accenture „Sztuczna inteligencja. Dobre praktyki, aspekty prawne i zastosowania w sektorze finansowym” wskazuje na korzyści, które przyniesie AI. Dzięki odpowiednio zdefiniowanym zasadom, procedurom oraz kryteriom AI zoptymalizuje i zmniejszy koszty pracy, a rozszerzone możliwości analityczne ułatwią proces podejmowania decyzji. Zdaniem naukowców działania wykonywane przez osobistego asystenta zwiększą ludzkie zdolności oraz pobudzą kreatywność dzięki wskazywaniu alternatywnych możliwości.

— Obecnie sztuczna inteligencja odnotowuje największe sukcesy przy prostych odpowiedziach tak—nie, jednak algorytmy są coraz bardziej złożone i mądre, dzięki czemu będą wkrótce w stanie odpowiedzieć na bardziej szczegółowe pytania — mówi prezeska Digital University, Warsaw Singularity Group.

Magdalena Kasiewicz natomiast podkreśla działanie sztucznej inteligencji na wyższych poziomach. Zwraca uwagę, że personalizacja kontentu jest procesem skomplikowanym, tak samo jak rozpoznawanie wzoru, który AI odczytuje na swoje potrzeby. Czasami takich analiz i wzorców są tysiące, a mimo to sztuczna inteligencja podejmuje decyzje.

Czy jest się czego bać

W kwietniu 2021 r. Komisja Europejska zaprezentowała projekt Aktu w sprawie Sztucznej Inteligencji — AI Act (AIA). Jej przedstawiciele podkreślali, że rozporządzenie ma być pierwszą na świecie kompleksową regulacją dotyczącą sztucznej inteligencji. Prezentujący projekt komisarze obiecywali wprowadzenie zasad, które zagwarantują etyczne i bezpieczne wykorzystanie AI, przy jednoczesnym ograniczeniu interwencji do tych obszarów, gdzie jest to niezbędne i nie zaburza innowacji.

— Wierzę, że technologia może wnieść w ludzkie życie wiele dobrego. Moim marzeniem jest, by algorytmy i sztuczna inteligencja pomogła nam usunąć wszystkie uprzedzenia. Często mówi się, że algorytmy mogą mieć stereotypowe myślenie i przekonania. To prawda, ponieważ AI pobiera dane od nas, jednak są już technologie, które je wykrywają. Obserwując algorytm i jego logikę jesteśmy już w stanie wykryć anomalie i usunąć powstały stereotyp — mówi Magdalena Kasiewicz.

Większość obowiązków związanych z systemami sztucznej inteligencji spoczywa na ich dostawcach. Powinny być projektowane, testowane, audytowane i certyfikowane, muszą też być przejrzyste dla użytkowników i nadzorowane przez człowieka, gdyż AI to technologia o bardzo szerokich zastosowaniach i rosnącym znaczeniu. Może być używana do pomocy człowiekowi, ale też do działań szkodliwych. Naukowcy podkreślają też, że AI nie dysponuje zdrowym rozsądkiem, nie odróżnia skutku od przyczyny ani działań etycznych i nieetycznych.

— Moim zdaniem główne zagrożenie to brak świadomości. Osoby interesujące się AI to zazwyczaj małe grupy, głównie z branży technologicznej, oraz zajmujące się nią na co dzień. Technologia wsiąka w nas, dlatego warto o niej edukować. Żeby stworzyć właściwe ograniczenia dla jej rozwoju, trzeba znać ją oraz regulacje prawne. Potrzebni są ludzie, którzy będą mieli tę wiedzę, a wtedy będziemy wiedzieli, jak zapanować nad sztuczną inteligencją — uważa Jowita Michalska.