Sztuczna inteligencja (ang. artificial intelligence) to hasło, które jest obecnie odmieniane przez wszystkie przypadki, a w codziennym życiu Kowalskiego pojawia się częściej niż kiedykolwiek wcześniej. AI jest na wyciągnięcie ręki i to dosłownie. Technologie tzw. inteligentnych domów, gdzie odkurzacze skanują przestrzeń i omijają napotkane przeszkody; informatyczne filtry, które sprawiają, że spam nie zaśmieca skrzynki mailowej; aparaty rekomendacji działające na podstawie danych historycznych, polecające zbieżne z gustem filmy, muzykę i produkty czy tak popularny dziś ChatGPT, który generuje odpowiedzi na zadawane przez użytkowników pytania – to wszystko przejawy AI.
Czym jest sztuczna inteligencja? Pierwszy etap się domknął
Jedną z zaproponowanych klasyfikacji sztucznej inteligencji jest podział na wąskie AI, ogólne AI oraz sztuczną superinteligencję (ASI). Pierwszy z wymienionych rodzajów bywa nazywany również „słabą sztuczną inteligencją”, która odpowiada zdolnościom systemu komputerowego do wykonywania wąsko zdefiniowanych zadań lepiej niż człowiek. Sztuczna inteligencja nie myśli samodzielnie w czasie rzeczywistym, a tak naprawdę koordynuje kilka procesów i podejmuje decyzje w ramach ustalonej ścieżki wytyczonej przez różne algorytmy. Ten etap ludzkość osiągnęła już dziś.
Sztuczna inteligencja ogólna, inaczej „silna sztuczna inteligencja”, odnosi się do zdolności przewyższania ludzi w zadaniach intelektualnych przez system komputerowy. Ten rodzaj AI jest pokazywany w filmach, w których roboty myślą w sposób niezależny i działają samodzielnie. Z kolei sztuczna superinteligencja na razie, jak się mawia, pozostaje pieśnią przyszłości. W jej ramach miałby zostać stworzony system komputerowy, który w założeniu posiadałby zdolność do przewyższania ludzi w niemal każdej dziedzinie, zaczynając od życiowej mądrości, poprzez trudno mierzalne czynniki jak kreatywność, kończąc na kompetencjach społecznych. Cechowałyby go nieomylność i doskonałość.
„Możemy »zobaczyć« to, co jest niewidoczne gołym okiem”
Wielkie przedsiębiorstwa prześcigają się w wymyślaniu coraz to nowszych sposobów wykorzystywania sztucznej inteligencji, aby jak najbardziej zoptymalizować proces działania. Ale początku wytyczania nowych dróg należy szukać w świecie nauki. Sztuczna inteligencja otwiera wiele nowych możliwości m.in. dla rozwoju branży medycznej i finansowej. Dodatkowo wyznacza nowe kierunki zbierania informacji z najdalszych zakątków świata, a od tego miejsca pole do popisu otwiera się przed ekspertami określanymi jako data scientists, którzy analizują spływające dane.
Firma KP Labs kompleksowo zajmuje się misjami satelitarnymi. Tworzy m.in. komponenty w postaci algorytmów, oprogramowania i sprzętu.
– Jeśli chcemy wysłać satelitę w przestrzeń kosmiczną, to potrzebny jest nie tylko hardware i software, ale także wszystkie algorytmy, które przetwarzają dane. Osobiście zajmuję się częścią algorytmiczną, w której główny akcent kładziemy na sztuczną inteligencję, a algorytmy tworzymy w ścisłej współpracy z agencjami kosmicznymi: europejską, kanadyjską oraz z NASA – poinformował dr hab. inż. Jakub Nalepa, profesor Politechniki Śląskiej w Katedrze Algorytmiki i Oprogramowania oraz szef działu AI w KP Labs.
– Jednym z filarów działalności KP Labs dotyczącej sztucznej inteligencji i przetwarzania danych jest analiza obrazów – to mogą być obrazy barwne, multispektralne, hiperspektralne. Ten ostatni przypadek to specyficzny rodzaj danych, w których rejestrujemy obraz w wielu długościach fali elektromagnetycznej. Nie wchodząc w szczegóły, dzięki pozyskaniu większej ilości danych, również we fragmentach spektrum poza obszarem światła widzialnego, możemy „zobaczyć” to, co jest niewidoczne gołym okiem. W tym celu tworzymy szeroki wachlarz algorytmów. Za pomocą klasycznych metod wstępnie przygotowujemy surowe dane i tworzymy z nich trójwymiarową kostkę danych, aby móc je dalej przetworzyć z wykorzystaniem metod sztucznej inteligencji – kontynuował.
Co ciekawe, algorytmy analizy danych są jeszcze na Ziemi modelowane w taki sposób, aby były przygotowane i uodpornione m.in. na tzw. „szumy’ związane z warunkami w przestrzeni kosmicznej lub charakterystyką komponentów sprzętowych. Wszystko po to, aby otrzymać jak „najczystszy” ogląd sytuacji.
– Jeśli korzystamy z algorytmów zainstalowanych w satelicie, skalowalność takiego rozwiązania jest ogromna. Korzystając z danych hiperspektralnych, możemy analizować parametry i stan gleby na wskazanym zdjęciu, śledzić obiekty, statki na morzach, analizować pożary, oceniać powierzchnię i stan lasów. Zastosowań „downstreamowych” jest dużo, wielu z nich jeszcze nie znamy i dopiero poznajemy. Jeżeli chcemy robić to skutecznie i efektywnie, trzeba mieć algorytmy do analizowania trudnych i wysokowymiarowych danych. W KP Labs tworzymy algorytmy oparte na sztucznej inteligencji. Korzystamy zarówno z klasycznego, jak i głębokiego uczenia maszynowego. Często te algorytmy są generyczne i bardzo szybko możemy je dostosować do nowego problemu z zakresu obserwacji Ziemi – wskazał dr hab. inż. Jakub Nalepa.
Ekspert wspomniał także o innych praktycznych zastosowaniach, w których można wykorzystać algorytmy tworzone w KP Labs. – W tym momencie skupiamy się na analizie gleby. Nasze rozwiązanie zostanie wykorzystane na pokładzie satelity tworzonego przez KP Labs – Intuition-1. Będą to algorytmy, które mają za zadanie zlokalizować konkretne obszary glebowe, a następnie wyznaczyć parametry i właściwości gleby w tych obszarach, np. jej kwasowość. Drugim przykładem jest detekcja anomalii w danych telemetrycznych. Uruchomiliśmy niedawno algorytm detekcji anomalii na prawdziwym satelicie, który już działa. Chodzi o satelitę OPS-SAT, który jest nazywany latającym laboratorium Europejskiej Agencji Kosmicznej – powiedział ekspert.
Jednocześnie dr hab. inż. Jakub Nalepa wydał jednoznaczną prognozę dotyczącą AI. Uważa, że techniki sztucznej inteligencji będą wykorzystywane coraz szerzej, a systemy oparte na algorytmach sztucznej inteligencji są niezwykle przydatne naukowcom. Tworzą przed nimi swego rodzaju zabezpieczenie, np. chronią łaziki kosmiczne przed ewentualnym rozbiciem o przeszkody, analizując wcześniej obszar, który będzie eksplorowany. A to ułatwia zbieranie informacji i skraca proces dojścia do kolejnych odkryć.
Sztuczna inteligencja – sojusznik czy wróg? „Dzisiaj mamy powtórkę z rozrywki”
Na zastosowanie sztucznej inteligencji w innej dziedzinie zwrócił uwagę dr Leon Ciechanowski, pracownik Katedry Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Ekspert rozpoczął swoją przygodę naukową od filozofii, później kongnitywistyki, neuropsychologii, a teraz zajmuje się zawodowo algorytmami sztucznej inteligencji, które można określić jako „cyfrowy mózg”.
– Jest coś magicznego w tym, że można nauczyć maszynę, aby rozumiała działanie naszego mózgu. Pomijam to, że niemal każdy data scientist chciałby się zbliżyć do stworzenia takiej formy sztucznej inteligencji, która by pozwoliła ze sobą porozmawiać, zaprzyjaźnić się, ale także zrozumieć nas samych. Gdy myślę o sztucznej inteligencji, to mam ogromną nadzieję, że – wbrew obawom wielu – nie podbije nas, lecz nami pokieruje – powiedział.
Dr Leon Ciechanowski zaznaczył, że już w latach 90. XX wieku pojawiały się głosy ekspertów, którzy prognozowali, że za 5-10 lat będą funkcjonowały zaawansowane, superinteligentne maszyny, boty, a może nawet roboty, które będą potrafiły prowadzić rozmowy na dowolne tematy. I że będzie to zjawisko powszechne. Tego typu przypuszczenia się nie sprawdziły. – Dzisiaj mamy powtórkę z rozrywki. Fascynujemy się np. chatbotami, choć nadal są to bardzo proste rozwiązania. Generalnie technologia, z którą dzisiaj styka się człowiek, wygląda dosyć ubogo. Natomiast w prostych czynnościach i rutynowych zadaniach te narzędzia jak najbardziej spełniają swoją funkcję – ocenił.
Pojawia się więc pytanie, czy narzędzia sztucznej inteligencji pozwalają na to, aby „zajrzeć do umysłu” człowieka, a jeśli tak, co takie rozwiązanie daje, jakie informacje przynosi. – Poniekąd. Na rynku są rozwiązania, które na podstawie działania kory motorycznej mózgu pozwalają nieinwazyjnie odczytać, co dzieje się w głowie pacjenta, który ze względu na chorobę nie jest w stanie tego powiedzieć. Wystarczy mieć założony czepek EEG. Te systemy w pewnym sensie odczytują ludzkie intencje – człowiek wyobraża sobie, co chce powiedzieć, a specjalny syntezator przetwarza odebrane sygnały na mowę. Technologie data science w neuronauce są już bardzo rozwinięte – podkreślił ekspert.
Dr Leon Ciechanowski prognozuje, że w ciąg kilku do kilkunastu lat dla osób, które nie mogą mówić np. ze względu na paraliż, zostanie stworzona możliwość komunikowania się za pomocą technologii, do czego przyczyni się wykorzystanie algorytmów uczenia maszynowego przy rozwiązywaniu realnych problemów ludzkości. W czasach, gdy naukowcy nieustannie robią postępy, przesuwając granicę niemożliwego, eksperci już doszli do sytuacji, w której – w pewnym sensie – potrafią myśli człowieka zapisać w sposób matematyczny, a ze zgromadzonej bazy danych wysnuwać konkretne wnioski dotyczące podejmowanych decyzji, a przynajmniej prawdopodobieństwa ich podjęcia.
– Algorytmy sztucznej inteligencji są częścią data science w neuronauce. W ramach mojego doktoratu zajmowałem się badaniem reakcji psychologicznych na podstawie aktywności mózgu sczytywanej z EEG. Urządzenie sczytuje fale mózgu z różnych punktów czaszki i zapisuje w komputerze jako sygnał. Każda elektroda jest przedstawiona jako osobny wykres, a nasze „myśli” są zaprezentowane w sposób matematyczny. Zaznaczę, że stosuję tu pewne uproszczenie. Obecnie nikt nie wie do końca, jak procesy elektrochemiczne prowadzą do powstania myśli czy świadomości w mózgu. Natomiast np. dzięki elektroencefalografii, czyli badaniu bioelektrycznej czynności mózgu, mamy zdecydowanie większą wiedzę o prostszych procesach tam zachodzących, jak powstawanie ruchu, uczuć, mowy itp. – tłumaczy dr Leon Ciechanowski.
– Uzyskany w ten sposób sygnał neuronalny mogę przekształcać i traktować jako bazę danych. Na ich podstawie mogę np. przewidywać, jaką decyzję podejmie osoba badana: czy „pod wpływem” sygnału mózgowego naciśnie guzik prawy, czy lewy. Na ten temat są już prowadzone zaawansowane badania, które pokazują, że dzięki takim rozwiązaniom można przewidzieć działanie osoby badanej nawet kilkanaście sekund przed jej decyzją – podsumował.
Pies chihuahua i babeczka z jagodami. Algorytmy nie są nieomylne
Świat finansów również uległ przeobrażeniom po tym, jak odkrył moc algorytmów sztucznej inteligencji i rozwiązań data science. – W fintechach i bigtechach, które popychają digitalizację, ludzkie analizy są zastępowane algorytmicznymi. Roboty mogą szybko i sprawnie zaoferować produkty finansowe. W przypadku decyzji kredytowych mówimy o paru minutach, może 1-3 dniach, gdy chodzi o firmy. Tymczasem w instytucjach bankowych niekiedy trwa to tygodniami. Wygoda i szybkość są szczególnie ważne dla firm z problemami płynnościowymi, które muszą natychmiast pozyskać finansowanie, bo każdy kolejny dzień przybliża je do bankructwa – powiedziała dr hab. Aneta Hryckiewicz, szefowa Zakładu Ekonomicznych Analiz Empirycznych w Akademii Leona Koźmińskiego, gdzie prowadzi kierunek studiów Master in Big Data Science.
Jak zauważyła ekspertka, algorytmy i rozwiązania data science w fintechach są bardziej precyzyjne, jeśli chodzi o wyliczanie niepewności. Tworzą schematy w oparciu nie tylko o informacje używane przez banki w tradycyjnych modelach decyzyjnych, ale również pozyskują dane z różnych innych źródeł jak np. social media.
– To powoduje, że instytucja czy osoba odrzucona przez bank, np. z uwagi na brak historii kredytowej albo wcześniejszych spłat w terminie, może skorzystać z usług fintechów, które potrafią dużo precyzyjniej określić ryzyko – wskazała.
– Dzięki skomplikowanym modelom machine learningu, które mogą precyzyjnie ocenić ryzyko i przyszłość firmy, okazało się, że przedsiębiorcy, którzy nie dostawali środków na inwestycje, nagle mogli je pozyskać. Kolejny aspekt dotyczy reakcji banków na działania bigtechów i fintechów odgrywających dużą rolę w digitalizacji sektora. Banki obudziły się i zauważyły, że już nie są same, a ich konkurenci robią się coraz poważniejsi – wiele z nich już aplikowało o licencje bankowe. Fintechy, początkowo małe, stały się międzynarodowymi instytucjami, a banki zdały sobie sprawę, że mogą przegrać w tej bitwie, co sprawiło, że same mocno zainwestowały w cyfryzację – dodała dr hab. Aneta Hryckiewicz.
Ekspertka zaznaczyła także, że obecnie nie ma jednoznacznych badań, które pokazywałyby przełożenie fintechowych systemów na spłacalność kredytów przez klientów. Można uogólnić jednak, na przykładach analiz z Francji czy USA, że po kredyty fintechowe najczęściej sięgają ci, którzy mają trudności z uzyskaniem finansowania bankowego, a co za tym idzie, przy niższej zdolności kredytowej ryzyko bankructwa wzrasta. A więc wniosek nie jest taki, że gorsza spłacalność wynika ze złego działania algorytmu, a po prostu z innego typu klienta.
W świecie, w którym coraz większe pole zagrabia sztuczna inteligencja i postępuje digitalizacja, pojawiają się pytania o przyszłość pracowników w konkretnych sektorach. Dr hab. Aneta Hryckiewicz podkreśliła, że wciąż niezbędne jest kontrolowanie działania algorytmów, bo chociaż zbliżają się do perfekcji, wciąż jej nie osiągnęły. – Moim studentom pokazywałam przykład algorytmu Google’a szkolonego w rozpoznawaniu pieska chihuahua. Na podstawie kilkuset zdjęć algorytm rozpoznawał cechy charakterystyczne zwierzęcia. Aby sprawdzić, jak sobie radzi, pokazano mu również zdjęcie babeczki z jagodami, które program zaklasyfikował jako oczy pieska. Innym przykładem było zdjęcie owiec posadzonych na drzewie, które robot wziął za żyrafę – wskazała ekspertka.
Dr hab. Aneta Hryckiewicz zwróciła także uwagę, że są już udowodnione przez naukę błędy algorytmów, które są określane jako tzw. bias, a ich przykładem mogą być różne przejawy dyskryminacji w algorytmach. Dotyczy to dyskryminacji ze względu na płeć, edukację czy położenie geograficzne, a to wszystko w oparciu np. o dane historyczne dostarczane modelowi. – Myślę, że wraz z analizą, a także lepszym poznaniem elementów i sposobów działania algorytmów będziemy w stanie wykrywać błędy. Na razie możemy porównywać działanie robotów w skali makro – prognozowała.
– Trzeba pamiętać, że ten rynek dopiero się rozwija – na początku używał tylko twardych danych o naszej sytuacji życiowej, zarobkach, zatrudnieniu czy lokalizacji. Później okazało się, że można zbierać kolejne informacje. Teraz mówi się, że będzie ich jeszcze więcej, czyli algorytmy będą się uczyły. Dlatego z lepszym poznaniem „wnętrz” algorytmów i działaniami korygującymi, algorytmy będą coraz precyzyjniejsze – podsumowała dr hab. Aneta Hryckiewicz.
Wszystkie wypowiedzi ekspertów pochodzą z wywiadów opublikowanych na stronie datasciencerobie.pl.
Nauka to polska specjalność
Wielkie postacie polskiej nauki
Przeczytaj inne artykuły poświęcone polskiej nauce
Projekt współfinansowany ze środków Ministerstwa Edukacji i Nauki w ramach programu „Społeczna Odpowiedzialność Nauki”