O tym dlaczego sztuczna inteligencja kłamie i jakie nieoczywiste zagrożenia wiążą się z ekstremalnie szybkim rozwojem AI Darek Dziduch rozmawia z dr. hab. Michałem Bernardellim, wykładowcą i ekspertem od analizy danych oraz sztucznej inteligencji.
Dariusz Dziduch: Dlaczego sztuczna inteligencja, a konkretnie chatboty, z ChatGPT na czele, tak często podają nieprawdziwe informacje, gdy zadajemy im pytania dotyczące bardziej specjalistycznych zagadnień?
Dr hab. Michał Bernardelli: Aktualnie w Szkole Głównej Handlowej mamy komisję, która regularnie się zbiera po tym, by ustalić co jest dozwolone, a co nie, jeśli chodzi o sztuczną inteligencję. I np. jeśli chodzi o ChatGPT, to mamy wypracowany taki konsensus w kwestii tego, że on powinien być traktowany jak taki „szalony wujek”. Taki, który zawsze odpowiada, o cokolwiek byśmy go nie zapytali. Myślę, że każdy ma w rodzinie takich wujków, którzy są ekspertami dosłownie na każdy temat. I tak jest z ChatGPT - on zawsze udzieli nam odpowiedzi, ale ona może nie być poprawna. Oczywiście, są takie obszary, w których ten „wujek” rzeczywiście ma wiedzę i udzieli nam poprawnej odpowiedzi.I w przypadku modeli językowych, jeśli poprosimy je np. o zmianę stylu tekstu, albo jego „wygładzenie”, to najprawdopodobniej poradzą sobie bardzo dobrze. Natomiast, jeśli poprosimy ChatGPT o zrobienie jakiegoś researchu, np. podanie najpopularniejszych modeli smartfonów, najlepszych telewizorów, itp., to tak naprawdę korzystamy z chatbota jak z trochę bardziej zaawansowanej wyszukiwarki Google (NASDAQ:GOOGL). I w sumie nie ma w tym nic złego, bo uzyskamy podobne wyniki, ale szybciej niż gdybyśmy robili to sami.
Ale jeśli już poprosimy ChatGPT o napisanie jakiegoś tekstu, to nie mamy pojęcia czy on to napisał sam czy może ciągnął z jakiejś strony, albo skleił z wielu czyichś tekstów. Więc nawet gdybyśmy chcieli powołać się na to, że ten tekst napisał ChatGPT, to wcale nie musi być prawda, bo on mógł wykorzystać istniejące teksty.
Dlatego też w tych bardzo specjalistycznych zagadnieniach, dla których nie ma już zbyt dużo źródeł danych, chatbot już nie jest dobry. W metodach ilościowych ChatGPT wbrew pozorom popełnia fundamentalne błędy.
Modele językowe radzą sobie bardzo dobrze w dziedzinach, w których wiedza jest już sklasyfikowana. Np. taki egzamin na aplikację prawniczą wymaga opanowania ogromnej ilości materiału. No i właśnie dlatego jest go tak trudno zdać. Ale gdyby dać im np. cztery lata więcej, to opanowaliby ten materiał lepiej i zdali ten egzamin. ChatGPT właśnie to robi, z tym że on nie potrzebuje się niczego uczyć, bo ma gotowy dostęp do tych danych. Gdyby jednak miał rozwiązać jakieś problemy - to już zupełnie inna sytuacja. W przypadku niestandardowych zagadnień modele językowe radzą sobie dużo gorzej.
TO CIĘ ZAINTERESUJE: Gospodarka Chin straciła impet. Prof Bogdan Góralczyk dla FXMAG
Jakie są zagrożenia związane ze sztuczną inteligencją?
Takie apokaliptyczne wizje związane ze sztuczną inteligencją towarzyszą nam oczywiście od dawna. Nie będę wchodził tutaj w wizje przejmowania kontroli nad światem przez AI, dlatego skupię się tylko na realnych zagrożeniach. Sztuczna inteligencja jest zagrożeniem dla cywilizacji, dla ludzkości jako takiej.Chcielibyśmy, żeby każde kolejne pokolenie było w jakiś sposób lepsze niż my. Ale musimy wziąć pod uwagę, że sztuczna inteligencja rozleniwia. Jakakolwiek automatyzacja powoduje, że kolejne pokolenia nie będą musiały fizycznie czegoś robić i o tym myśleć, a więc nie będą potrafiły tego zrobić. Brak pracy fizycznej i jakiejkolwiek pracy nad sobą - bo przecież nie trzeba - sprawi, że przestaniemy jako ludzkość się rozwijać. Zarówno jako my, będący jednostką, jak i jako całe społeczeństwo.
Nieustanne profilowanie, które jest cały czas stosowane przez największych potentatów technologicznych, może spowodować że znajdziemy się w takich bańkach informacyjnych, choć tak naprawdę już w nich jesteśmy. Informacje, które będą nam dostarczane będą tylko tymi, które chcemy usłyszeć i które wpisują się w naszą wizję świata.
Nawet gdybyśmy chcieli podjąć próbę wyjścia poza naszą bańkę, to algorytm i tak nam nie poda takich informacji.
Nam ten wybór informacji już niedługo może zostać odebrany i całe pokolenia mogą żyć w swoich bańkach filtracyjnych, mając zupełnie inną wizję świata i traktować innych jak wrogów.
CZYTAJ RÓWNIEŻ: Spadek kursu to okazja! Na tych akcjach zarobisz więcej niż na bitcoinie, zdaniem analityków
Rozmowa została zarejestrowana podczas konferencji XTB (WA:XTB) Investing Masterclass 2023. Aby uzyskać darmowy dostęp do nagrań wykładów i debat z konferencji, kliknij w link poniżej.
KLIKNIJ
Dr hab. Michał Bernardelli - Pracownik Instytutu Ekonometrii Kolegium Analiz Ekonomicznych SGH. Prodziekan Studiów Podyplomowych (2020-2024), od 2015 r. kierownik Centrum Wychowania Fizycznego i Sportu. Ukończył Wydział Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego w 2003 r., uzyskując dwa tytuły magisterskie: matematyka i informatyka. Na tym samym wydziale w 2008 roku uzyskał stopień doktora nauk matematycznych w specjalności matematyka stosowana. W 2020 roku uzyskał habilitację w zakresie nauk ekonomicznych. Od ponad 20 lat konsultant i wykonawca wielu projektów naukowych i komercyjnych. Interdyscyplinarność jego prac naukowych opiera się głównie na wykorzystaniu aparatury informatycznej i matematycznej do rozwiązywania problemów z obszarów związanych z analizą i eksploracją danych, w szczególności w problematyce Big Data, metod predykcyjnych i optymalizacji. Ostatnie badania oscylowały m.in. wokół takiej tematyki jak: symulacje zmian systemów podatkowych, ocena działalności sektora bankowego, analiza i prognozowanie szeregów czasowych, modelowanie foresightowe, optymalizacja wielokryterialna czy analiza cykli koniunkturalnych. Prowadził wiele szkoleń poświęconych różnym aspektom ilościowej analizy danych oraz obsługi komputera i programów komputerowych, w tym zastosowaniem metod obliczeniowych w naukach ekonomicznych, matematyce finansowej, zarządzaniu, a przede wszystkim praktyce biznesowej.