O tym dlaczego sztuczna inteligencja kłamie i jakie nieoczywiste zagrożenia wiążą się z ekstremalnie szybkim rozwojem AI Darek Dziduch rozmawia z dr. hab. Michałem Bernardellim, wykładowcą i ekspertem od analizy danych oraz sztucznej inteligencji.
Dariusz Dziduch: Dlaczego sztuczna inteligencja, a konkretnie chatboty, z ChatGPT na czele, tak często podają nieprawdziwe informacje, gdy zadajemy im pytania dotyczące bardziej specjalistycznych zagadnień?
Dr hab. Michał BernardelliI w przypadku modeli językowych, jeśli poprosimy je np. o zmianę stylu tekstu, albo jego „wygładzenie”, to najprawdopodobniej poradzą sobie bardzo dobrze. Natomiast, jeśli poprosimy ChatGPT o zrobienie jakiegoś researchu, np. podanie najpopularniejszych modeli smartfonów, najlepszych telewizorów, itp., to tak naprawdę korzystamy z chatbota jak z trochę bardziej zaawansowanej wyszukiwarki Google (NASDAQ:GOOGL). I w sumie nie ma w tym nic złego, bo uzyskamy podobne wyniki, ale szybciej niż gdybyśmy robili to sami.
Ale jeśli już poprosimy ChatGPT o napisanie jakiegoś tekstu, to nie mamy pojęcia czy on to napisał sam czy może ciągnął z jakiejś strony, albo skleił z wielu czyichś tekstów. Więc nawet gdybyśmy chcieli powołać się na to, że ten tekst napisał ChatGPT, to wcale nie musi być prawda, bo on mógł wykorzystać istniejące teksty.
Dlatego też w tych bardzo specjalistycznych zagadnieniach, dla których nie ma już zbyt dużo źródeł danych, chatbot już nie jest dobry. W metodach ilościowych ChatGPT wbrew pozorom popełnia fundamentalne błędy.
Modele językowe radzą sobie bardzo dobrze w dziedzinach, w których wiedza jest już sklasyfikowana. Np. taki egzamin na aplikację prawniczą wymaga opanowania ogromnej ilości materiału. No i właśnie dlatego jest go tak trudno zdać. Ale gdyby dać im np. cztery lata więcej, to opanowaliby ten materiał lepiej i zdali ten egzamin. ChatGPT właśnie to robi, z tym że on nie potrzebuje się niczego uczyć, bo ma gotowy dostęp do tych danych. Gdyby jednak miał rozwiązać jakieś problemy - to już zupełnie inna sytuacja. W przypadku niestandardowych zagadnień modele językowe radzą sobie dużo gorzej.
TO CIĘ ZAINTERESUJE: Gospodarka Chin straciła impet. Prof Bogdan Góralczyk dla FXMAG
Jakie są zagrożenia związane ze sztuczną inteligencją?
Chcielibyśmy, żeby każde kolejne pokolenie było w jakiś sposób lepsze niż my. Ale musimy wziąć pod uwagę, że sztuczna inteligencja rozleniwia. Jakakolwiek automatyzacja powoduje, że kolejne pokolenia nie będą musiały fizycznie czegoś robić i o tym myśleć, a więc nie będą potrafiły tego zrobić. Brak pracy fizycznej i jakiejkolwiek pracy nad sobą - bo przecież nie trzeba - sprawi, że przestaniemy jako ludzkość się rozwijać. Zarówno jako my, będący jednostką, jak i jako całe społeczeństwo.
Nieustanne profilowanie, które jest cały czas stosowane przez największych potentatów technologicznych, może spowodować że znajdziemy się w takich bańkach informacyjnych, choć tak naprawdę już w nich jesteśmy. Informacje, które będą nam dostarczane będą tylko tymi, które chcemy usłyszeć i które wpisują się w naszą wizję świata.
Nawet gdybyśmy chcieli podjąć próbę wyjścia poza naszą bańkę, to algorytm i tak nam nie poda takich informacji.
Nam ten wybór informacji już niedługo może zostać odebrany i całe pokolenia mogą żyć w swoich bańkach filtracyjnych, mając zupełnie inną wizję świata i traktować innych jak wrogów.
CZYTAJ RÓWNIEŻ: Spadek kursu to okazja! Na tych akcjach zarobisz więcej niż na bitcoinie, zdaniem analityków
Rozmowa została zarejestrowana podczas konferencji XTB (WA:XTB) Investing Masterclass 2023. Aby uzyskać darmowy dostęp do nagrań wykładów i debat z konferencji, kliknij w link poniżej.
KLIKNIJ
Dr hab. Michał Bernardelli - Pracownik Instytutu Ekonometrii Kolegium Analiz Ekonomicznych SGH. Prodziekan Studiów Podyplomowych (2020-2024), od 2015 r. kierownik Centrum Wychowania Fizycznego i Sportu. Ukończył Wydział Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego w 2003 r., uzyskując dwa tytuły magisterskie: matematyka i informatyka. Na tym samym wydziale w 2008 roku uzyskał stopień doktora nauk matematycznych w specjalności matematyka stosowana. W 2020 roku uzyskał habilitację w zakresie nauk ekonomicznych. Od ponad 20 lat konsultant i wykonawca wielu projektów naukowych i komercyjnych. Interdyscyplinarność jego prac naukowych opiera się głównie na wykorzystaniu aparatury informatycznej i matematycznej do rozwiązywania problemów z obszarów związanych z analizą i eksploracją danych, w szczególności w problematyce Big Data, metod predykcyjnych i optymalizacji. Ostatnie badania oscylowały m.in. wokół takiej tematyki jak: symulacje zmian systemów podatkowych, ocena działalności sektora bankowego, analiza i prognozowanie szeregów czasowych, modelowanie foresightowe, optymalizacja wielokryterialna czy analiza cykli koniunkturalnych. Prowadził wiele szkoleń poświęconych różnym aspektom ilościowej analizy danych oraz obsługi komputera i programów komputerowych, w tym zastosowaniem metod obliczeniowych w naukach ekonomicznych, matematyce finansowej, zarządzaniu, a przede wszystkim praktyce biznesowej.