26 kwietnia w Parlamencie Europejskim ma się odbyć głosowanie nad rozporządzeniem AI Act. To spotkanie w sprawie regulacji, jakie obowiązywać mają dostawców systemów, wykorzystujących sztuczną inteligencję. Na ten moment rozporządzenie obejmuje m.in. zakaz użycia SI w niektórych obszarach, oraz wytyczne odnośnie przejrzystości systemów w sektorach ograniczonego ryzyka.
Regulacje dotyczące SI
Po głośnym debiucie ChatGPT autorstwa firmy OpenAi, o potencjalnym wpływie SI na społeczeństwo zaczęto mówić często i głośno. Sztuczna inteligencja rozwija się ekspresowo, a dodatkowe obawy wzbudza fakt, że nawet ci naukowcy, którzy pracowali nad jej rozwojem, nie rozumieją obecnie, jak działają niektóre systemy. Ponieważ SI uczy się bardzo szybko, ta przepaść będzie najprawdopodobniej powiększać się coraz mocniej.
Szybkość i precyzja, z jaką SI odpowiada na skomplikowane pytania, tworzy teksty, czy nawet podprogowe przekazy, zaniepokoiła wielu naukowców i przedsiębiorców. Po serii doniesień, jakoby ChatGPT zdawał za studentów trudne egzaminy, wiele uczelni postanowiło narzucić w tej kwestii pewne regulacje. Pozostały jeszcze kwestie ogólne, takie choćby jak użycie SI w kluczowych systemach społecznych – sądownictwie, medycynie, systemach punktacji społecznej, czy identyfikacji biometrycznej. Właśnie tymi kwestiami ma zająć się AI Act, nad którym głosowanie ma się odbyć 26 kwietnia w Parlamencie Europejskim.
Cały AI Act opiera się na trzech kluczowych postulatach: przejrzystości, wyjaśnialności i rozliczalności, która rozumiana jest jako możliwość przypisania odpowiedzialności za konkretne zdarzenia – komentuje prawniczka dr Gabriela Bar w rozmowie z Business Insider.
W rozporządzeniu mają pojawić się m.in. kwestie zakazu użycia SI właśnie w wyżej wymienionych obszarach. Zajęto się także tak zwaną manipulacją podprogową.
Ekon Musk podpisuje list otwarty
Jeszcze zanim o SI zaczęto dyskutować w Parlamencie Europejskim, sygnatariusze z całego świata podpisali list otwarty, wzywający do zaprzestania prac nad rozwojem sztucznej inteligencji na co najmniej pół roku. Ten czas miałby zostać wykorzystany na wypracowanie regulacji, które chroniłyby konsumentów i de facto wszystkich uczestników życia publicznego i społecznego, przed zmianami i zagrożeniami, jakie niesie niekontrolowane użycie SI.
Wezwanie podpisało sporo naukowców, ale nazwiskiem najbardziej komentowanym był Elon Musk, któremu coraz częściej wytyka się fakt, że sam był jednym z założycieli laboratorium OpenAI, a jego Tesla (NASDAQ:TSLA) używa sztucznej inteligencji po to, by jak najlepiej zautomatyzować pojazdy.
Do wstrzymania prac nad SI wzywają też władze Google (NASDAQ:GOOGL). I choć w przypadku takich gigantów trudno nie podejrzewać, że za próbą ograniczenia badań nad SI kryje się po prostu chęć zatrzymania swojej rynkowej pozycji (OpenAi od jakiegoś czasu dotowane jest na ogromne kwoty przez Microsoft (NASDAQ:MSFT), który chce rozwinąć w ten sposób zapomnianą obecnie przez świat wyszukiwarkę bing), to niewątpliwie coś jest na rzeczy.
Czy powinniśmy pozwolić maszynom zalać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy zautomatyzować wszystkie zawody, w tym te dające satysfakcję? Czy powinniśmy rozwijać nie-ludzkie umysły, które w końcu mogą nas przewyższyć, przechytrzyć, zdezaktualizować i zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?- brzmi fragment listu otwartego, pod którym do tej pory podpisało się już grubo ponad 24 tysiące osób.
Rozwój SI – fake newsy vs możliwości
ChatGPT już teraz używany jest przez wiele firm marketingowych, które potrzebują na szybko stworzyć content na swoją stronę internetową. Oprócz pisania, model językowy potrafi także tworzyć wideo, a inne chatboty świetnie radzą sobie również z żonglowaniem znalezionymi w sieci zdjęciami. O ile jednak sam copywriting tworzony przez maszynę nie powinien budzić takiego lęku (nie licząc pracowników branży marketingowej, na których już teraz padł strach dotyczący etatów), to zdolność SI do produkowania fake newsów zdumiewa i przeraża.
Po wybuchu wojny w Ukrainie jeszcze więcej miejsca w debacie publicznej poświęcono walką z tzw. rosyjskim trollingiem. Jednak fake newsy, stworzone niemal z mistrzowską precyzją, to dużo więcej niż proste historyjki, oparte na uprzedzeniach, które trafiają do sporej grupy użytkowników facebooka. Za pomocą sieci zorganizowanej dezinformacji można wpływać w znaczący sposób na nastroje społeczne. Warto zaznaczyć, że treści ksenofobiczne, czy retoryka antyunijna, która w efekcie doprowadziła do brexitu, wyrosły w dużej mierze na anegdotycznych, emocjonalnych przekazach podchwytywanych i powielanych przez użytkowników mediów społecznościowych. Obecnie, dziennikarstwo fact checkingowe walczy z dezinformacją, jednak teksty dziennikarskie nadal publikowane są w internecie. Rodzi się pytanie: co, jeśli systemy oparte na SI zaczną wyrzucać z wyszukiwarek teksty napisane przez ludzi?
Podsumowanie:
SI spowodowała prawdziwy popłoch wśród sporej części społeczeństwa. Choć sztuczna inteligencja nie pokazała jeszcze pełni swoich możliwości, to wielu naukowców już teraz widzi potencjalne zagrożenia i stara się zapobiec im jak najszybciej. SI to niewątpliwie także możliwości, jednak wydaje się, że w większości środowisk panuje raczej consensus co do chęci wprowadzenia regulacji. Jeśli AI Act zostanie przegłosowany, regulacje zaczną obowiązywać jednak dopiero za… dwa lata. Być może jednak za uniwersytetami pójdą inne instytucje, które nałożą na uczestników swoje własne regulacje w kwestii użytkowania sztucznej inteligencji.