Warszawa, 03.12.2024 (ISBnews) - Ze względu na rosnące potrzeby zapewnienia bezpieczeństwa i przejrzystości w rozwoju AI w NASK powstał Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji, podało Ministerstwo Cyfryzacji.
Zmiana jest podyktowana potrzebą skupienia się konkretnych zagadnieniach związanych z rozwojem AI.
"Główne zadania, jakie stoją przed nami, to rozwój i wprowadzanie nowych technologii sztucznej inteligencji. Ze szczególną uwagą będziemy skupiać się na uwzględnieniu metod bezpiecznych, transparentnych i łatwych do wyjaśnienia w kluczowych obszarach, takich jak administracja publiczna, bezpieczeństwo sieci oraz ochrona cyberprzestrzeni" - powiedział dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK Szymon Łukasik, cytowany w komunikacie.
"Ośrodek ma również za zadanie edukować i wspierać społeczeństwo w świadomym korzystaniu z nowoczesnych technologii AI" - podkreślił.
Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji ma w realizacji projektów badawczych współpracować z innymi instytucjami naukowymi i badawczo-rozwojowymi, takimi jak np. Akademia Górniczo-Hutnicza w Krakowie, Politechnika Warszawska czy Instytut IDEAS.
NASK-PIB odgrywa kluczową rolę w kształtowaniu polityk związanych z bezpieczeństwem cyfrowym i rozwojem społeczeństwa informacyjnego. Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji stanowi integralną część tych działań, odpowiadając na współczesne wyzwania związane z rosnącą obecnością technologii AI w życiu codziennym.
NASK podejmuje szereg inicjatyw, które zapewniają bezpieczeństwo i ochronę internetu i jego użytkowników przed różnymi cyberzagrożeniami. Prowadzi projekty dotyczące bezpieczeństwa AI. Instytut bierze udział w rozwijaniu - w ramach konsorcjum skupiającego kilka uczelni i instytutów badawczych - Polskiego Dużego Modelu Językowego (PLLuM), odpowiadając głównie za aspekty bezpieczeństwa tworzonych modeli.
Czerpiąc z własnego know-how w zakresie wykrywania szkodliwych treści, NASK prowadzi także prace nad analizą i detekcją materiałów syntetycznych generowanych z użyciem technik sztucznej inteligencji (tzw. deep fake). Analitycy Instytutu skupiają się w tym obszarze na perspektywie wielomodalnej (tj. równoczesnej analizie dźwięku, wideo i tekstu).
(ISBnews)