OpenAI i Anthropic, dwa znane startupy zajmujące się sztuczną inteligencją, zawarły umowy z rządem Stanów Zjednoczonych w celu dalszych badań, testowania i oceny ich modeli sztucznej inteligencji. Amerykański Instytut Bezpieczeństwa Sztucznej Inteligencji ogłosił dziś nawiązanie współpracy, co stanowi znaczący krok w nadzorze nad technologiami sztucznej inteligencji.
Umowy te są szczególnie godne uwagi, ponieważ pojawiają się w obliczu zwiększonej uwagi regulacyjnej na etyczne i bezpieczne wdrażanie sztucznej inteligencji. Kalifornia jest u progu głosowania nad kompleksowymi przepisami, które regulowałyby rozwój i wykorzystanie sztucznej inteligencji w tym stanie.
Warunki umów przyznają Amerykańskiemu Instytutowi Bezpieczeństwa Sztucznej Inteligencji przed i po publicznym udostępnieniu dostęp do głównych nowych modeli sztucznej inteligencji obu firm. Współpraca ta ma na celu ocenę możliwości i potencjalnych zagrożeń związanych z tymi modelami sztucznej inteligencji.
Jason Kwon, dyrektor ds. strategii w OpenAI, znany z tworzenia ChatGPT, wyraził znaczenie roli instytutu w ustanowieniu amerykańskiego przywództwa w rozwoju sztucznej inteligencji. Kwon podkreślił potencjał tej współpracy jako podstawy globalnych standardów w dziedzinie sztucznej inteligencji.
Anthropic, wspierany przez gigantów technologicznych Amazon (NASDAQ:AMZN) i Alphabet (NASDAQ:GOOGL), nie wydał jeszcze oświadczenia w sprawie transakcji.
Elizabeth Kelly, dyrektor U.S. AI Safety Institute, podkreśliła umowy jako kluczowy punkt wyjścia do kierowania odpowiedzialnym rozwojem technologii AI.
Amerykański Instytut Bezpieczeństwa Sztucznej Inteligencji, który jest powiązany z Narodowym Instytutem Standardów i Technologii (NIST) Departamentu Handlu, będzie również współpracował z brytyjskim Instytutem Bezpieczeństwa Sztucznej Inteligencji. Ich wspólne wysiłki obejmą dostarczanie firmom informacji zwrotnych na temat potencjalnych ulepszeń bezpieczeństwa ich modeli sztucznej inteligencji.
Inicjatywa amerykańskiego Instytutu Bezpieczeństwa Sztucznej Inteligencji jest zgodna z rozporządzeniem wykonawczym wydanym w zeszłym roku przez prezydenta Joe Bidena. Zarządzenie ma na celu zajęcie się znanymi i pojawiającymi się zagrożeniami związanymi ze sztuczną inteligencją, wzmacniając zaangażowanie administracji w bezpieczne innowacje w zakresie sztucznej inteligencji.
Reuters przyczynił się do powstania tego artykułu.Artykuł został przetłumaczony przy pomocy sztucznej inteligencji. Zapoznaj się z Warunkami Użytkowania, aby uzyskać więcej informacji.