Safe Superintelligence (SSI), nowy startup AI, którego współzałożycielem jest Ilya Sutskever, pozyskał znaczącą rundę finansowania w wysokości 1 miliarda dolarów. Ten zastrzyk finansowy ma na celu opracowanie systemów sztucznej inteligencji, które przewyższają ludzką inteligencję, zapewniając jednocześnie bezpieczeństwo. Sutskever, znacząca postać w dziedzinie sztucznej inteligencji i były główny naukowiec w OpenAI, rozpoczął to przedsięwzięcie wraz z Danielem Grossem, byłym liderem AI w Apple (NASDAQ:AAPL), oraz Danielem Levy, byłym badaczem OpenAI.
SSI jest obecnie małą operacją zatrudniającą 10 pracowników, ale ma ambitne plany rozszerzenia swojego zespołu i możliwości obliczeniowych. Firma będzie działać w Palo Alto w Kalifornii i Tel Awiwie w Izraelu, koncentrując się na zgromadzeniu wysoce zaufanej grupy badaczy i inżynierów.
Chociaż startup nie ujawnił swojej wyceny, źródła wskazują na wycenę na poziomie około 5 miliardów dolarów. Ta runda finansowania wskazuje na zaufanie inwestorów do potencjału badań nad sztuczną inteligencją, pomimo ogólnego spadku zainteresowania takimi przedsięwzięciami, które często wymagają czasu, aby stały się rentowne.
Inwestycja była wspierana przez główne firmy venture capital, w tym Andreessen Horowitz, Sequoia Capital, DST Global i SV Angel. NFDG, partnerstwo inwestycyjne prowadzone przez Nata Friedmana i dyrektora generalnego SSI Daniela Grossa, również przyczyniło się do finansowania.
Daniel Gross podkreślił znaczenie posiadania inwestorów, którzy są zgodni z misją SSI, która polega na skupieniu się na badaniach i rozwoju bezpiecznej superinteligencji przed wprowadzeniem na rynek. Bezpieczeństwo sztucznej inteligencji jest coraz bardziej krytyczną kwestią, z obawami, że sztuczna inteligencja działa wbrew ludzkim interesom, a SSI ma na celu sprostanie tym wyzwaniom.
Branża jest obecnie podzielona w sprawie kalifornijskiej ustawy, która proponuje przepisy bezpieczeństwa dla firm zajmujących się sztuczną inteligencją, przy czym firmy takie jak OpenAI i Google (NASDAQ:GOOGL) sprzeciwiają się jej, podczas gdy inne, takie jak Anthropic i xAI Elona Muska, wspierają ją.
Sutskever, który był wpływowy w przestrzeni AI, postrzega SSI jako nową okazję do obrania innego kierunku w rozwoju AI. Jego odejście z OpenAI nastąpiło po kontrowersyjnej decyzji zarządu o usunięciu dyrektora generalnego Sama Altmana, którą Sutskever początkowo poparł, ale później cofnął, co doprowadziło do zmniejszenia jego roli i ostatecznego odejścia z OpenAI w maju.
SSI ma odróżniać się od unikalnej struktury korporacyjnej OpenAI poprzez przyjęcie tradycyjnego modelu for-profit. Firma kładzie duży nacisk na dopasowanie kulturowe podczas procesu rekrutacji, poszukując osób o dobrym charakterze i wyjątkowych zdolnościach, zamiast skupiać się wyłącznie na referencjach.
Jeśli chodzi o infrastrukturę, SSI planuje współpracować z dostawcami usług w chmurze i firmami produkującymi chipy, choć nie sfinalizowała jeszcze tych partnerstw. Sutskever zamierza przyjąć inne podejście do skalowania sztucznej inteligencji niż w OpenAI, dążąc do osiągnięcia wyjątkowych postępów w tej dziedzinie.
Reuters przyczynił się do powstania tego artykułu.
Artykuł został przetłumaczony przy pomocy sztucznej inteligencji. Zapoznaj się z Warunkami Użytkowania, aby uzyskać więcej informacji.