Safe Superintelligence (SSI), nowo założona firma współtworzona przez byłego głównego naukowca OpenAI, Ilyę Sutskevera, pozyskała miliard dolarów na rozwój bezpiecznych systemów sztucznej inteligencji, które będą znacząco przewyższać ludzkie możliwości.
SSI, która ma obecnie zaledwie 10 pracowników, planuje przeznaczyć te środki na zakup mocy obliczeniowej oraz rekrutację najlepszych talentów w branży. Firma skupi się na budowie małego, wysoce zaufanego zespołu badaczy i inżynierów, który będzie podzielony między Palo Alto w Kalifornii, a Tel Awiw w Izraelu.
Firma odmówiła podania swojej wyceny, ale źródła bliskie sprawie twierdzą, że wynosi ona około 5 miliardów dolarów. Ta runda finansowania pokazuje, że niektórzy inwestorzy są nadal gotowi stawiać ogromne sumy na wyjątkowy talent, skoncentrowany na fundamentalnych badaniach nad sztuczną inteligencją. Mimo że zainteresowanie inwestowaniem w takie firmy spada, zwłaszcza że mogą przez długi czas nie generować zysków, to SSI przyciąga uwagę, podczas gdy inne startupy walczą o przetrwanie, a ich założyciele czasem uciekają do gigantów technologicznych.
Wśród inwestorów znaleźli się czołowi gracze rynku venture capital: Andreessen Horowitz, Sequoia Capital, DST Global oraz SV Angel. Wsparcia udzieliła również firma inwestycyjna NFDG, prowadzona przez Nata Friedmana oraz CEO SSI, Daniela Grossa. „Ważne jest dla nas, abyśmy byli otoczeni przez inwestorów, którzy rozumieją, szanują i wspierają naszą misję, jaką jest bezpośrednie dążenie do stworzenia bezpiecznej superinteligencji. Chcemy poświęcić kilka lat na badania i rozwój naszego produktu, zanim trafi on na rynek” – powiedział Gross w wywiadzie.
SSI skupia się obecnie na zatrudnianiu ludzi, którzy pasują do jej kultury. Gross powiedział, że spędzają wiele godzin na sprawdzaniu, czy kandydaci mają „dobry charakter” i szukają ludzi o nadzwyczajnych umiejętnościach, a niekoniecznie z imponującym CV czy doświadczeniem. „Ekscytują nas osoby, które są zainteresowane pracą, a nie szumem medialnym wokół AI” – dodał.
Bezpieczeństwo AI, które odnosi się do zapobiegania szkodliwym działaniom AI, stało się gorącym tematem z obawy, że zbuntowana sztuczna inteligencja mogłaby działać przeciwko interesom ludzkości, a nawet doprowadzić do jej wyginięcia. W Kalifornii trwa obecnie debata nad ustawą, która miałaby narzucić przepisy dotyczące bezpieczeństwa AI. Branża jest podzielona: sprzeciwiają się jej firmy takie jak OpenAI i Google, a popierają ją Anthropic oraz xAI Elona Muska.
Sutskever, 37-latek, to jeden z najbardziej wpływowych technologów w dziedzinie sztucznej inteligencji. SSI założył w czerwcu tego roku razem z Grossem, który wcześniej kierował inicjatywami AI w Apple, oraz Danielem Levym, byłym badaczem OpenAI. Sutskever pełni funkcję głównego naukowca, a Levy – głównego badacza, podczas gdy Gross odpowiada za moc obliczeniową i zbieranie funduszy.