Mark Zuckerberg nie rzuca słów na wiatr. Po latach inwestowania w metaverse, teraz jego nowym konikiem stała się sztuczna inteligencja — i to nie byle jaka, a ta z przydomkiem „super”. Meta ogłosiła właśnie strategiczne partnerstwo i inwestycję o wartości 14,3 miliarda dolarów w Scale AI — firmę, która dotąd pomagała trenować modele OpenAI, Google czy Microsoftowi.
Co ciekawe, CEO Scale — Alexandr Wang — przechodzi do Mety, by wspólnie z zespołem budować to, co coraz częściej określa się jako superinteligencję (lub po akademicku: AGI, czyli Artificial General Intelligence). Sam Wang nie zrywa jednak więzi ze Scale — zostaje w zarządzie, a firmą tymczasowo pokieruje Jason Droege, były szef strategii, związany wcześniej m.in. z Uber Eats.
Skok na 49%
Meta wykupiła 49% udziałów w Scale, ale sama firma pozostanie formalnie niezależna. W praktyce jednak współpraca ma być znacznie głębsza niż dotychczas — zyska i jedna, i druga strona. Scale szacuje swoją wartość rynkową po transakcji na ponad 29 miliardów dolarów. Takie liczby robią wrażenie, szczególnie jeśli przypomnieć, że firma powstała w 2016 roku, a jej twórca miał wtedy… 19 lat i studiował na MIT.
Wang zresztą poszedł śladami Zuckerberga — rzucił uczelnię, dostał się do akceleratora Y Combinator (prowadzonego wtedy przez… Sama Altmana, obecnego szefa OpenAI), i zaczął tworzyć narzędzia do oznaczania danych, które później napędzały m.in. autonomiczne auta.
Fabryka danych dla SI
Scale nie tworzy modeli językowych. Ono je… karmi. Firma dostarcza ludzi (i systemy), którzy „opakowują” dane tak, by AI mogła się na nich uczyć. Trochę jak Amazon Mechanical Turk, ale z większym naciskiem na jakość, kontekst i skalę.
W czasach, gdy każdy gigant ma swój LLM — ChatGPT, Gemini, Llama — potrzeba takich firm jak Scale, by dane do treningu były jak najlepsze. Firma twierdzi, że współpracuje dziś z każdym liczącym się twórcą modeli: OpenAI, Microsoftem, Anthropic, a teraz też (a może przede wszystkim) z Metą.
Czy oznacza to rozbrat z dotychczasowymi klientami? Na razie nie wiadomo.
Meta i „nadinteligencja”
Zuckerberg od dłuższego czasu mówi o superinteligencji. I choć brzmi to jak tytuł filmu science fiction, to chodzi o coś bardziej realnego — modele AI, które dorównują (lub przewyższają) człowieka w zakresie planowania, rozumowania czy przewidywania. Przynajmniej w teorii.
Meta chce zatem budować nie tylko nowe modele (jak Llama 4 Behemoth, którego nadal nie wypuściła mimo szumnych zapowiedzi z kwietnia), ale i całą infrastrukturę wokół nich. Co ciekawe, podczas gdy konkurencja trzyma swoje modele na krótkiej smyczy, Meta idzie w otwartość — udostępnia swoje LLM-y jako open weight, co pozwala na ich modyfikację i adaptację.
Nie wszyscy jednak podzielają entuzjazm wobec obecnych modeli językowych. Yann LeCun, główny naukowiec ds. AI w Mecie i laureat prestiżowej nagrody Turinga, od miesięcy krytykuje LLM-y za ich powierzchowność. „Nie mają trwałej pamięci, nie rozumieją fizycznego świata, nie potrafią planować” — mówił podczas jednej z konferencji.
Meta ma jednak nowy plan — jak twierdzi LeCun, bardziej konkretny niż kiedykolwiek. A pomagać w jego realizacji będzie Rob Fergus, współzałożyciel działu AI w Mecie, który po kilkuletnim epizodzie w Google wrócił do firmy, by objąć stery w laboratorium badawczym.