Stability AI aktualizuje swoje modele
Big Data Technologia

Stability AI aktualizuje swoje modele

Stability AI właśnie wzbogaciło świat modeli językowych o najnowsze dodatki do serii Stable LM 2: podstawowy model z 12 miliardami parametrów oraz wariant dostosowany do instrukcji. Te modele były trenowane na imponującej liczbie dwóch bilionów tokenów w siedmiu językach: angielskim, hiszpańskim, niemieckim, włoskim, francuskim, portugalskim i holenderskim.

Model z 12 miliardami parametrów stara się znaleźć złoty środek między mocną wydajnością, efektywnością, wymaganiami pamięciowymi i szybkością. Jest to kontynuacja ustalonego frameworku z wcześniej wydanego przez Stability AI raportu technicznego Stable LM 2 1.6B. To nowe wydanie rozszerza zakres modeli firmy, oferując programistom przejrzyste i potężne narzędzie do innowacji w technologii językowej AI.

Obok modelu 12B, Stability AI wypuściło także nową wersję swojego modelu Stable LM 2 1.6B. Ta zaktualizowana wersja 1.6B poprawia zdolności konwersacyjne w tych samych siedmiu językach, zachowując przy tym niezwykle niskie wymagania systemowe.

Model Stable LM 2 12B jest zaprojektowany jako efektywny otwarty model, dostosowany do wielojęzycznych zadań, z płynną wydajnością na powszechnie dostępnym sprzęcie.

Według Stability AI, ten model radzi sobie z zadaniami, które zwykle są wykonalne tylko dla znacznie większych modeli, które często wymagają znacznych zasobów obliczeniowych i pamięciowych, takich jak duże Mixture-of-Experts (MoEs). Wersja dostosowana do instrukcji jest szczególnie dobrze przystosowana do różnych zastosowań, w tym jako centralna część systemów RAG opartych na odzyskiwaniu danych, dzięki swojej wysokiej wydajności w użytkowaniu narzędzi i wywoływaniu funkcji.

Źródło