Big Data LLM Wybór redakcji

FoxBrain – Foxconn wchodzi do gry o AI

Foxconn, gigant technologiczny znany głównie z produkcji sprzętu elektronicznego, zrobił odważny krok w stronę sztucznej inteligencji. Należący do firmy Hon Hai Research Institute ogłosił stworzenie FoxBrain – pierwszego dużego modelu językowego (LLM) dla tradycyjnego chińskiego. Model powstał w rekordowym tempie, korzystając z technologii Nvidii i Meta, i w przyszłości ma trafić do otwartego dostępu.

Co więcej, FoxBrain nie jest tylko eksperymentem badawczym – to model, który ma realne zastosowanie w przemyśle, zarządzaniu łańcuchem dostaw i podejmowaniu decyzji biznesowych.

Błyskawiczny rozwój za ułamek kosztów

Foxconn podkreśla, że FoxBrain powstał w cztery tygodnie – to imponująco krótki czas, jeśli weźmiemy pod uwagę złożoność dużych modeli językowych. Tajemnicą sukcesu była optymalizacja procesu treningowego, która pozwoliła zaoszczędzić czas i koszty.

Model początkowo opracowano na potrzeby wewnętrzne Foxconna – miał pomagać w analizie danych, podejmowaniu decyzji, współpracy nad dokumentami, matematyce, kodowaniu i rozwiązywaniu problemów. Teraz firma ma większe ambicje i planuje podzielić się nim z całym światem.

„Dzięki precyzyjnie zaplanowanym metodom szkoleniowym i optymalizacji zasobów, udało nam się stworzyć lokalny model AI o wyjątkowych zdolnościach rozumowania” – mówi dr Yung-Hui Li, dyrektor AI Research Center w Hon Hai Research Institute.

Moc obliczeniowa od Nvidii i technologia Meta

FoxBrain to nie byle jaki model – jego potęga wynika ze sprzętu, na którym został przeszkolony. 120 procesorów graficznych Nvidia H100, połączonych siecią Quantum-2 InfiniBand, zapewniło potężną moc obliczeniową.

Model korzysta z architektury Llama 3.1 od Meta i zawiera aż 70 miliardów parametrów – to liczba wartości, które model dostraja w trakcie nauki. Według Foxconna, FoxBrain przewyższa Llama-3-Taiwan-70B, czyli inny model AI zoptymalizowany dla tradycyjnego chińskiego.

W testach wykazał również lepsze zdolności matematycznego rozumowania niż podstawowa wersja Meta Llama 3.1, a także pokonał model Taiwan Llama, który wcześniej był uznawany za najlepszy w tej kategorii językowej.

FoxBrain – przyszłość otwartej AI?

Foxconn nie zamierza trzymać FoxBrain wyłącznie dla siebie. Choć model był pierwotnie opracowany na potrzeby wewnętrzne, firma chce teraz nawiązać współpracę z partnerami z branży i wdrożyć go szerzej w przemyśle.

FoxBrain zostanie oficjalnie zaprezentowany na konferencji Nvidia GTC 2025, która odbędzie się 20 marca. Podczas sesji „From Open Source to Frontier AI: Build, Customise and Extend Foundation Models” Foxconn pokaże, jak budować i dostosowywać modele AI na potrzeby biznesu.

„W ostatnich miesiącach pogłębianie zdolności rozumowania oraz efektywne wykorzystanie GPU stały się głównymi trendami w rozwoju AI. Nasz model FoxBrain opiera się na bardzo wydajnej strategii szkoleniowej, koncentrując się na optymalizacji procesu nauki, zamiast bezrefleksyjnie zwiększać moc obliczeniową” – mówi dr Yung-Hui Li.

FoxBrain może być ważnym krokiem dla Tajwanu w budowie lokalnych, niezależnych technologii AI, zwłaszcza w obliczu globalnej rywalizacji o sztuczną inteligencję. Czas pokaże, czy rzeczywiście stanie się liderem wśród modeli językowych dla tradycyjnego chińskiego.

Źródło

Wyjście z wersji mobilnej