Foxconn, gigant technologiczny znany głównie z produkcji sprzętu elektronicznego, zrobił odważny krok w stronę sztucznej inteligencji. Należący do firmy Hon Hai Research Institute ogłosił stworzenie FoxBrain – pierwszego dużego modelu językowego (LLM) dla tradycyjnego chińskiego. Model powstał w rekordowym tempie, korzystając z technologii Nvidii i Meta, i w przyszłości ma trafić do otwartego dostępu.
Co więcej, FoxBrain nie jest tylko eksperymentem badawczym – to model, który ma realne zastosowanie w przemyśle, zarządzaniu łańcuchem dostaw i podejmowaniu decyzji biznesowych.
Błyskawiczny rozwój za ułamek kosztów
Foxconn podkreśla, że FoxBrain powstał w cztery tygodnie – to imponująco krótki czas, jeśli weźmiemy pod uwagę złożoność dużych modeli językowych. Tajemnicą sukcesu była optymalizacja procesu treningowego, która pozwoliła zaoszczędzić czas i koszty.
Model początkowo opracowano na potrzeby wewnętrzne Foxconna – miał pomagać w analizie danych, podejmowaniu decyzji, współpracy nad dokumentami, matematyce, kodowaniu i rozwiązywaniu problemów. Teraz firma ma większe ambicje i planuje podzielić się nim z całym światem.
„Dzięki precyzyjnie zaplanowanym metodom szkoleniowym i optymalizacji zasobów, udało nam się stworzyć lokalny model AI o wyjątkowych zdolnościach rozumowania” – mówi dr Yung-Hui Li, dyrektor AI Research Center w Hon Hai Research Institute.
Moc obliczeniowa od Nvidii i technologia Meta
FoxBrain to nie byle jaki model – jego potęga wynika ze sprzętu, na którym został przeszkolony. 120 procesorów graficznych Nvidia H100, połączonych siecią Quantum-2 InfiniBand, zapewniło potężną moc obliczeniową.
Model korzysta z architektury Llama 3.1 od Meta i zawiera aż 70 miliardów parametrów – to liczba wartości, które model dostraja w trakcie nauki. Według Foxconna, FoxBrain przewyższa Llama-3-Taiwan-70B, czyli inny model AI zoptymalizowany dla tradycyjnego chińskiego.
W testach wykazał również lepsze zdolności matematycznego rozumowania niż podstawowa wersja Meta Llama 3.1, a także pokonał model Taiwan Llama, który wcześniej był uznawany za najlepszy w tej kategorii językowej.
FoxBrain – przyszłość otwartej AI?
Foxconn nie zamierza trzymać FoxBrain wyłącznie dla siebie. Choć model był pierwotnie opracowany na potrzeby wewnętrzne, firma chce teraz nawiązać współpracę z partnerami z branży i wdrożyć go szerzej w przemyśle.
FoxBrain zostanie oficjalnie zaprezentowany na konferencji Nvidia GTC 2025, która odbędzie się 20 marca. Podczas sesji „From Open Source to Frontier AI: Build, Customise and Extend Foundation Models” Foxconn pokaże, jak budować i dostosowywać modele AI na potrzeby biznesu.
„W ostatnich miesiącach pogłębianie zdolności rozumowania oraz efektywne wykorzystanie GPU stały się głównymi trendami w rozwoju AI. Nasz model FoxBrain opiera się na bardzo wydajnej strategii szkoleniowej, koncentrując się na optymalizacji procesu nauki, zamiast bezrefleksyjnie zwiększać moc obliczeniową” – mówi dr Yung-Hui Li.
FoxBrain może być ważnym krokiem dla Tajwanu w budowie lokalnych, niezależnych technologii AI, zwłaszcza w obliczu globalnej rywalizacji o sztuczną inteligencję. Czas pokaże, czy rzeczywiście stanie się liderem wśród modeli językowych dla tradycyjnego chińskiego.