Technologia Business Polityka Prawo

Giganci technologiczni zobowiązują się do bezpiecznego rozwoju AI na szczycie w Seulu

W obliczu szybkiego rozwoju sztucznej inteligencji, kluczowi gracze w branży zobowiązują się do bezpiecznego rozwijania tej technologii.

Podczas gdy regulatorzy biegają, próbując nadążyć za błyskawicznym rozwojem sztucznej inteligencji, szesnaście wiodących firm technologicznych zadeklarowało we wtorek, że będą rozwijać tę technologię w sposób bezpieczny. Zobowiązanie to zostało złożone podczas drugiego globalnego szczytu bezpieczeństwa AI w Seulu, który jest kontynuacją pierwszego takiego wydarzenia zorganizowanego w listopadzie ubiegłego roku w Bletchley Park w Wielkiej Brytanii.

Podczas szczytu w Seulu, który zgromadził liderów politycznych z całego świata, doszło do historycznych porozumień. Dziesięć krajów plus Unia Europejska zobowiązało się do współpracy nad międzynarodową siecią instytutów bezpieczeństwa AI, co ma przyspieszyć rozwój nauki o bezpieczeństwie AI. Dodatkowo, 16 globalnych firm technologicznych, w tym giganci z Chin i ZEA, zadeklarowało przestrzeganie nowych zasad bezpieczeństwa, które mają na celu zapobieganie rozwojowi lub wdrażaniu modeli AI, jeśli ryzyko nie może być odpowiednio zminimalizowane.

Wśród firm, które podpisały nowe „Zobowiązania dotyczące bezpieczeństwa AI na froncie”, znajdują się takie giganty jak Amazon, Google/Google DeepMind, IBM, Meta, Microsoft, a także mniejsze, ale równie wpływowe firmy jak Anthropic, Cohere czy OpenAI. Te firmy, jeśli jeszcze tego nie zrobiły, zobowiązały się do publikacji ram bezpieczeństwa, które określą, jak będą mierzyć ryzyko związane z ich zaawansowanymi modelami AI, w tym ryzyko nadużycia technologii przez złe podmioty.

Te ramy określą również, kiedy poważne ryzyko, jeśli nie zostanie odpowiednio złagodzone, będzie uznane za „nie do zaakceptowania” i co firmy zrobią, aby zapewnić, że te progi nie zostaną przekroczone. W skrajnych przypadkach firmy zobowiązały się również do „nie rozwijania ani nie wdrażania modelu lub systemu w ogóle”, jeśli nie można utrzymać ryzyka poniżej ustalonych progów.

Premier Wielkiej Brytanii, Rishi Sunak, stwierdził: „To światowy precedens, że tyle wiodących firm AI z tak wielu różnych części świata zgodziło się na te same zobowiązania dotyczące bezpieczeństwa AI”. „Te zobowiązania zapewniają, że wiodące światowe firmy AI będą transparentne i odpowiedzialne za swoje plany rozwijania bezpiecznej AI”.

Minister z Republiki Korei, Lee, dodał: „Zapewnienie bezpieczeństwa AI jest kluczowe dla utrzymania ostatnich znaczących postępów w technologii AI, w tym AI generatywnej, oraz dla maksymalizacji możliwości i korzyści z AI, ale nie można tego osiągnąć przez wysiłki pojedynczego kraju czy firmy”. „W związku z tym ciepło witamy ‘Zobowiązania dotyczące bezpieczeństwa AI na froncie’, które zostały ustanowione przez globalne firmy AI we współpracy z rządami Republiki Korei i Wielkiej Brytanii podczas ‘Szczytu AI w Seulu’”.

Wszystkie oczy są teraz zwrócone na nadchodzący szczyt AI we Francji w 2025 roku, gdzie te zobowiązania i ramy będą dalej rozwijane i wdrażane. To zdecydowanie nie jest koniec rozmów o bezpieczeństwie AI, ale może być początkiem nowej, bezpieczniejszej ery dla tej przełomowej technologii.

Źródło

Wyjście z wersji mobilnej