New York Times wprowadza AI do redakcji. Jak to wpłynie na dziennikarstwo?
LLM Prasa Wybór redakcji

New York Times wprowadza AI do redakcji. Jak to wpłynie na dziennikarstwo?

New York Times oficjalnie daje zielone światło na wykorzystanie sztucznej inteligencji (AI) w redakcji i zespole produktowym. Nowe narzędzia wewnętrzne będą mogły generować nagłówki SEO, treści do mediów społecznościowych, a nawet niektóre fragmenty kodu.

Według informacji przekazanych przez Semafor, NYT uruchamia szkolenia z AI dla swojego zespołu redakcyjnego i wdraża nowe narzędzie wewnętrzne o nazwie Echo. Dziennikarze otrzymali także zestaw materiałów edukacyjnych, w tym dokumenty i filmy instruktażowe, które określają zasady i ograniczenia dotyczące stosowania sztucznej inteligencji w redakcji.

W wewnętrznych wytycznych NYT podkreślono, że AI ma wspierać pracę dziennikarską, ale nie zastępować ludzi. „Generatywna AI może pomóc naszym dziennikarzom w odkrywaniu prawdy i ułatwieniu ludziom zrozumienia świata” – czytamy w materiałach redakcji. „Już teraz uczenie maszynowe pozwala nam na prowadzenie śledztw dziennikarskich, które wcześniej były niemożliwe, a generatywna AI może jeszcze bardziej wzmocnić nasze możliwości”.

Co konkretnie będzie robić AI?

NYT zatwierdził wykorzystanie kilku narzędzi AI, takich jak GitHub Copilot do wspomagania kodowania, Google Vertex AI do rozwoju produktów oraz NotebookLM. Redakcja może także korzystać z ChatExplorera NYT oraz niektórych narzędzi Amazona i OpenAI (po uprzednim zatwierdzeniu przez dział prawny).

Najważniejszym nowym narzędziem jest jednak Echo – wewnętrzna, testowa aplikacja do podsumowywania artykułów, briefingów i materiałów interaktywnych.

Sztuczna inteligencja ma być używana do:
✅ Tworzenia nagłówków SEO, streszczeń i materiałów promocyjnych
✅ Sugestii poprawek i edycji tekstu
✅ Burzy mózgów – generowania pytań i tematów dla dziennikarzy
✅ Analizy wewnętrznych dokumentów NYT
✅ Przygotowywania quizów, grafik z cytatami i sekcji FAQ

W jednej z instrukcji redakcja sugerowała wykorzystanie AI do tworzenia pytań dla CEO startupu podczas wywiadu.

Gdzie stawia się granicę?

Chociaż NYT mocno inwestuje w AI, zaznacza jednocześnie, że niektóre zastosowania są zabronione. Dziennikarze nie mogą:
❌ Wykorzystywać AI do pisania lub istotnej edycji artykułów
❌ Wprowadzać do narzędzi AI treści objętych prawami autorskimi, zwłaszcza od poufnych źródeł
❌ Używać AI do omijania paywalli
❌ Publikować obrazów lub wideo generowanych przez AI, z wyjątkiem demonstracji technologii

NYT podkreśla, że niewłaściwe korzystanie z AI może zagrozić ochronie źródeł dziennikarskich.

Kiedy AI, a kiedy sąd?

Decyzja NYT o wdrożeniu AI jest szczególnie interesująca w kontekście jego trwającego procesu przeciwko OpenAI. Gazeta oskarża firmę o nielegalne wykorzystanie jej treści do trenowania modeli AI, co według NYT jest „masowym naruszeniem praw autorskich”. OpenAI i Microsoft (jego główny inwestor) twierdzą natomiast, że NYT chce hamować rozwój technologii.

Choć NYT aktywnie testuje narzędzia AI, nie wszyscy pracownicy są zachwyceni. Niektórzy obawiają się, że AI może prowadzić do lenistwa w redakcji, tworzenia nijakich nagłówków lub generowania błędnych informacji. Są też napięcia między dziennikarzami a firmami AI – zwłaszcza po zeszłorocznej sytuacji, gdy CEO startupu Perplexity zaproponował zastąpienie strajkujących pracowników NYT narzędziami AI.

Czy AI faktycznie usprawni pracę redakcji NYT, czy stanie się punktem zapalnym dla kolejnych sporów? Czas pokaże.

Źródło