OpenAI w końcu wprowadza swój asystent głosowy dla subskrybentów ChatGPT Plus, ale brakuje mu niektórych funkcji, które firma zaprezentowała w swojej pierwotnej demonstracji.
Tryb zaawansowanego głosu (AVM) po raz pierwszy pokazano w maju, ale obawy dotyczące bezpieczeństwa oraz zdolności AVM do odtwarzania treści objętych prawami autorskimi opóźniły jego wydanie. Kontrowersje związane z jednym z głosów, który nazywał się „Sky” i brzmiał bardzo podobnie do Scarlett Johansson, prawdopodobnie też nie pomogły.
AVM wprowadza pięć nowych głosów, w tym jeden z australijskim akcentem, ale fani filmu „Ona” mogą być rozczarowani, bo głos Sky został usunięty. Nowe głosy to Arbor, Maple, Sol, Spruce i Vale, co zwiększa ich liczbę do dziewięciu.
Kolejną funkcją, której użytkownicy nie otrzymają na razie, jest zdolność AVM do analizy danych wizualnych. W pierwotnej demonstracji asystent głosowy mógł korzystać z aparatu telefonu i reagować na dane wizualne. Na razie AVM obsługuje jedynie komendy głosowe.
Nie wiadomo, czy AVM kiedykolwiek otrzyma tę „zdolność widzenia”. Może to być strategiczny ruch, aby zmniejszyć obciążenie serwerów OpenAI, gdy użytkownicy zaczną masowo testować nową funkcję.
AVM ma jednak kilka nowych możliwości. Użytkownicy mogą zapisywać „instrukcje niestandardowe” dotyczące tego, jak model ma mówić, co pozwala na określenie tempa mowy lub preferowanego sposobu zwracania się do użytkownika. Można także dostarczyć dane osobiste, aby AVM lepiej dopasowywał odpowiedzi do kontekstu.
Nową funkcją jest również „pamięć”, która pozwala ChatGPT zapamiętywać rozmowy i nawiązywać do nich podczas kolejnych interakcji.
Mieszkańcy Wielkiej Brytanii, UE lub Szwajcarii, będą musieli jeszcze trochę poczekać, zanim AVM zostanie aktywowany na ich urządzeniach. OpenAI nie podało jeszcze daty globalnego wdrożenia tej funkcji.
Big Data
Technologia
Wybór redakcji
OpenAI udostępnia (nareszcie) asystenta głosowego
- 2024-09-25
- 0 Uwagi
- 349 Wyświetlone
