Od lat słyszymy, że asystenci głosowi to przyszłość. Że wystarczy powiedzieć „włącz światło” albo „jaka będzie pogoda w Karpaczu”, a technologia zadba o resztę. Problem w tym, że ta „reszta” była raczej uboga. Do teraz.
Dziś ElevenLabs startuje z 11.ai (w wersji alpha) – nowym asystentem głosowym, który nie tylko gada, ale też działa. I to konkretnie. Wszystko za sprawą połączenia technologii rozpoznawania mowy z protokołem MCP (Model Context Protocol) – co w praktyce oznacza, że głos może w końcu coś załatwić.
Głos, który zarządza projektami
11.ai ma ambicję być czymś więcej niż tylko głośnikiem z wiedzą z Wikipedii. To próbka możliwości tzw. voice-first productivity – podejścia, które zakłada, że mówimy do asystenta jak do człowieka, a on… no właśnie, robi robotę.
Przykład? Proszę bardzo:
- „Zaplanuj mój dzień i dodaj zadania priorytetowe do Linear.”
- „Sprawdź w Perplexity informacje o dzisiejszym kliencie i streść dane o jego ostatnim finansowaniu.”
- „Przeszukaj zgłoszenia błędów w Linear i stwórz nowe zadanie.”
- „Powiedz mi, co się działo wczoraj na Slacku w kanale inżynierii.”
To nie tylko ładna prezentacja na konferencję – 11.ai rzeczywiście próbuje zrozumieć kontekst między różnymi narzędziami i wykonać zadania w odpowiedniej kolejności. Trochę jakby Twój głos stał się Twoim prywatnym project managerem.
MCP, czyli język, którym AI dogaduje się z narzędziami
Sercem całego systemu jest wspomniany Model Context Protocol, który pozwala AI wchodzić w interakcje z zewnętrznymi usługami przez zunifikowane API. ElevenLabs zintegrowało swój system z popularnymi platformami:
- Perplexity (research z użyciem danych z sieci),
- Linear (zarządzanie projektami),
- Slack (komunikacja w zespole),
- Notion (zarządzanie wiedzą i zadaniami).
A to dopiero początek – lista rozszerza się co tydzień. Dla bardziej wymagających jest też możliwość podpięcia własnych narzędzi przez MCP.
Bezpieczeństwo? Spokojnie – każda integracja może być konfigurowana z dokładnymi uprawnieniami. Nie ma tu miejsca na AI, które przypadkiem wyśle prezesowi Twoje memy z Discorda.
Technologia ElevenLabs pod maską
11.ai to także pokaz siły technologicznej ElevenLabs. Ich silnik Conversational AI charakteryzuje się:
- niskimi opóźnieniami (rozmowa niemal w czasie rzeczywistym),
- obsługą multimodalną (głos i tekst jednocześnie),
- wbudowaną integracją z bazami wiedzy (RAG),
- automatycznym rozpoznawaniem języka,
- przygotowaniem pod zastosowania biznesowe (zgodność z HIPAA itd.).
Do tego możesz wybrać jedną z ponad 5000 głosów albo stworzyć własny klon głosu. Bo przecież nic tak nie poprawia poranka jak to, że to „Ty” przypominasz sobie o zaległych taskach.
Start alpha: co dalej?
11.ai dostępne jest już teraz w wersji testowej – za darmo, z prostym onboardingiem. Wystarczy założyć konto, wybrać głos, podłączyć narzędzia i… pogadać.
Twórcy szukają teraz opinii: jakie integracje są najpotrzebniejsze, co jeszcze można poprawić w interakcji głosowej i które funkcje uczyniłyby 11.ai niezbędnym narzędziem dnia codziennego.
Jest więc szansa, że 11.ai to nie tylko kolejna ciekawostka z dziedziny AI, ale zaczątek większej zmiany. Bo jeśli masz głos – to może warto, by robił coś więcej niż tylko pytał o pogodę.