11.ai: Głos, który zrobi coś więcej niż tylko pogada
Big Data Wybór redakcji

11.ai: Głos, który zrobi coś więcej niż tylko pogada

Od lat słyszymy, że asystenci głosowi to przyszłość. Że wystarczy powiedzieć „włącz światło” albo „jaka będzie pogoda w Karpaczu”, a technologia zadba o resztę. Problem w tym, że ta „reszta” była raczej uboga. Do teraz.

Dziś ElevenLabs startuje z 11.ai (w wersji alpha) – nowym asystentem głosowym, który nie tylko gada, ale też działa. I to konkretnie. Wszystko za sprawą połączenia technologii rozpoznawania mowy z protokołem MCP (Model Context Protocol) – co w praktyce oznacza, że głos może w końcu coś załatwić.

Głos, który zarządza projektami

11.ai ma ambicję być czymś więcej niż tylko głośnikiem z wiedzą z Wikipedii. To próbka możliwości tzw. voice-first productivity – podejścia, które zakłada, że mówimy do asystenta jak do człowieka, a on… no właśnie, robi robotę.

Przykład? Proszę bardzo:

  • „Zaplanuj mój dzień i dodaj zadania priorytetowe do Linear.”
  • „Sprawdź w Perplexity informacje o dzisiejszym kliencie i streść dane o jego ostatnim finansowaniu.”
  • „Przeszukaj zgłoszenia błędów w Linear i stwórz nowe zadanie.”
  • „Powiedz mi, co się działo wczoraj na Slacku w kanale inżynierii.”

To nie tylko ładna prezentacja na konferencję – 11.ai rzeczywiście próbuje zrozumieć kontekst między różnymi narzędziami i wykonać zadania w odpowiedniej kolejności. Trochę jakby Twój głos stał się Twoim prywatnym project managerem.

MCP, czyli język, którym AI dogaduje się z narzędziami

Sercem całego systemu jest wspomniany Model Context Protocol, który pozwala AI wchodzić w interakcje z zewnętrznymi usługami przez zunifikowane API. ElevenLabs zintegrowało swój system z popularnymi platformami:

  • Perplexity (research z użyciem danych z sieci),
  • Linear (zarządzanie projektami),
  • Slack (komunikacja w zespole),
  • Notion (zarządzanie wiedzą i zadaniami).

A to dopiero początek – lista rozszerza się co tydzień. Dla bardziej wymagających jest też możliwość podpięcia własnych narzędzi przez MCP.

Bezpieczeństwo? Spokojnie – każda integracja może być konfigurowana z dokładnymi uprawnieniami. Nie ma tu miejsca na AI, które przypadkiem wyśle prezesowi Twoje memy z Discorda.

Technologia ElevenLabs pod maską

11.ai to także pokaz siły technologicznej ElevenLabs. Ich silnik Conversational AI charakteryzuje się:

  • niskimi opóźnieniami (rozmowa niemal w czasie rzeczywistym),
  • obsługą multimodalną (głos i tekst jednocześnie),
  • wbudowaną integracją z bazami wiedzy (RAG),
  • automatycznym rozpoznawaniem języka,
  • przygotowaniem pod zastosowania biznesowe (zgodność z HIPAA itd.).

Do tego możesz wybrać jedną z ponad 5000 głosów albo stworzyć własny klon głosu. Bo przecież nic tak nie poprawia poranka jak to, że to „Ty” przypominasz sobie o zaległych taskach.

Start alpha: co dalej?

11.ai dostępne jest już teraz w wersji testowej – za darmo, z prostym onboardingiem. Wystarczy założyć konto, wybrać głos, podłączyć narzędzia i… pogadać.

Twórcy szukają teraz opinii: jakie integracje są najpotrzebniejsze, co jeszcze można poprawić w interakcji głosowej i które funkcje uczyniłyby 11.ai niezbędnym narzędziem dnia codziennego.

Jest więc szansa, że 11.ai to nie tylko kolejna ciekawostka z dziedziny AI, ale zaczątek większej zmiany. Bo jeśli masz głos – to może warto, by robił coś więcej niż tylko pytał o pogodę.

Źródło