ElevenLabs Wychodzi z Wersji Beta z 28-Języcznym Modelem Głosu AI po Wycenie na 11 Mld USD
Darius Baruo 06 mar 2026 12:27
ElevenLabs uruchamia Eleven Multilingual v2 obsługujący 28 języków, oficjalnie wychodząc z fazy beta tygodnie po zabezpieczeniu 500 mln USD w rundzie Series D przy wycenie 11 miliardów dolarów.
ElevenLabs oficjalnie wyszedł z wersji beta i uruchomił Eleven Multilingual v2, fundamentalny model mowy AI obsługujący 28 języków. Premiera następuje zaledwie kilka tygodni po tym, jak firma zamknęła rundę Series D o wartości 500 milionów dolarów, która wyceniła ją na 11 miliardów dolarów.
Nowy model automatycznie identyfikuje tekst pisany w prawie 30 językach i generuje to, co firma opisuje jako „emocjonalnie bogatą" mowę. Co ważniejsze dla twórców treści, cechy głosu — w tym oryginalne akcenty — pozostają spójne we wszystkich obsługiwanych językach. Pojedynczy sklonowany głos może teraz tworzyć treści w języku chińskim, japońskim, arabskim, koreańskim i 24 innych językach bez utraty swoich charakterystycznych cech.
18 Miesięcy Badań Się Opłaciło
ElevenLabs spędził półtora roku budując nowe mechanizmy rozumienia kontekstu i przekazywania emocji w syntetyzowanej mowie. Wybór czasu nie jest przypadkowy. Z 330 milionami dolarów rocznych powtarzalnych przychodów raportowanych na 2025 rok i ponad 1 milionem użytkowników na platformie, firma potrzebowała infrastruktury, która mogłaby skalować się globalnie.
To skalowanie otrzymało wsparcie w zeszłym miesiącu, kiedy ElevenLabs rozszerzył swoją współpracę z Google Cloud, uzyskując dostęp do procesorów graficznych NVIDIA Blackwell, aby obsłużyć zwiększone zapotrzebowanie.
Lista języków obejmuje teraz chiński, koreański, japoński, turecki, indonezyjski, filipiński, ukraiński, grecki, czeski, fiński, rumuński, duński, bułgarski, malajski, słowacki, chorwacki, arabski klasyczny i tamilski. Dołączają one do oryginalnych ośmiu języków: angielskiego, polskiego, niemieckiego, hiszpańskiego, francuskiego, włoskiego, hindi i portugalskiego.
Kto Zyskuje Najbardziej
Deweloperzy i wydawcy gier mają wiele do zyskania. Niezależne studia mogą teraz lokalizować treści głosowe dla międzynarodowej publiczności bez zatrudniania aktorów głosowych dla każdego rynku. Embark Studios i Paradox Interactive już korzystają z platformy.
Instytucje edukacyjne otrzymują natychmiastowe generowanie treści audio w językach docelowych — przydatne w programach nauki języków i obsłudze studentów międzynarodowych. Wydawcy audiobooków, tacy jak Storytel, już partner ElevenLabs, mogą szybciej rozszerzać swoje katalogi na nowe rynki.
Kwestia dostępności również ma znaczenie. Treści wizualne mogą być teraz uzupełniane wielojęzyczną mową dla użytkowników z wadami wzroku, bez kosztów nagrywania oddzielnych ścieżek dźwiękowych dla każdego języka.
Co Dalej
ElevenLabs planuje wprowadzić mechanizm udostępniania głosu, który pozwoli użytkownikom monetyzować swoje sklonowane głosy, gdy inni używają ich do tworzenia treści. CEO Mati Staniszewski określił to jako „współpracę człowieka z AI" — choć szczegóły podziału przychodów pozostają niejasne.
Trajektoria firmy od wyceny 100 milionów dolarów w czerwcu 2023 roku do 11 miliardów dolarów w lutym 2026 roku odzwierciedla szerszy apetyt rynku na technologię głosu AI. Z łącznym finansowaniem 781 milionów dolarów w pięciu rundach, ElevenLabs ma możliwości, aby realizować swój deklarowany cel: udostępnienie treści w dowolnym języku, dowolnym głosem.
Źródło obrazu: Shutterstock- elevenlabs
- głos ai
- tekst na mowę
- wielojęzyczna ai
- seria d


