Anthropic jest na fali wznoszącej. Firma AI, wspierana przez Amazon i zarządzana przez byłych dyrektorów OpenAI, potwierdziła we wtorek, że pozyskała 13 miliardów dolarów finansowania, co podniosło jej wycenę do 183 miliardów dolarów.
To trzykrotnie więcej niż wynosiła jej wartość w marcu, co czyni to jednym z najszybszych wzrostów wyceny, jakie Dolina Krzemowa widziała do tej pory w 2025 roku.
Rundzie finansowania przewodziły Iconiq, Fidelity Management & Research oraz Lightspeed Venture Partners. Potężne firmy jak Altimeter, General Catalyst i Coatue również zainwestowały swoje pieniądze. Dyrektor finansowy Anthropic, Krishna Rao, powiedział, że pozyskane środki pokazują, jak ściśle firma współpracuje z inwestorami.
"To finansowanie demonstruje nadzwyczajne zaufanie inwestorów do naszych wyników finansowych oraz siłę ich współpracy z nami, aby nadal napędzać nasz bezprecedensowy wzrost" - powiedział Krishna.
Premiera Claude'a rozpalił ogień pod wzrostem
Od czasu ogłoszenia Claude'a w marcu 2023 roku, wycena Anthropic gwałtownie wzrosła. Firma twierdzi teraz, że ma ponad 300 000 klientów biznesowych i przychody w wysokości 5 miliardów dolarów według stanu na sierpień, w porównaniu do zaledwie 1 miliarda dolarów na początku roku. To 5-krotny wzrost w mniej niż dwanaście miesięcy.
Anthropic została założona przez osoby, które wcześniej pracowały w OpenAI, w tym jej CEO Dario Amodei. To ma znaczenie, ponieważ rywalizacja między tymi dwiema firmami szybko się zaostrza. OpenAI trafia na pierwsze strony gazet od czasu uruchomienia ChatGPT pod koniec 2022 roku. Przygotowuje sprzedaż akcji, która wyceniłaby ją na 500 miliardów dolarów, jak donosi CNBC.
W marcu OpenAI zapewniło sobie 40 miliardów dolarów przy wycenie 300 miliardów dolarów, co jest największą kwotą w historii dla prywatnej firmy technologicznej. Zaledwie w zeszłym miesiącu zebrało kolejne 8,3 miliarda dolarów związane z tą samą rundą. Jednocześnie wprowadziło GPT-5, który według OpenAI jest szybszy i "znacznie bardziej użyteczny" niż wcześniejsze modele. Ale nie wszyscy są zadowoleni. Niektórzy użytkownicy narzekali, że brakuje funkcji z GPT-4o. "Z pewnością nie doceniliśmy, jak bardzo niektóre rzeczy, które ludzie lubią w GPT-4o, są dla nich ważne, nawet jeśli GPT-5 działa lepiej pod większością względów" - powiedział CEO OpenAI Sam Altman na X.
Anthropic twierdzi, że nowe finansowanie wesprze badania nad bezpieczeństwem AI, pomoże w skalowaniu, aby sprostać zapotrzebowaniu dużych przedsiębiorstw, oraz przyspieszy międzynarodową ekspansję. To są trzy priorytety.
Anthropic zmienia swoją politykę danych i wyznacza użytkownikom termin
Za kulisami zachodzi kolejna duża zmiana. Anthropic wprowadza istotne zmiany w sposobie zbierania i przechowywania danych użytkowników, a osoby korzystające z Claude'a mają czas do 28 września, aby zdecydować, czy ich rozmowy mogą być wykorzystywane do trenowania modeli AI firmy. To całkowite odwrócenie ich wcześniejszej polityki.
Przed tą aktualizacją użytkownikom Claude'a mówiono, że ich dane będą usuwane po 30 dniach — chyba że naruszały zasady lub musiały być przechowywane dłużej z powodów prawnych, w którym to przypadku mogły pozostać nawet do dwóch lat. To już przeszłość. Jeśli użytkownicy nie zrezygnują, Anthropic zachowa ich rozmowy i sesje kodowania przez pięć lat i wykorzysta te informacje do trenowania przyszłych modeli Claude'a.
Polityka dotyczy wszystkich indywidualnych użytkowników Claude Free, Claude Pro, Claude Max i Claude Code. Klienci biznesowi korzystający z Claude Gov, Claude for Work, Claude for Education lub dostępu przez API nie będą dotknięci zmianami. Jest to podobne do sposobu, w jaki OpenAI chroni swoich klientów korporacyjnych, również nie wykorzystując ich danych do treningu.
Anthropic nie podało pełnego wyjaśnienia poza wpisem na blogu. Ale firma twierdzi, że nowa polityka dotyczy "wyboru użytkownika". Jeśli ludzie nie zrezygnują, pomogą ulepszyć AI. Firma twierdzi, że dzięki temu Claude będzie lepszy w takich rzeczach jak kodowanie i rozumowanie, a także pomoże zmniejszyć liczbę przypadków, w których nieszkodliwe wiadomości są oznaczane jako szkodliwe.
Jednak prawdziwy powód jest jasny. Każda firma AI potrzebuje obecnie ogromnych ilości danych z rzeczywistego świata. Rozmowy Claude'a to zapewniają. Trenowanie dużych modeli nie jest możliwe bez milionów wysokiej jakości konwersacji. Daje to więc Anthropic to, czego potrzebuje, aby konkurować z OpenAI i Google; dane na dużą skalę, bezpośrednio od użytkowników.
Jeśli to czytasz, jesteś już do przodu. Pozostań tam z naszym newsletterem.
Źródło: https://www.cryptopolitan.com/anthropic-triples-valuation-to-183-billion/



