OpenAI привлекла $110 млрд инвестиций при оценке в $730 млрд
Раунд финансирования стал одним из крупнейших в истории стартапов
Компания OpenAI объявила о привлечении $110 млрд при оценке в $730 млрд. Крупнейшими инвесторами выступили SoftBank ($30 млрд), Nvidia ($30 млрд) и Amazon ($50 млрд).
По данным Financial Times, это крупнейший в истории раунд финансирования для стартапов.
В феврале конкурент фирмы — ИИ-стартап Anthropic — получил $30 млрд при оценке в $380 млрд. Главными инвесторами выступили D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ и MGX.
В начале января разработчик чат-бота Grok — xAI — также привлек $20 млрд при поддержке Valor Equity Partners, Stepstone Group, Fidelity Management & Research Company и других партнеров.
Ожидается, что к сделке с OpenAI присоединятся и другие участники.
Средства направят на расширение глобального присутствия, углубление инфраструктуры и укрепление баланса.
Новый раунд увеличил долю OpenAI Foundation в фирме до более чем $180 млрд. Это расширит возможности некоммерческой организации финансировать проекты в области здравоохранения и ИИ-безопасности.
В октябре СМИ сообщали, что компания Альтмана готовится к выходу на биржу с оценкой в $1 трлн. Источники Reuters ожидают подачу заявки во второй половине 2026 года.
Коллаборации с Amazon и Nvidia
В рамках сделки разработчик ChatGPT заключил стратегическое партнерство с Amazon.
Компании совместно разрабатывают среду выполнения на базе моделей OpenAI, доступную через Amazon Bedrock. Технология позволит нейросетям сохранять контекст, работать с вычислительными ресурсами, памятью и идентификацией, а также интегрироваться с существующими приложениями в AWS. Запуск ожидается в ближайшие месяцы.
Amazon Web Services станет единственным сторонним провайдером для OpenAI Frontier. Компании смогут создавать и координировать работу ИИ-агентов с корпоративной безопасностью без управления инфраструктурой.
Кроме того, в рамках восьмилетнего соглашения на $100 млрд (в дополнение к действующему на $38 млрд) OpenAI будет использовать около 2 ГВт мощностей Trainium на инфраструктуре AWS. Это даст компании долгосрочные вычислительные ресурсы и снизит стоимость масштабирования ИИ.
Стартап также расширил многолетнее сотрудничество с Nvidia, добавив 3 ГВт выделенных мощностей для инференса и 2 ГВт для обучения на системах Vera Rubin. Это станет дополнением к уже развернутым Hopper и Blackwell на платформах Microsoft, OCI и CoreWeave.
Напомним, в феврале OpenAI сократила план расходов на вычислительные мощности к 2030 году с $1,4 трлн до $600 млрд.
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!


