Стартап Thinking Machines Lab получил многомиллиардный контракт на ИИ-инфраструктуру Google

Стартап Thinking Machines Lab, основанный бывшим техническим директором OpenAI Мирой Мурати, заключил новое многомиллиардное соглашение с Google Cloud на расширение доступа к ИИ-инфраструктуре, включая системы на базе новейших GPU Nvidia. По данным источников TechCrunch, стоимость сделки оценивается в диапазоне нескольких миллиардов долларов.

Контракт включает доступ к вычислительным системам на новых чипах Nvidia GB300, а также к облачной инфраструктуре для обучения и развёртывания моделей. Речь не только о «железе», но и о полном стеке сервисов — от хранения данных до оркестрации вычислений через Kubernetes и распределённые базы данных.

Google активно усиливает присутствие в сегменте инфраструктуры для ИИ-лабораторий, стремясь объединить вычислительные мощности с собственными облачными сервисами. Параллельно компания заключает соглашения с другими разработчиками: ранее Anthropic подписала контракт с Google и Broadcom на доступ к вычислительным мощностям на базе TPU — специализированных чипов Google для машинного обучения.

Иллюстрация: Nano Banana

Конкуренция в этом сегменте остаётся жёсткой. Anthropic минувшей неделе также расширила соглашение с Amazon, получив доступ к мощности до 5 гигаватт для обучения и развёртывания моделей Claude. Это отражает масштаб требований современных ИИ-систем, где вычислительные ресурсы становятся ключевым ограничением развития.

Thinking Machines ранее уже сотрудничала с Nvidia, включая инвестиционное участие компании, однако соглашение с Google Cloud стало первым крупным контрактом стартапа с облачным провайдером. Оно не является эксклюзивным, что оставляет возможность использования нескольких облаков одновременно, но демонстрирует стратегию Google по раннему закреплению за быстрорастущими ИИ-лабораториями.

Сам стартап был основан в феврале 2025 года после ухода Мурати из OpenAI. Вскоре компания привлекла $2 млрд в первом раунде финансирования при оценке $12 млрд и остаётся относительно закрытой по структуре разработки. В октябре она представила свой первый продукт — Tinker, систему для автоматизации создания кастомных «пограничных» моделей ИИ.

Новая сделка частично раскрывает технический фокус компании. Google отмечает, что её инфраструктура оптимизирована под задачи обучения с подкреплением — подхода, который лежит в основе последних прорывов в лабораториях вроде DeepMind и OpenAI. Именно такие задачи требуют особенно больших вычислительных ресурсов, что и объясняет масштаб соглашения.

Thinking Machines также стала одним из первых клиентов Google Cloud, получивших доступ к системам на базе GB300. По данным Google, они обеспечивают примерно двукратное ускорение обучения и работы моделей по сравнению с предыдущим поколением GPU.

©  iXBT