Google інвестує мільярди в AI-інфраструктуру Thinking Machines Lab

TechCrunch AIблизько 3 годин тому0 переглядів

Thinking Machines Lab підписала багатомільярдну угоду з Google Cloud для AI-інфраструктури на базі чипів Nvidia GB300. Це крок Google для посилення конкуренції з OpenAI на ринку AI-рішень для бізнесу.

ВердиктПозитивнаImpact 6/10

🚀 Посилення конкуренції. Google серйозно налаштований наздогнати OpenAI в enterprise-сегменті, інвестуючи у потужну інфраструктуру.

🟢 МОЖЛИВОСТІ

  • Збільшення обчислювальних потужностей для навчання та розгортання великих мовних моделей (LLM)
  • Оптимізація AI-інфраструктури для конкретних потреб enterprise-клієнтів
  • Створення нових AI-сервісів та продуктів на базі чипів Nvidia GB300

🔴 ЗАГРОЗИ

  • Висока вартість розгортання та підтримки AI-інфраструктури на базі новітніх чипів
  • Залежність від Nvidia та можливі затримки з поставками чипів GB300
  • Конкуренція з іншими хмарними провайдерами, які також інвестують в AI-інфраструктуру

🎯 Чи підходить це вашому бізнесу?

Заповніть профіль компанії — і ми автоматично покажемо, чи варто вам це впроваджувати.

Заповнити профіль · 30 секунд
Детальний розбір ↓

TL;DR

  • Багатомільярдна угода між Google Cloud та Thinking Machines Lab.
  • Використання чипів Nvidia GB300 для AI-інфраструктури.
  • Мета: посилення позицій Google в AI-сегменті.
  • Конкуренція з OpenAI за enterprise-клієнтів.
  • Інвестиції в обчислювальні потужності для навчання LLM.

Як це змінить ваш ринок?

Для фінансових установ це означає можливість обробляти великі обсяги даних для виявлення шахрайства та оцінки ризиків з більшою точністю та швидкістю, знімаючи обмеження на обчислювальні ресурси.

AI-інфраструктура — сукупність апаратного та програмного забезпечення, необхідного для розробки, навчання та розгортання моделей штучного інтелекту.

Для кого це і за яких умов

Для великих enterprise-компаній з великими обсягами даних та потребою в обчислювальних ресурсах для AI. Потрібна IT-команда для розгортання та підтримки інфраструктури. Бюджет: $1M+ на рік.

Альтернативи

Google Cloud AI InfrastructureAWS AI InfrastructureAzure AI Infrastructure
ЦінаЗалежить від конфігураціїЗалежить від конфігураціїЗалежить від конфігурації
Де працюєGoogle CloudAWSAzure
Мін. вимогиEnterprise-рівеньEnterprise-рівеньEnterprise-рівень
Ключова різницяСпеціалізовані чипи Nvidia GB300Широкий вибір інстансівІнтеграція з Microsoft AI-сервісами

💬 Часті запитання

Чипи Nvidia GB300 забезпечують високу продуктивність та енергоефективність для навчання та розгортання AI-моделей, особливо великих мовних моделей.

Такий розбір щоранку о 08:00

Персональний AI-дайджест для вашої галузі — щодня у Telegram

7 днів безкоштовно
AIinfrastructureGoogleCloudThinkingMachinesLabNvidiaGB300AIchips

Навчіть вашу команду будувати такі AI-автоматизації

За 5 днів кожен співробітник побудує автоматизацію для своєї ділянки роботи.

Дізнатись більше → aiupskill.live