Никакого чуда китайская нейросеть DeepSeek из себя не представляет?
Затраты на её обучение могли быть в 400 раз выше заявленных
Значит китайцы не придумали ничего нового
Возможно, китайская языковая модель DeepSeek, запуск которой обвалил фондовый рынок США и привёл к падению капитализации Nvidia на невероятные 600 млрд долларов, на самом деле обошлась китайской компании не в разы, а на порядки дороже, чем сообщалось.
Напомним, затраты на обучение модели якобы составили всего 5-6 млн долларов, что поражает на фоне сотен миллионов, которые тратят западные гиганты. Однако аналитики SemiAnalysis провели анализ имеющихся данных и сообщают, что на самом деле затраты DeepSeek были примерно на два порядка выше заявленных!
В отчете говорится, что DeepSeek имеет около 10 000 графических процессоров Nvidia H800, предназначенных для китайского рынка, и 10 000 более дорогих чипов H100. Более того, компания инвестировала в ускорители H20, и у них есть пул ресурсов, которые DeepSeek и китайский хедж-фонд High-Flyer совместно используют для торговли, вывода, обучения и исследований. Суммарно всё это уже тянет примерно на 1,6 млрд долларов, и это только капитальные вложения. Эксплуатационные расходы, по слухам, составляют около 944 млн долларов. Эти цифры примерно в четыреста раз выше, чем изначально предполагали рынки.
Судя по всему, те самые 5-6 млн долларов — это определенная часть расходов на обучение, вероятно, связанных с запуском окончательной модели.
Таким образом, если расчёты источника верны, никакого чуда не произошло и DeepSeek не смогла изменить правила рынка, когда большие языковые модели требуют гигантского количества денежных средств.
Компьютерный доктор
Никакого чуда китайская нейросеть DeepSeek из себя не представляет?
Затраты на её обучение могли быть в 400 раз выше заявленных
Значит китайцы не придумали ничего новогоВозможно, китайская языковая модель DeepSeek, запуск которой обвалил фондовый рынок США и привёл к падению капитализации Nvidia на невероятные 600 млрд долларов, на самом деле обошлась китайской компании не в разы, а на порядки дороже, чем сообщалось.
Судя по всему, те самые 5-6 млн долларов — это определенная часть расходов на обучение, вероятно, связанных с запуском окончательной модели.
Таким образом, если расчёты источника верны, никакого чуда не произошло и DeepSeek не смогла изменить правила рынка, когда большие языковые модели требуют гигантского количества денежных средств.
Источник