Skip to main content

Компания DeepSeek выпустила отчет, в котором сообщила, что на обучение своей модели R1 было потрачено $294 тыс. Эта сумма существенно ниже, чем затраты конкурентов из США в рамках их проектов. Для этого DeepSeek привлекла 512 ускорителей Nvidia H800.

Напоминаем, что запуск DeepSeek-R1 состоялся в январе текущего года, и ее успех заставил инвесторов по всему миру избавиться от акций технологических компаний, что вызвало снижение капитализации лидеров в области ИИ, включая Nvidia.

Затраты на обучение ИИ-моделей обусловлены использованием кластеров мощных чипов в течение недель или месяцев для обработки больших объемов текста и кода. Примечательно, что в 2023 году генеральный директор OpenAI Сэм Альтман заявил, что обучение базовых моделей его компании обошлось в целых $100 млн.

В процессе обучения ИИ DeepSeek применяла ускоритель H800, разработанный специально для китайского рынка, ограничив поставки более мощных H100 и A100 в КНР. Тем не менее, существует вероятность, что DeepSeek все же имеет доступ к значительным объемам H100.

Ранее команда разработчиков DeepSeek создала новую методику для самообучения моделей ИИ. Эта методика позволяет ИИ самостоятельно осваивать новые навыки и знания без вмешательства человека.

Вам может быть интересно: 

Nokia представила смартфоны с DeepSeek для пожилых

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий