Skip to main content

Команда Anthropic обнаружила, что три лаборатории ИИ из Китая, а именно DeepSeek, Moonshot и MiniMax, использовали ответы Claude (принадлежит Anthropic) для обучения своих ИИ. В общей сложности они создали более 16 миллионов запросов через примерно 24 тысячи фальшивых аккаунтов.

Эта методика называется дистилляция: мощная нейросеть обрабатывает тысячи запросов. Затем разработчики собирают ответы и используют их в качестве обучающих данных для своей модели. Важно отметить, что метод сам по себе является легальным. Однако в данном случае компании нарушили условия использования и обходили региональные ограничения с помощью прокси-сервисов.

Более того, согласно расследованию, DeepSeek создала 150 тысяч запросов, среди которых были задачи, где Claude просили представить и подробно описать свою цепочку рассуждений по шагам. Фактически, таким образом генерируются готовые данные для обучения reasoning-модели (англ. рассуждающей модели – прим. IT Speaker). Также DeepSeek использовал Claude для формирования «безопасных» ответов на политически чувствительные вопросы – вероятно, чтобы обучить свою модель аккуратно обходить темы цензуры.

Ранее руководство Anthropic объявило о двухлетнем партнерстве с Python Software Foundation. В рамках этого соглашения компания инвестирует 1.5 миллиона долларов в развитие экосистемы Python. Основное внимание уделяется безопасности цепочки поставок и защите PyPI.

Вас может заинтересовать: 

Вышла математическая ИИ-модель от DeepSeek

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий