Skip to main content

Эксперты Google провели исследование, чтобы выяснить, какие механизмы способствуют ИИ-моделям в достижении высокой точности при решении сложных задач. Выяснилось, что ключевую роль играет не продолжительность размышлений, а создание внутри модели устойчивой структуры внутреннего диалога.

Разработчики обозначили этот механизм как «society of thought» – «общество мыслей». Это ситуация, при которой в процессе размышления ИИ одновременно развивает несколько альтернативных направлений рассуждений, которые взаимно проверяют, критикуют и корректируют друг друга. Такой процесс напоминает коллективное обсуждение, где различные мнения последовательно сталкиваются и уточняются.

Исследователи опираются на концепции когнитивной науки, которые утверждают, что человеческое мышление формировалось как социальный процесс, связанный с аргументацией и разрешением конфликтов. По гипотезе, при обучении с подкреплением языковые модели начинают имитировать подобную структуру внутри своих вычислений, поскольку это увеличивает вероятность получения верного ответа.

Для проверки этой гипотезы ученые изучили работу моделей DeepSeek-R1 и QwQ-32B. Обе модели были обучены без указаний на ведение внутреннего диалога. Тем не менее, при анализе цепочек рассуждений было установлено, что они регулярно разделяют процесс решения на несколько «ролей», каждая из которых выполняет разные функции: генерацию идей, проверку предположений, поиск альтернатив и исправление ошибок. Более того, такие процессы позволяют ИИ «умнеть»: т.е. выполнять те или иные задачи быстрее и качественнее.

Ранее стало известно, что видеоплатформа YouTube расширила функцию автоматического дублирования звуковой дорожки в видео, работающую на основе ИИ, сделав её доступной для всех авторов контента. Также платформа увеличила количество поддерживаемых языков.

Вас может заинтересовать: 

ИИ заплатил человеку $100 за физический пикет

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий