Прежде всего, выделен «Вселенский граф универсального мышления» для больших языковых моделей (LLM).
Китайцы исследовали процесс рассуждения разных GPT, используя для их обработки модель Qwen-8B, создав в итоге одну проекцию смыслов тестируемых LLM. Был построен граф вероятности переходов между разными стадиями «размышлений» нейросетей. Интересно, что ценны не огромные знания, что впитывает «нейронка», а навигация в этих знаниях, причем логика навигации поразительно мало связана с самими знаниями. По сути, граф размышлений GPT работает без привязки к контексту, что как минимум парадоксально.
Графы размышлений тестируемых нейросетей, проанализированные Qwen-8B, совпали на 90%. Предполагается, что для всех нейросетей существует единый универсальный граф всех типов размышлений как последовательность логических операций. Независимо от математических моделей, стратегий обучения, страны происхождения искусственные нейросети «думают» в целом одинаково, прибегая к единому графу мышления.
В исследовании «The Molecular Structure of Thought: Mapping the Topology of Long Chain-of-Thought Reasoning» китайские специалисты также сравнили графы этапности размышлений человека и LLM Deepseek R1. И они оказались очень схожими. «Вселенский граф универсального мышления» — видимо, единая модель мыслительного процесса, характерная и для человека.