Несмотря на стремительное развитие искусственного интеллекта, ученые признают, что до человеческого сознания ему пока далеко. Более того, все чаще звучат сомнения в возможности дальнейшего бурного развития ИИ, ведь языковые модели учатся по массивами данных из интернета, при том, что большинство опубликованных текстов теми же нейросетями и написаны. Однако, новая разработка, похоже, способна «перевернуть доску» и изменить расклад сил. Речь идет об искусственном интеллекте с новой архитектурой, получившего название Dragon Hatchling («Детеныш дракона»).

Учёные уверяют, что этот новый тип ИИ может преодолеть разрыв между существующими LLM (большими языковыми моделями) и человеческим сознанием. А это значит, что в скором будущем, возможно, появятся машины, которые учатся и мыслят как люди. Подробнее об этом открытии расскажем в нашей статье.
«Недостающее звено»
Новая LLM была смоделирована AI-стартапом Pathway по образу и подобию человеческого мозга. Разработчики попытались воссоздать то, как нейроны создают и укрепляют связи на основе приобретённого опыта. Сами создатели описывают новую нейросеть как первую модель, способную «обобщать со временем». Иными словами, «Детеныш дракона» может автоматически настраивать собственную нейронную сеть в ответ на новую информацию.
О том, как искусственный интеллект помогает людям в медицине, читайте в статье «ИИ против онкологии»
В исследовании, загруженном 30 сентября в базу данных препринтов arXiv, Pathway представил свой ИИ как преемника существующей архитектуры, лежащей в основе генеративных AI-инструментов, таких как ChatGPT и Google Gemini. Более того, команда предположила, что модель может стать «недостающим звеном» между современными и более продвинутыми, вдохновлёнными человеческим мозгом нейросетями.
Хаотичное сознание
Создание ИИ, способного мыслить как человек — одна из ключевых целей всех разработчиков. Тем не менее, достичь такого уровня симулированного познания — часто называемого общим искусственным интеллектом (AGI) — пока ни у кого не получалось. Ключевая проблема в том, что человеческое мышление по сути своей запутанно. Наши мысли редко приходят к нам в аккуратных, линейных последовательностях связанной информации. Вместо этого человеческое сознание больше похоже на хаотичный клубок пересекающихся мыслей, ощущений, эмоций и импульсов, постоянно борющихся за внимание.
Трансформер – «мозг» ИИ
Большие языковые модели обычно управляются трансформерами — разновидностью фреймворка глубокого обучения, позволяющего моделям ИИ во время разговора устанавливать связи между словами и идеями. Трансформеры — это «мозги», стоящие за генеративными инструментами ИИ, такими как ChatGPT, Gemini и Claude, позволяющими им взаимодействовать с пользователями и реагировать на них с убедительным уровнем «осознанности» (по крайней мере, чаще всего).
Хотя ИИ-трансформеры чрезвычайно сложны, они также очерчивают границы возможностей генеративного искусственного интеллекта. Одна из причин этого в том, что они не учатся непрерывно. После обучения LLM параметры, управляющие ею, блокируются, то есть любые новые знания необходимо добавлять через переобучение или тонкую настройку. Когда LLM сталкивается с чем-то новым, она просто генерирует ответ, основываясь на том, что уже знает.
Представьте себе дракона
Dragon Hatchling, напротив, разработан так, чтобы динамически адаптировать своё понимание за пределы тренировочных данных. Он делает это, обновляя свои внутренние связи в реальном времени, обрабатывая каждый новый вход, подобно тому, как нейроны со временем укрепляются или слабеют. Это может способствовать дальнейшему обучению, отметили исследователи.
В отличие от типичных архитектур трансформеров, которые последовательно обрабатывают информацию через слои узлов, архитектура Dragon Hatchling ведёт себя скорее как гибкая паутина, которая перестраивается по мере появления новой информации. Крошечные «нейронные частицы» постоянно обмениваются информацией и корректируют свои связи, укрепляя одни и ослабляя другие.