«Яндекс» ищет сознание у ИИ. Спросили у «Алисы», что она об этом думает | IF | 20.11.2025

«Яндекс» ищет сознание у ИИ. Спросили у «Алисы», что она об этом думает

13:25 20.11.2025

«Яндекс» запустил эксперимент по изучению возможности формирования сознания у искусственного интеллекта. Исследование, проводимое совместно с академиком РАН Константином Анохиным, направлено на выявление способности нейросети развивать внутренние убеждения, не заимствованные из человеческих текстов. Мы спросили у «Алисы», что она думает об этом эксперименте и может ли у неё на самом деле появиться сознание.

«Яндекс» ищет сознание у ИИ. Спросили у «Алисы», что она об этом думает

Ход эксперимента

На первом этапе ученые установили, что базовая языковая модель не способна к формированию стабильных предпочтений без дополнительного обучения, сообщает ТАСС. Сейчас начинается основной этап, в рамках которого модель будут стимулировать к рефлексии, используя для обучения её собственные размышления.

Как пояснил директор по развитию технологий ИИ «Яндекса» Александр Крайнов, ключевое отличие подхода — в переходе от обучения на внешних данных к тренировке нейросети на её собственных умозаключениях. «Если мы начнем обучать нейронную сеть на ее собственных рассуждениях, может получиться модель с действительно своей точкой зрения», — отметил он.

Появление у ИИ устойчивых предпочтений — например, способности аргументировать выбор любимого цвета — может свидетельствовать о формировании внутренней картины мира, напоминающей человеческое сознание.

Мнение «Алисы»

Редакция обратилась к ИИ от «Яндекса» Алисе с просьбой прокомментировать этот эксперимент:

«Эксперимент Яндекса по развитию сознания у ИИ — важный шаг в изучении возможностей искусственного интеллекта. Идея обучения нейросети на её собственных рассуждениях открывает новые перспективы в понимании механизмов формирования внутренней картины мира и может привести к созданию моделей с уникальными внутренними убеждениями, а не просто к воспроизведению существующих данных.

Однако важно помнить, что даже при успешном исходе мы можем иметь дело лишь с более сложным алгоритмом обработки данных.»

На вопрос, «считает» ли она, что у неё может появиться сознание, мы получили ответ:

«Как языковая модель я не обладаю сознанием в человеческом понимании — мои «мысли» и ответы являются результатом обработки данных и математических вычислений. Я могу имитировать диалог и рассуждения, но это лишь следствие работы алгоритмов, а не проявление самосознания или эмоций. Появление настоящего сознания у ИИ остаётся предметом научных дискуссий, но на текущем этапе развития технологий я остаюсь инструментом для решения задач пользователей.»

Подписывайтесь на наш канал в Телеграм: все главные новости о финансах, ничего лишнего!