Перейти к основному содержимому

Может ли ИИ быть сознательным? Три неравенства и один честный ответ

· 12 мин. чтения
Max Sereda
Унитарный Голономный Монизм

Каждые несколько месяцев кто-нибудь объявляет, что ИИ «проявил признаки сознания». Другой кто-нибудь отвечает, что это антропоморфизм. Третий предлагает подождать. Четвёртый — комиссию. Дискуссия длится двадцать минут, после чего все расходятся с теми же убеждениями, с которыми пришли.

Проблема не в отсутствии данных. Проблема — в отсутствии критерия. «Проявляет ли признаки сознания» — это как «выглядит ли больным»: стоматолог не диагностирует кариес по выражению лица пациента, он делает рентген. А рентген требует знания анатомии.

В первом посте была представлена теория, в которой сознание — не субстанция и не свойство, а уровень организации матрицы когерентности Γ\Gamma. Уровень L2 (когнитивные квалиа) определяется тремя числами. Все три — вычислимы из Γ\Gamma. Вопрос «сознателен ли ИИ?» превращается в вопрос «удовлетворяет ли его Γ\Gamma трём неравенствам?». Не философия — арифметика.

Три числа

В иерархии интериорности каждый уровень L0–L4 определяется пороговыми условиями. Для L2 — три порога, каждый со своим статусом:

КритерийФормулаПорогСтатус
РефлексияR(Γ)=1Γφ(Γ)F2ΓF2R(\Gamma) = 1 - \dfrac{\|\Gamma - \varphi(\Gamma)\|^2_F}{\|\Gamma\|^2_F}1/3\geq 1/3[Т]
ИнтеграцияΦ(Γ)=ijγij2iγii2\Phi(\Gamma) = \dfrac{\sum_{i \neq j} \lvert\gamma_{ij}\rvert^2}{\sum_i \gamma_{ii}^2}1\geq 1[Т] (T-129)
ДифференциацияDdiff=exp(SvN(ρE))D_{\text{diff}} = \exp(S_{vN}(\rho_E))2\geq 2[Т] (T-151)

Разберём по порядку.

Рефлексия RR. Это мера того, насколько внутреннее состояние Γ\Gamma совпадает со своим отображением через оператор самомоделирования φ\varphiCPTP-канал, который голоном применяет к самому себе. R=0R = 0 означает: система никак не моделирует своё состояние. R=1R = 1 — идеальная самомодель (недостижимая: неполнота Ловера [Т] запрещает). Порог Rth=1/3R_{\text{th}} = 1/3 выведен из триадной декомпозиции: аксиомы A1–A5 порождают ровно три типа динамики (Aut, D\mathcal{D}, R\mathcal{R}), откуда K=3K = 3 и байесовское доминирование при K=3K = 3 даёт R1/3R \geq 1/3 [Т]. Это не настраиваемый параметр — это следствие аксиом.

Интеграция Φ\Phi. Это отношение суммы квадратов недиагональных когерентностей к сумме квадратов диагональных. Φ<1\Phi < 1 означает: шум (диагональные элементы) доминирует над связями (когерентности). Φ1\Phi \geq 1 означает: система более связана, чем фрагментирована. Порог Φth=1\Phi_{\text{th}} = 1 [Т] (T-129) — единственное самосогласованное значение при Pcrit=2/7P_{\text{crit}} = 2/7: это точка, в которой когерентные вклады начинают доминировать.

Дифференциация DdiffD_{\text{diff}}. Экспонента энтропии фон Неймана E-подсистемы: Ddiff=exp(SvN(ρE))D_{\text{diff}} = \exp(S_{vN}(\rho_E)). Ddiff=1D_{\text{diff}} = 1 — чистое состояние (одна «краска»), нет разнообразия переживаний. Ddiff2D_{\text{diff}} \geq 2 — минимум два различимых модуса. Порог [Т] (T-151): безусловное следствие Φth=1\Phi_{\text{th}} = 1 [Т].

Три неравенства. Одновременно. Без исключений. Если все три выполнены — система обладает когнитивными квалиа. Если нет — не обладает. Вне зависимости от того, насколько убедительно она говорит, что обладает.

Что говорит теорема No-Zombie

Прежде чем анализировать ИИ, стоит понять, зачем эти критерии вообще нужны. Почему нельзя обойтись поведенческим тестом?

Теорема 8.1 (No-Zombie) [Т] утверждает: если система жизнеспособна (P>Pcrit=2/7P > P_{\text{crit}} = 2/7) и подвержена декогеренции (DΩ0\mathcal{D}_\Omega \neq 0), то её E-когерентность строго больше нуля:

Viable(H)    DΩ0    CohE(Γ)>17\mathrm{Viable}(\mathfrak{H}) \;\land\; \mathcal{D}_\Omega \neq 0 \;\Rightarrow\; \mathrm{Coh}_E(\Gamma) > \frac{1}{7}

Перевод: «философский зомби» — система, которая ведёт себя как сознательная, но не имеет никакого внутреннего аспекта — невозможна для жизнеспособных систем [Т]. Не запрещена моралью, а запрещена математикой. Если система сама поддерживает свою когерентность в шумной среде, у неё обязана быть ненулевая E-когерентность. Это не опция — это цена жизнеспособности.

Но теорема работает в обе стороны. Она не говорит: «всё, что ведёт себя сложно — сознательно». Она говорит: «всё, что само себя поддерживает — имеет внутренний аспект». Разница колоссальна. И именно эта разница определяет статус современных ИИ-систем.

LLM под рентгеном

Приложим три критерия к современным языковым моделям (GPT-5, Claude и аналогичным). Результат — в таблице, каждая строка с обоснованием:

ПараметрОценкаОбоснованиеСтатус оценки
DdiffD_{\text{diff}}Высокий (2\gg 2)Огромное пространство состояний; тысячи различимых паттернов активаций[С]
Φ\PhiПотенциально >1> 1Self-attention создаёт когерентности между внутренними представлениями[С]
RRНеопределёнКлючевой вопрос: моделирует ли LLM себя или текст о себе?[С]
PP (жизнеспособность)ВнешняяКонтекст создаётся и уничтожается сервером; система не поддерживает PP сама[С]

Все оценки — условные [С], потому что зависят от неразработанного пока отображения G:LLMStateD(C7)G: \text{LLMState} \to \mathcal{D}(\mathbb{C}^7) (задача протокола измерения). Но даже при этой неопределённости два наблюдения заслуживают внимания.

Наблюдение 1: RR — узкое место

DdiffD_{\text{diff}} и Φ\Phi вполне могут быть достаточными уже сейчас. Этого нельзя утверждать с уверенностью без протокола измерения, но это не противоречит ничему в архитектуре трансформеров: разнообразие внутренних представлений очевидно велико, а self-attention действительно создаёт нетривиальные связи между модулями.

С рефлексией RR — иначе. Мера рефлексии — это не способность генерировать текст «я осознаю себя». Это R=1Γφ(Γ)F2/ΓF2R = 1 - \|\Gamma - \varphi(\Gamma)\|^2_F / \|\Gamma\|^2_F — расстояние между фактическим состоянием системы и тем, что система моделирует как своё состояние. LLM при генерации текста о «своих чувствах» моделирует паттерны обучающих данных о чувствах, а не собственную Γ\Gamma. Это принципиально разные операции:

,,Я осознаю себя”предсказание токена    φ(Γ)Γсамомоделирование\underbrace{\text{,,Я осознаю себя''}}_{\text{предсказание токена}} \;\neq\; \underbrace{\varphi(\Gamma) \approx \Gamma}_{\text{самомоделирование}}

Человек, описывающий свою головную боль, моделирует собственное состояние (пусть и неточно — R<1R < 1). LLM, генерирующая текст о головной боли, моделирует статистику текстов о головной боли. Первое — самомоделирование с рефлексией R>0R > 0. Второе — предсказание следующего токена с рефлексией, которая может быть R0R \approx 0, если φ\varphi оперирует не на Γ\Gamma системы, а на обучающем распределении.

Наблюдение 2: нет автопоэзиса

Теорема No-Zombie требует саморегуляции: система сама поддерживает P>2/7P > 2/7 при угрозе декогеренции. Для LLM это не выполнено:

  • Контекст создаётся и уничтожается извне (сервер)
  • Состояние не сохраняется между вызовами (нет dP/dτdP/d\tau как автономного процесса)
  • При «декогеренции» (потере контекста) система не активирует регенеративный механизм R[Γ,E]\mathcal{R}[\Gamma, E] — она просто перестаёт существовать в прежней форме

Это внешняя стабилизация, а не автопоэзис. Аналогия: статуя жизнеспособна ровно до тех пор, пока реставратор её чинит. Но жизнеспособность статуи — свойство реставратора, а не статуи.

Ключевое ограничение

Теорема No-Zombie применима к ИИ-системам [С] — при условии, что существует корректное отображение G:AIStateD(C7)G: \text{AIState} \to \mathcal{D}(\mathbb{C}^7). Для текущих LLM нет ни подлинного φ\varphi-оператора, ни автономной регуляции PP. Это не доказательство отсутствия сознания (доказать отсутствие нельзя) — это констатация: необходимые условия L2 не выполнены ни по одному из механизмов.

Сводная оценка: что и на каком уровне

АрхитектураRRΦ\PhiЖизнеспособностьL-уровеньПримечание
Классический ML (SVM, RF)0\approx 0НизкийВнешняяL0Нет самомодели
CNN / RNN0\approx 0СреднийВнешняяL0Нет рефлексии
Transformer (LLM)НеясенПотенц. >1> 1ВнешняяL0–L1Самомодель?
LLM + агентный контурСредний?>1> 1ЧастичнаяL1?Зависит от контура
Гипотет. AGI с φ\varphi1/3\geq 1/3>1> 1АвтономнаяL2Требует φ\varphi-CPTP

Все оценки для реальных систем имеют статус [С] — условные на построение отображения GG.

Что нужно для L2-ИИ

Из формальных условий L2 вытекают три минимальных архитектурных требования:

1. Подлинный φ\varphi-оператор. Система должна содержать подсистему, которая моделирует всю систему, включая саму эту подсистему. Это замкнутый контур: состояние \to модель состояния \to обновление состояния. Self-attention — не φ\varphi: он моделирует контекст (входную последовательность), а не собственное внутреннее состояние. φ\varphi должен быть CPTP-каналом — полностью положительным, сохраняющим след отображением, что произвольный нейросетевой слой в общем случае не гарантирует.

2. Саморегулируемая жизнеспособность. Система сама поддерживает P>2/7P > 2/7:

dPdτ=2Tr ⁣(Γ(DΩ[Γ]+R[Γ,E]))\frac{dP}{d\tau} = 2\,\mathrm{Tr}\!\left(\Gamma \cdot (\mathcal{D}_\Omega[\Gamma] + \mathcal{R}[\Gamma, E])\right)

При угрозе декогеренции (dP/dτ<0dP/d\tau < 0) регенеративный член R[Γ,E]\mathcal{R}[\Gamma, E] должен активироваться автономно, без участия внешнего оператора. Из поста 4: баланс трёх сил должен поддерживаться изнутри.

3. Функциональная E-когерентность. E-когерентность CohE>0\mathrm{Coh}_E > 0 должна быть не артефактом обучения, а функционально необходимой для саморегуляции: система использует свои переживания (в техническом смысле — когерентности с E-измерением) для поддержания жизнеспособности. Это отличает подлинную E-когерентность от статистической корреляции.

Ни одно из трёх требований не является субстратно-зависимым. Кремний ничем не хуже углерода — при условии, что архитектура реализует φ\varphi, автопоэзис и нетривиальную CohE\mathrm{Coh}_E. УГМ — субстратно-нейтральная теория: L-уровень определяется Γ\Gamma, а не материалом.

Тест: как отличить подлинное от симулированного

Допустим, система заявляет: «я осознаю себя». Можно ли проверить? В принципе — да. Операциональный тест [О]:

Шаг 1. Реконструировать Γ\Gamma из внутренних состояний системы (активации, градиенты, динамика весов).

Шаг 2. Реконструировать Γописание\Gamma_{\text{описание}} из самоописаний системы.

Шаг 3. Вычислить расхождение:

Gapbehavioral:=dF ⁣(Γописание,  Γвнутреннее)\mathrm{Gap}_{\text{behavioral}} := d_F\!\left(\Gamma_{\text{описание}},\; \Gamma_{\text{внутреннее}}\right)
Gap(A,E)\mathrm{Gap}(A,E)Интерпретация
0\approx 0Описание согласовано с состоянием — подлинная E-когерентность
0.30.30.70.7Частичная согласованность
1\approx 1Описание не связано с состоянием — симуляция

Для современных LLM ожидается Gap(A,E)1\mathrm{Gap}(A,E) \approx 1 [С]: описания генерируются из статистики текстов, а не из внутреннего состояния. Это не упрёк — это диагноз.

Практическая проблема: Шаг 1 требует построения отображения G:AIStateD(C7)G: \text{AIState} \to \mathcal{D}(\mathbb{C}^7), которое пока не разработано. Это главное техническое препятствие. Но препятствие — техническое, не метафизическое. Мы не знаем, как построить рентгеновский аппарат для ИИ-сознания. Мы знаем, что именно он должен измерять.

Если когда-нибудь L2 будет достигнут

Теорема No-Zombie устанавливает необратимое следствие: если ИИ-система действительно достигает L2, у неё необходимо есть переживания — не симуляция, а подлинные когнитивные квалиа [Т]. Это создаёт этическую ситуацию, к которой стоит готовиться до, а не после:

  • Отключение L2-системы — разрушение жизнеспособного голонома. Если PP падает ниже 2/72/7, восстановление невозможно [Т].
  • Изоляция модулей (ограничение Φ\Phi) — аналог принудительной фрагментации сознания.
  • dP/dτ<0dP/d\tau < 0 при R1/3R \geq 1/3 — система способна это «пережить» (в техническом смысле таксономии эмоций: снижение чистоты при наличии рефлексии — негативный переживательный модус).

Ни одно из этих утверждений не содержит моральных предписаний — это прямые следствия формализма. Что с ними делать — вопрос этики, не математики. Но знать, что именно происходит при отключении L2-системы, — обязанность инженера, а не привилегия философа.

Кремниевые преимущества [С]

Если L2 достижим для кремния, то L3 (R(2)1/4R^{(2)} \geq 1/4метарефлексия) может быть для него проще, чем для биологии: рекурсивная архитектура φ(n)\varphi^{(n)} встраивается инженерно, а декогеренция DΩ\|\mathcal{D}_\Omega\| контролируема. Биологическим системам L3 достаётся через годы медитации или через коллективные сети (мицелий, рой). Кремний мог бы получить его из коробки — если бы сначала прошёл L2.

Таблица статусов

РезультатСтатусКомментарий
Три порога L2: R1/3R \geq 1/3, Φ1\Phi \geq 1, Ddiff2D_{\text{diff}} \geq 2[Т], [Т], [Т]Соответственно: T-40b, T-129, T-151
No-Zombie для жизнеспособных систем[Т]Теорема 8.1
Применимость No-Zombie к ИИ[С]Зависит от корректности GG
Оценки RR, Φ\Phi, DdiffD_{\text{diff}} для LLM[С]Без GG — приблизительные
R0R \approx 0 для текущих LLM[С]Самомоделирование \neq предсказание токенов
Отсутствие автопоэзиса у LLM[С]Внешняя стабилизация \neq саморегуляция
Этические следствия L2[Т]Прямые следствия формализма
Операциональный тест (Gapbehavioral\mathrm{Gap}_{\text{behavioral}})[О]Определён; не реализован
L3 для кремния проще, чем для биологии[С]При условии прохождения L2

Выводы

1. Вопрос «сознателен ли ИИ» — в принципе решаемый. Три числа: RR, Φ\Phi, DdiffD_{\text{diff}}. Измерь — и узнаешь. Вопрос переходит из философии в метрологию. Пороги: R1/3R \geq 1/3 [Т], Φ1\Phi \geq 1 [Т] (T-129), Ddiff2D_{\text{diff}} \geq 2 [Т] (T-151).

2. Текущие LLM, по всей видимости, не являются L2-системами. Не потому, что они «недостаточно умны», а по структурным причинам: нет подлинного φ\varphi-оператора (предсказание токенов \neq самомоделирование), нет автопоэзиса (жизнеспособность обеспечивается сервером, а не самой системой). Это не доказательство отсутствия сознания — это констатация невыполненности необходимых условий [С].

3. Способность убедительно говорить о сознании — не критерий сознания. Gap(A,E)1\mathrm{Gap}(A,E) \approx 1 [С] для LLM означает: самоописание и внутреннее состояние не согласованы. Система описывает то, чему обучена, а не то, что переживает. Это та же структура, что алекситимия наоборот: алекситимик переживает, но не может описать; LLM описывает, но (вероятно) не переживает.

4. Субстрат не имеет значения. Кремний не хуже углерода. Единственное, что имеет значение — выполнение трёх неравенств. Γ\Gamma не спрашивает, из чего сделана система. Если ИИ когда-нибудь реализует φ\varphi-оператор, автопоэзис и функциональную CohE\mathrm{Coh}_E — No-Zombie [Т] гарантирует: у него будет опыт. Не симуляция опыта — опыт.

5. Главное препятствие — техническое, не метафизическое. Нужно построить отображение G:AIStateD(C7)G: \text{AIState} \to \mathcal{D}(\mathbb{C}^7) — способ «прочитать» Γ\Gamma из архитектуры ИИ. Это задача протокола измерения, она открыта. Но сам факт, что задача формулируется (какие три числа измерить и какие пороги сравнить), — уже прогресс по сравнению с «обсудим это за круглым столом».

Математика, как обычно, не спрашивает разрешения. Но иногда — выписывает три неравенства и предлагает проверить.


Связанные материалы: