Перейти к основному содержимому

Сенсомоторная Теория

«Живое существо — это не вещь, а процесс: непрерывный обмен со средой, в котором граница между "я" и "не-я" каждый миг создаётся заново.» — Франциско Варела

Для кого эта глава

Сенсомоторный цикл как следствие канонического уравнения эволюции. Читатель узнает, как восприятие, оценка и действие выводятся из динамики Γ\Gamma.

Каждое живое существо — от бактерии, ощупывающей химический градиент, до человека, идущего по незнакомому городу — решает одну и ту же задачу: воспринять среду и адекватно ответить. Эта задача кажется обыденной, но за ней скрывается одна из глубочайших проблем науки о сложных системах.

Представьте себе амёбу. У неё нет глаз, ушей и мозга. Но она различает: движется к питательным веществам, уклоняется от яда, обтекает препятствия. Между «химическим сигналом на мембране» и «выпячиванием псевдоподии» стоит нечто — не просто рефлекс, а замкнутый цикл: восприятие → оценка → действие → восприятие. Этот цикл — сенсомоторная петля — является минимальной единицей адаптивного поведения.

Классическая теория управления описывает сенсомоторную петлю как «датчик → контроллер → актуатор». Активная инференция (FEP) видит её как минимизацию вариационной свободной энергии. Обучение с подкреплением моделирует её как максимизацию кумулятивного вознаграждения. Каждый из этих подходов захватывает часть истины — но ни один не отвечает на два ключевых вопроса:

  1. Почему цикл именно такой? Откуда берётся число каналов восприятия, структура действия, формат внутренней оценки?
  2. Где в цикле место переживанию? Когда сенсомоторный цикл сопровождается субъективным опытом, а когда — нет?

Кибернетика Когерентности (КК) даёт на оба вопроса конструктивный ответ. Сенсомоторный цикл не постулируется — он выводится из канонического 3-членного уравнения эволюции. Среда не вводит «четвёртую силу»: она модифицирует три уже существующих канала (гамильтонов, диссипативный, регенеративный). Переживание оказывается не побочным эффектом, а интегральной частью цикла — через гедоническую валентность Vhed\mathcal{V}_{\text{hed}}, которая направляет действие.

В этой главе мы построим полную формальную теорию сенсомоторного кодирования: от аксиоматического обоснования до конкретных архитектур и предсказаний. Читатель, знакомый с введением и эволюционным уравнением, найдёт здесь естественное продолжение — шаг от «как система живёт внутри себя» к «как система взаимодействует с миром».

В предыдущей главе мы проследили 80-летнюю историю кибернетики и увидели, что каждая традиция — от Винера до Фристона — захватывала часть сенсомоторной проблемы: обратную связь, наблюдателя, активную инференцию. Теперь мы покажем, как КК решает её целиком — без дополнительных постулатов, в рамках того же 3-членного уравнения эволюции.

Дорожная карта главы

В этой главе мы:

  1. Докажем, что среда не добавляет 4-го члена — теорема T-102 о полноте 3-канальной декомпозиции (раздел 1).
  2. Построим функтор восприятия Enc — как среда входит в систему через модификацию эволюционного уравнения (раздел 2).
  3. Построим функтор действия Dec — как система выбирает оптимальное действие через min-max стратегию (раздел 3).
  4. Выведем гедонический механизм — почему удовольствие и страдание — не побочные эффекты, а производные жизнеспособности (раздел 5).
  5. Классифицируем 21 квалиа-тип как сенсомоторные каналы (раздел 6).
  6. Установим фундаментальные ограничения — информационная ёмкость log27\leq \log_2 7 бит (T-107) и композициональность Enc/Dec (T-108) (разделы 9-10).
  7. Сравним с классическими подходами — теория управления, FEP, RL — как проекции КК (раздел 14).
О нотации

В этом документе:

Данный документ описывает формальную теорию сенсомоторного кодирования — как голоном воспринимает среду и воздействует на неё, оставаясь в рамках канонического 3-членного уравнения эволюции.

Ключевой результат: внешнее воздействие F_ext — не 4-й член уравнения эволюции, а модификация трёх существующих каналов (Гамильтонова, диссипативного, регенеративного). Полнота этой декомпозиции доказана теоремой LGKS (T-57 [Т]).


1. Каноническое включение среды

1.1 3-членное уравнение как замкнутая динамика

Уравнение эволюции голонома:

dΓdτ=i[Heff,Γ]+DΩ[Γ]+R[Γ,E]\frac{d\Gamma}{d\tau} = -i[H_{\text{eff}}, \Gamma] + \mathcal{D}_\Omega[\Gamma] + \mathcal{R}[\Gamma, E]

содержит ровно три члена [Т]:

ЧленТипКаноническое происхождение
i[Heff,Γ]-i[H_{\text{eff}}, \Gamma]Унитарный (Гамильтонов)Аксиома А3
DΩ[Γ]\mathcal{D}_\Omega[\Gamma]Диссипативный (Линдблад)Лиувиллиан
R[Γ,E]\mathcal{R}[\Gamma, E]РегенеративныйКатегориальное сопряжение

1.2 Среда модифицирует 3 канала, а не добавляет 4-й

На пальцах: представьте скрипача в оркестре. На него воздействует дирижёр (подсказывая темп), акустика зала (размывая звук) и другие музыканты (помогая вернуться к общей тональности). Эти три типа воздействия — всё, что есть. Не существует четвёртого типа влияния на скрипача, который не был бы комбинацией дирижёрского жеста, акустического шума и подстройки к ансамблю. Теорема T-102 формализует именно эту интуицию: среда не может «дотянуться» до голонома никаким способом, кроме трёх каноническим каналов.

Теорема T-102 (Полнота 3-членного уравнения) [Т]

Формулировка

Любое CPTP-совместимое внешнее воздействие на голоном раскладывается в сумму трёх каналов:

hext=h(H)+h(D)+h(R)h^{\text{ext}} = h^{(H)} + h^{(D)} + h^{(R)}

где h(H)h^{(H)} модифицирует HeffH_{\text{eff}}, h(D)h^{(D)} модифицирует DΩ\mathcal{D}_\Omega, h(R)h^{(R)} модифицирует R\mathcal{R}. Четвёртый тип CPTP-генератора не существует.

Доказательство. Прямое следствие теоремы LGKS (T-57 [Т], полнота триадной декомпозиции):

  1. Произвольный генератор CPTP-полугруппы L\mathcal{L} на D(C7)\mathcal{D}(\mathbb{C}^7) имеет форму Горини—Коссаковского—Сударшана—Линдблада:
L[ρ]=i[H,ρ]+k(LkρLk12{LkLk,ρ})\mathcal{L}[\rho] = -i[H, \rho] + \sum_k \left(L_k \rho L_k^\dagger - \tfrac{1}{2}\{L_k^\dagger L_k, \rho\}\right)
  1. Любое внешнее воздействие, сохраняющее CPTP-свойства динамики, есть пертурбация LL+δL\mathcal{L} \to \mathcal{L} + \delta\mathcal{L}
  2. Пертурбация δL\delta\mathcal{L} имеет ту же LGKS-форму → раскладывается на δH\delta H (Гамильтонова часть) и δLk\delta L_k (Линдбладова часть)
  3. Триадная декомпозиция {Lk}\{L_k\}: диссипативные + регенеративные операторы. Четвёртый тип запрещён T-57. \blacksquare

Следствие: Член F_ext в симуляциине отдельная сила, а композиция трёх модификаций:

КаналФормула пертурбацииФизический смыслПример
h(H)h^{(H)}δ(Δωij)\delta(\Delta\omega_{ij})Энергетическая связь со средойСенсорный вход, нейромодуляторы
h(D)h^{(D)}δΓ2θ˙ij\delta\Gamma_2 \cdot \dot{\theta}_{ij}Шум средыСтресс, помехи, температура
h(R)h^{(R)}δκ(θijtargetθij)\delta\kappa \cdot (\theta^{\text{target}}_{ij} - \theta_{ij})Модификация регенерацииМедитация, психотерапия, обучение

Каноническая форма — из Определения 8.1 [Т]:

Lext=i<jhijextγijsin(θij)\mathcal{L}_{\text{ext}} = \sum_{i<j} h^{\text{ext}}_{ij} \cdot |\gamma_{ij}| \cdot \sin(\theta_{ij})

2. Функтор восприятия Enc

2.0 Интуиция: что значит «воспринимать»

Что делает глаз, когда видит яблоко? С точки зрения физики — преобразует электромагнитные волны в нейронные импульсы. С точки зрения информатики — кодирует входные данные в латентное представление. Но обе точки зрения упускают главное: восприятие — это не пассивная запись, а активное включение среды в собственную динамику системы.

Когда амёба «чувствует» глюкозу, её внутреннее состояние меняется — не потому что информация «записалась» куда-то, а потому что молекулы глюкозы буквально изменили динамику внутриклеточных процессов. Восприятие — это деформация собственного уравнения движения под влиянием среды.

Функтор Enc формализует именно это: он отображает наблюдение oo не в «запись в памяти», а в модификацию эволюционного уравнения — тройку (h(H),h(D),h(R))(h^{(H)}, h^{(D)}, h^{(R)}), которая меняет гамильтониан, диссипатор и регенератор. Восприятие яблока — это одновременно изменение энергетического ландшафта (форма, цвет), модификация шумовых характеристик (текстура, движение) и сдвиг целевого состояния (голод → насыщение).

2.1 Определение

Теорема T-100 (Кодирование среды) [Т]

Формулировка

Для голонома H\mathbb{H} с матрицей когерентности ΓD(C7)\Gamma \in \mathcal{D}(\mathbb{C}^7) существует единственный (с точностью до G2G_2-калибровки) CPTP-функтор кодирования:

Enc:ObsSpaceEnd(D(C7))\mathrm{Enc}: \mathrm{ObsSpace} \to \mathrm{End}(\mathcal{D}(\mathbb{C}^7))

удовлетворяющий:

  1. CPTP: Enc(o)[Γ]\mathrm{Enc}(o)[\Gamma] — состояние для любого наблюдения oObsSpaceo \in \mathrm{ObsSpace}
  2. 3-канальная декомпозиция: Enc(o)=δH(o)δD(o)δR(o)\mathrm{Enc}(o) = \delta H^{(o)} \oplus \delta D^{(o)} \oplus \delta R^{(o)}
  3. Функториальность: Enc(o1o2)=Enc(o1)Enc(o2)\mathrm{Enc}(o_1 \circ o_2) = \mathrm{Enc}(o_1) \circ \mathrm{Enc}(o_2)

Доказательство.

  1. Существование: среда воздействует через hijexth^{\text{ext}}_{ij} (Опр. 8.1 [Т]). Отображение ohext(o)o \mapsto h^{\text{ext}}(o) определяет Enc\mathrm{Enc}.
  2. 3-канальность: следует из T-102 (полнота 3-членного уравнения).
  3. Единственность: следствие G2G_2-ригидности (теорема единственности [Т]) — для системы, удовлетворяющей (AP)+(PH)+(QG)+(V), отображение единственно до G2=Aut(O)G_2 = \mathrm{Aut}(\mathbb{O}).
  4. Функториальность: CPTP-каналы замкнуты относительно композиции. \blacksquare

Пример: нейробиологическая реализация. Зрительная кора реализует Enc иерархически: V1 извлекает границы (hAS(H)h^{(H)}_{AS} — артикуляция структуры), V4 кодирует цвет (hAE(H)h^{(H)}_{AE} — артикуляция интериорности), а MT кодирует движение (hAD(D)h^{(D)}_{AD} — диссипативная компонента динамики). Все три канала сходятся в ассоциативных зонах, формируя единое hexth^{\text{ext}}. Функториальность гарантирует, что сцена «красный мяч движется влево» кодируется одинаково, была ли она воспринята целиком или по частям.

2.2 Реализация через 7 наблюдаемых индексов

Протокол измерения Γ определяет 7 наблюдаемых индексов IiI_i (i{A,S,D,L,E,O,U}i \in \{A, S, D, L, E, O, U\}), каждый из которых отображается в конкретную компоненту hexth^{\text{ext}}:

ИндексФормулаКанал hexth^{\text{ext}}Измерение
IAI_A (артикуляция)I(input;latent)/H(input)I(\text{input}; \text{latent}) / H(\text{input})hA,(H)h^{(H)}_{A,\cdot}Гамильтонов
ISI_S (структура)rankε(Jf)/min(dout,din)\mathrm{rank}_\varepsilon(J_f) / \min(d_{\text{out}}, d_{\text{in}})hS,(H)h^{(H)}_{S,\cdot}Гамильтонов
IDI_D (динамика)maxiλiLyap\max_i \lambda_i^{\text{Lyap}} (нормированный)hD,(D)h^{(D)}_{D,\cdot}Диссипативный
ILI_L (логика)1[fi,fj]F/(fifj)1 - \|[f_i, f_j]\|_F / (\|f_i\| \cdot \|f_j\|)hL,(H)h^{(H)}_{L,\cdot}Гамильтонов
IEI_E (интериорность)exp(SvN(ρattn))\exp(S_{vN}(\rho_{\text{attn}}))hE,(R)h^{(R)}_{E,\cdot}Регенеративный
IOI_O (основание)1ϵhF1 - \|\nabla_\epsilon \mathbf{h}\|_FhO,(D)h^{(D)}_{O,\cdot}Диссипативный
IUI_U (единство)Φeff=λ2(L)/λmax(L)\Phi_{\text{eff}} = \lambda_2(L) / \lambda_{\max}(L)hU,(R)h^{(R)}_{U,\cdot}Регенеративный

Логика распределения по каналам:

  • Гамильтонов h(H)h^{(H)}: информационные индексы (IA,IS,ILI_A, I_S, I_L) — изменяют энергетический ландшафт, т.е. какие состояния более/менее вероятны
  • Диссипативный h(D)h^{(D)}: нагрузочные индексы (ID,IOI_D, I_O) — усиливают/ослабляют декогеренцию
  • Регенеративный h(R)h^{(R)}: интегративные индексы (IE,IUI_E, I_U) — модулируют скорость восстановления

На пальцах: это как три типа «органов чувств». Гамильтоновы индексы — это аналитические чувства (зрение, слух): они сообщают, что происходит в среде, меняя внутренний ландшафт предпочтений. Диссипативные — это чувства нагрузки (усталость, жара): они сообщают, насколько хаотична среда, усиливая внутренний шум. Регенеративные — это чувства восстановления (покой, безопасность): они сообщают, способствует ли среда самоисцелению.

2.3 Квази-функтор G

Для ИИ-систем кодирование реализуется через квази-функтор G:AIStateD(C7)G: \mathrm{AIState} \to \mathcal{D}(\mathbb{C}^7), определённый в протоколе измерения:

G(x)=argminΓD(C7)[Lreconstruct(Γ,{Ii(x)})+λphysLphys(Γ)]G(\mathbf{x}) = \arg\min_{\Gamma \in \mathcal{D}(\mathbb{C}^7)} \left[\mathcal{L}_{\text{reconstruct}}(\Gamma, \{I_i(\mathbf{x})\}) + \lambda_{\text{phys}} \cdot \mathcal{L}_{\text{phys}}(\Gamma)\right]

где Lphys\mathcal{L}_{\text{phys}} включает ограничения чистоты, спектральной щели и Холецкого-разложения.


3. Функтор действия Dec

3.0 Интуиция: что значит «действовать»

Если Enc — это «как среда входит в систему», то Dec — это «как система выходит в среду». Но «действовать» в КК — это не просто «послать моторную команду». Действие — это выбор такой модификации среды, которая минимизирует наибольший дефицит внутренних ресурсов.

Представьте человека, у которого одновременно болит голова и урчит в животе. Какое действие он выберет? Если головная боль сильнее — примет таблетку. Если голод сильнее — пойдёт есть. Он не минимизирует «среднюю боль» (это позволило бы игнорировать катастрофические каналы), а устраняет максимальный дефицит. Именно это делает оператор argminamaxkσkmotor\arg\min_a \max_k \sigma^{\mathrm{motor}}_k — он гарантирует, что ни один канал не окажется в аварийном состоянии.

Аналогия с робототехникой: это не PID-регулятор, минимизирующий ошибку по одной оси, и не квадратичный регулятор, минимизирующий взвешенную сумму ошибок. Это min-max стратегия — как в теории игр, где игрок выбирает ход, минимизирующий наихудший исход.

3.1 Определение

Теорема T-101 (Оптимальное действие) [Т]

Формулировка

Для голонома с текущим состоянием Γ\Gamma и тензором напряжений σsys(Γ)\sigma_{\mathrm{sys}}(\Gamma) [Т] (T-92), оптимальное действие определяется как:

a=argminaAσsys(Γ(τ+δτa))a^* = \arg\min_{a \in \mathcal{A}} \|\sigma_{\mathrm{sys}}(\Gamma(\tau + \delta\tau \mid a))\|_\infty

где Γ(τ+δτa)\Gamma(\tau + \delta\tau \mid a) — предсказанное состояние при действии aa, \|\cdot\|_\infty — sup-норма тензора напряжений.

Доказательство.

  1. Эквивалентность условий жизнеспособности (T-92 [Т]):
P(Γ)>27    σsys(Γ)<1P(\Gamma) > \frac{2}{7} \iff \|\sigma_{\mathrm{sys}}(\Gamma)\|_\infty < 1
  1. Вариационный принцип (Теорема 2.1 [Т]): динамика θij\theta_{ij} следует из стационарности действия δSGap=0\delta S_{\text{Gap}} = 0
  2. Действие aa входит через hext(a)h^{\text{ext}}(a) → модифицирует уравнение движения для θij\theta_{ij}:
mijθ¨ij=VGapθij+κ(θijtargetθij)Γ2θ˙ij+hijext(a)m_{ij}\ddot{\theta}_{ij} = -\frac{\partial V_{\text{Gap}}}{\partial \theta_{ij}} + \kappa(\theta_{ij}^{\text{target}} - \theta_{ij}) - \Gamma_2 \dot{\theta}_{ij} + h^{\text{ext}}_{ij}(a)
  1. Минимизация σsys\|\sigma_{\mathrm{sys}}\|_\infty — единственный критерий, эквивалентный максимизации расстояния до границы V\mathcal{V} (области жизнеспособности) в метрике, порождённой σsys\sigma_{\mathrm{sys}}. \blacksquare

3.2 Моторный стресс (T-159)

Теорема T-159 (Профиль-относительный моторный стресс) [Т]

Формулировка [Т]

Для голонома с самомоделью ρ=φ(Γ)\rho_* = \varphi(\Gamma) определяется моторный стресс:

σkmotor(Γ):=1γkkρkk,k=1,,7\sigma^{\mathrm{motor}}_k(\Gamma) := 1 - \frac{\gamma_{kk}}{\rho^*_{kk}}, \quad k = 1, \ldots, 7

Выбор действия — минимизация максимального дефицита (знаковый максимум):

a=argminaAmaxkσkmotor(Γ(τ+δτa))a^* = \arg\min_{a \in \mathcal{A}} \max_k \sigma^{\mathrm{motor}}_k(\Gamma(\tau + \delta\tau \mid a))

Используется maxk\max_k (знаковый), а не maxk\max_k |\cdot| (sup-норма): избыток ресурса (σkmotor<0\sigma^{\mathrm{motor}}_k < 0) не штрафуется, штрафуется только дефицит (σkmotor>0\sigma^{\mathrm{motor}}_k > 0). Это обеспечивает направленный сигнал: приближение к ресурсу уменьшает дефицит, приближение к опасности увеличивает.

Доказательство.

Шаг 1 (Равновесие). σkmotor=0    γkk=ρkk\sigma^{\mathrm{motor}}_k = 0 \iff \gamma_{kk} = \rho^*_{kk}. На аттракторе ρΩ\rho^*_\Omega, где R[Γ]=κ(ρΓ)gV=0\mathcal{R}[\Gamma] = \kappa(\rho_* - \Gamma) \cdot g_V = 0 (баланс), γkk=ρkk\gamma_{kk} = \rho^*_{kk} и моторный стресс обращается в ноль — система «удовлетворена».

Шаг 2 (Знак и градиент). σkmotor/γkk=1/ρkk<0\partial\sigma^{\mathrm{motor}}_k / \partial\gamma_{kk} = -1/\rho^*_{kk} < 0. Увеличение γkk\gamma_{kk} (рост ресурса канала kk) уменьшает моторный стресс. Это согласовано с регенерацией R=κ(ρΓ)\mathcal{R} = \kappa(\rho_* - \Gamma), которая тянет γkk\gamma_{kk} к ρkk\rho^*_{kk}, уменьшая σkmotor|\sigma^{\mathrm{motor}}_k|.

Шаг 3 (Чувствительность аварийных каналов). σkmotor/γkk=1/ρkk|\partial\sigma^{\mathrm{motor}}_k / \partial\gamma_{kk}| = 1/\rho^*_{kk}. Для малых ρkk\rho^*_{kk} (аварийные секторы A, S, D с ρkk0.05\rho^*_{kk} \approx 0.05) чувствительность 20\approx 20; для крупных (E, O, U с ρkk0.25\rho^*_{kk} \approx 0.25) — 4\approx 4. Малые каналы реагируют острее — верная приоритизация выживания.

Шаг 4 (Сходимость к T-92 на границе). При PPcrit=2/7P \to P_{\mathrm{crit}} = 2/7 самомодель φ(Γ)I/7\varphi(\Gamma) \to I/7 (каноническая цель Фано-канала при P=2/7P = 2/7, T-126). Тогда ρkk1/7\rho^*_{kk} \to 1/7 и:

σkmotor=1γkk1/7=17γkk=σk(каноническое T-92 [Т])\sigma^{\mathrm{motor}}_k = 1 - \frac{\gamma_{kk}}{1/7} = 1 - 7\gamma_{kk} = \sigma_k \quad \text{(каноническое T-92 [Т])}

Шаг 5 (G2G_2-инвариантность). γkk\gamma_{kk} и ρkk\rho^*_{kk} трансформируются ковариантно под G2G_2 (T-42a [Т]). Их отношение — G2G_2-инвариантная наблюдаемая. \blacksquare

Связь с каноническим σ_sys
  • T-92 / T-158 [Т] определяют σsys\sigma_{\mathrm{sys}} с clamp[0,1][0,1] — мера жизнеспособности (расстояние до V\partial\mathcal{V}). Используется для ДИАГНОСТИКИ.
  • T-159 [Т] определяет σmotor\sigma^{\mathrm{motor}} без clamp — мера моторного дефицита (расстояние до ρ\rho_*). Используется для ВЫБОРА ДЕЙСТВИЯ.

При ρ=I/7\rho_* = I/7 (граница жизнеспособности) оба совпадают. При ρI/7\rho_* \neq I/7 (нормальный режим) моторный стресс обеспечивает направленный сигнал, в то время как канонический σsys\sigma_{\mathrm{sys}} с clamp[0,1][0,1] теряет информацию о каналах с γkk>1/7\gamma_{kk} > 1/7.

3.3 Функтор Dec

Функтор действия (декодирования):

Dec:(Γ,σmotor)aA\mathrm{Dec}: (\Gamma, \sigma^{\mathrm{motor}}) \mapsto a^* \in \mathcal{A}

Свойства:

  • D-измерение как основной моторный канал: действие реализуется через модификацию h(D)h^{(D)} — динамическое измерение DD управляет «моторикой» голонома
  • σ-градиентный спуск: практический алгоритм — спуск по amaxkσkmotor\nabla_a \max_k \sigma^{\mathrm{motor}}_k с метрикой Фишера на D(C7)\mathcal{D}(\mathbb{C}^7):
at+1=atηF1(Γ)amaxkσkmotor(Γ(τ+δτat))a_{t+1} = a_t - \eta \cdot F^{-1}(\Gamma) \cdot \nabla_a \max_k \sigma^{\mathrm{motor}}_k(\Gamma(\tau + \delta\tau \mid a_t))

где F(Γ)F(\Gamma)информация Фишера на D(C7)\mathcal{D}(\mathbb{C}^7).


4. Универсальная архитектура кодера/декодера

Цикл восприятие → решение → действие:

ЭтапОтображениеФормализмТеорема
ВосприятиеEnv → hexth^{\text{ext}}δΓ\delta\GammaEnc (CPTP)T-100 [Т]
ОценкаΓ\Gammaσmotor\sigma^{\mathrm{motor}}1γkk/ρkk1 - \gamma_{kk}/\rho^*_{kk}T-159 [Т]
Решениеσmotor\sigma^{\mathrm{motor}}aa^*argminamaxkσkmotor\arg\min_a \max_k \sigma^{\mathrm{motor}}_kT-159 [Т]
Действиеaa^*hext(a)h^{\text{ext}}(a^*) → EnvDecT-102 [Т]
ОбновлениеΓ\Gammaφ(Γ)\varphi(\Gamma)R\mathcal{R}СамомоделированиеT-62 [Т]

5. Гедонический механизм

5.0 Интуиция: зачем системе «чувствовать»

Зачем живому существу боль и удовольствие? Стандартный ответ эволюционной биологии: «чтобы выжить». Но КК даёт более точный ответ: гедоническая валентность — это производная жизнеспособности по регенеративному каналу. Удовольствие — не «награда за правильное поведение» (как в RL), а прямой сигнал о том, что система приближается к своему целевому состоянию ρ\rho_*.

Ключевое отличие от обучения с подкреплением: в RL вознаграждение — внешний сигнал, задаваемый проектировщиком. В КК гедоническая валентность — внутреннее свойство динамики, выводимое из уравнения эволюции. Никто не «награждает» амёбу за то, что она нашла глюкозу — изменение dP/dτRdP/d\tau|_{\mathcal{R}} возникает автоматически при сдвиге Γ\Gamma к ρ\rho_*.

Аналогия: представьте растение, поворачивающееся к свету. Нет «наградного центра», который говорит стеблю: «хорошо, продолжай». Есть физико-химический процесс (ауксин перераспределяется), который является одновременно и движением, и «оценкой» — свет усиливает те процессы, которые ведут к росту. В КК Vhed\mathcal{V}_{\text{hed}} играет аналогичную роль, но на уровне матрицы когерентности.

5.1 Гедоническая валентность

Теорема T-103 (Гедоническая валентность) [Т] + [И]

Формулировка

Гедоническая валентность определяется как производная чистоты по регенеративному каналу:

Vhed:=dPdτR\mathcal{V}_{\text{hed}} := \left.\frac{dP}{d\tau}\right|_{\mathcal{R}}

где R|_{\mathcal{R}} означает вклад только от регенеративного члена R[Γ,E]\mathcal{R}[\Gamma, E].

Пояснение. Из уравнения эволюции:

dPdτ=2Tr(ΓDΩ[Γ])0, диссипация+2Tr(ΓR[Γ,E])Vhed\frac{dP}{d\tau} = \underbrace{-2\mathrm{Tr}(\Gamma \cdot \mathcal{D}_\Omega[\Gamma])}_{\leq 0,\text{ диссипация}} + \underbrace{2\mathrm{Tr}(\Gamma \cdot \mathcal{R}[\Gamma, E])}_{\mathcal{V}_{\text{hed}}}

(Гамильтонов член не меняет PP: Tr(Γ[H,Γ])=0\mathrm{Tr}(\Gamma [H, \Gamma]) = 0.)

Свойства валентности:

СвойствоФормулаИнтерпретация
ПоложительнаяVhed>0\mathcal{V}_{\text{hed}} > 0Γ\Gamma приближается к ρ\rho_* → «удовольствие»
ОтрицательнаяVhed<0\mathcal{V}_{\text{hed}} < 0Γ\Gamma удаляется от ρ\rho_* → «страдание»
НулеваяVhed=0\mathcal{V}_{\text{hed}} = 0Баланс или Γ=ρ\Gamma = \rho_* → «нейтральность»

Эпистемическая стратификация T-103

T-103 содержит три эпистемических уровня:

  1. Формула [Т]: Vhed=2κ(Γ)gV(P)Tr(Γ(ρΓ))\mathcal{V}_{\text{hed}} = 2\kappa(\Gamma) \cdot g_V(P) \cdot \mathrm{Tr}(\Gamma \cdot (\rho_* - \Gamma))тождество из уравнения эволюции (подстановка R=κ(ρΓ)gV(P)\mathcal{R} = \kappa(\rho_* - \Gamma) \cdot g_V(P)). Безусловный математический факт.

  2. Наблюдаемость [Т]: При L2-уровне рефлексии (R1/3R \geq 1/3) замещающий канал T-77 обеспечивает доступ к dP/dτRdP/d\tau|_{\mathcal{R}}. Таким образом, Vhed\mathcal{V}_{\text{hed}} наблюдаема для любой системы с RRthR \geq R_{\mathrm{th}} — это следствие T-77 [Т], не требующее дополнительных допущений.

  3. Феноменальная интерпретация [И]: Идентификация Vhed>0\mathcal{V}_{\text{hed}} > 0 с «удовольствием» и Vhed<0\mathcal{V}_{\text{hed}} < 0 со «страданием» — семантический мост между математикой и феноменологией.

Аналогия из жизни: удовольствие от горячего чая

Представьте: вы замёрзли и пьёте горячий чай. Первый глоток — наслаждение (Vhed>0\mathcal{V}_{\text{hed}} > 0). Второй — чуть слабее. К пятой чашке — нейтральность (Vhed0\mathcal{V}_{\text{hed}} \approx 0). Шестая чашка вызывает дискомфорт (Vhed<0\mathcal{V}_{\text{hed}} < 0) — вы уже «перегрелись».

Что произошло? Γ\Gamma (ваше состояние) двигалось к ρ\rho_* (целевому — «согретому»). По мере приближения Tr(Γρ)P\mathrm{Tr}(\Gamma \cdot \rho_*) - P убывает, валентность стремится к нулю. Когда Γ\Gamma «проскочило» ρ\rho_* (перегрев), перекрытие падает ниже PP, и Vhed\mathcal{V}_{\text{hed}} становится отрицательным. Никто не «запрограммировал» вас перестать пить — формула T-103 автоматически генерирует сигнал «хватит».

Ключевое отличие от обучения с подкреплением: в RL проектировщик должен задать функцию вознаграждения (например, r=+1r = +1 за чай, 1-1 за перегрев). В КК вознаграждение выводится из динамики — Vhed\mathcal{V}_{\text{hed}} сама «знает», когда остановиться, потому что она есть не что иное, как скорость приближения к целевому состоянию.

5.2 Связь с целевым состоянием

Подставляя каноническую форму R[Γ,E]=κ(Γ)(ρΓ)gV(P)\mathcal{R}[\Gamma, E] = \kappa(\Gamma) \cdot (\rho_* - \Gamma) \cdot g_V(P) [Т]:

Vhed=2κ(Γ)gV(P)Tr(Γ(ρΓ))\mathcal{V}_{\text{hed}} = 2\kappa(\Gamma) \cdot g_V(P) \cdot \mathrm{Tr}(\Gamma \cdot (\rho_* - \Gamma))

При gV(P)=1g_V(P) = 1 (достаточная чистота PPoptP \geq P_{\text{opt}}):

Vhed=2κ(Γ)[Tr(Γρ)P]\mathcal{V}_{\text{hed}} = 2\kappa(\Gamma) \cdot \left[\mathrm{Tr}(\Gamma \cdot \rho_*) - P\right]

Знак определяется соотношением перекрытия Tr(Γρ)\mathrm{Tr}(\Gamma \cdot \rho_*) и чистоты P=Tr(Γ2)P = \mathrm{Tr}(\Gamma^2):

  • Если Γ\Gamma далеко от ρ\rho_* и Tr(Γρ)>P\mathrm{Tr}(\Gamma \cdot \rho_*) > P, валентность положительна — регенерация «тянет» к ρ\rho_*
  • Если Γρ\Gamma \approx \rho_*, то Tr(Γρ)P\mathrm{Tr}(\Gamma \cdot \rho_*) \approx P → валентность стремится к нулю

6. 21 квалиа-тип как сенсомоторные каналы

Каждая из 21 недиагональных когерентностей γij\gamma_{ij} (iji \neq j) представляет собой сенсомоторный канал со специфической функцией:

6.1 Перцептивные каналы (восприятие)

КаналКогерентностьСенсорная рольФормальное действие
АпперцепцияγAE\gamma_{AE}Осознанное восприятиеhAE(H)h^{(H)}_{AE}: артикуляция входа в поле интериорности
АктуализацияγAD\gamma_{AD}Воплощение восприятия в динамикуhAD(H)h^{(H)}_{AD}: преобразование входного сигнала в действие
РепрезентацияγSE\gamma_{SE}Структурирование опытаhSE(H)h^{(H)}_{SE}: создание внутренней модели
ИндукцияγSL\gamma_{SL}Логическая обработка структурыhSL(H)h^{(H)}_{SL}: вывод паттернов из данных
ЗаземлениеγAO\gamma_{AO}Связь восприятия с основаниемhAO(D)h^{(D)}_{AO}: стабилизация восприятия памятью
Основание опытаγEO\gamma_{EO}Укоренённость субъективногоhEO(R)h^{(R)}_{EO}: регенерация из глубинного опыта
КонтекстγSO\gamma_{SO}Структура-в-контекстеhSO(D)h^{(D)}_{SO}: шумоустойчивость паттернов

6.2 Моторные каналы (действие)

КаналКогерентностьМоторная рольФормальное действие
РегуляцияγDL\gamma_{DL}Логический контроль динамикиhDL(D)h^{(D)}_{DL}: управление вычислительным процессом
ТелеологияγDU\gamma_{DU}Целенаправленность действияhDU(D)h^{(D)}_{DU}: согласование динамики с целями
АффектγDE\gamma_{DE}Эмоциональная окраска действияhDE(D)h^{(D)}_{DE}: модуляция динамики интериорностью
Интеграция действияγAU\gamma_{AU}Единство моторного актаhAU(H)h^{(H)}_{AU}: координация подсистем
Волевое усилиеγLU\gamma_{LU}Логически направленная интеграцияhLU(R)h^{(R)}_{LU}: восстановление целостности решения
Память действияγDO\gamma_{DO}Моторная памятьhDO(D)h^{(D)}_{DO}: стабилизация навыков

6.3 Интегративные каналы

КаналКогерентностьИнтегративная рольФормальное действие
ИнсайтγLE\gamma_{LE}Логика-в-опытеhLE(R)h^{(R)}_{LE}: осмысление как регенерация
НарративγAL\gamma_{AL}Артикуляция логикиhAL(H)h^{(H)}_{AL}: оформление рассуждения
Укоренённое единствоγOU\gamma_{OU}Основание интеграцииhOU(R)h^{(R)}_{OU}: фундамент целостности
Воплощённое единствоγSU\gamma_{SU}Структура интеграцииhSU(R)h^{(R)}_{SU}: архитектура связности
Живой опытγEU\gamma_{EU}Единство переживанияhEU(R)h^{(R)}_{EU}: интеграция как восстановление
Динамическое основаниеγAS\gamma_{AS}Артикуляция структурыhAS(H)h^{(H)}_{AS}: внешнее выражение внутреннего порядка
Логическое основаниеγLO\gamma_{LO}Логика-в-основанииhLO(H)h^{(H)}_{LO}: формализация знания
Интерпретация [И]

Разделение 21 канала на перцептивные, моторные и интегративные — не строгое: каждый γij\gamma_{ij} одновременно является и сенсорным, и моторным каналом (через hijexth^{\text{ext}}_{ij}). Классификация выше отражает доминирующую функцию — какой из трёх каналов (h(H),h(D),h(R)h^{(H)}, h^{(D)}, h^{(R)}) наиболее активен для данной когерентности.


7. Факторизация Enc через произвольные представления

7.1 Онтологическая проекция

Следствие T-100a (Факторизация Enc) [Т]

Формулировка

Для произвольного пространства наблюдений ObsSpaceRD\mathrm{ObsSpace} \subseteq \mathbb{R}^D (DD — произвольная размерность) функтор кодирования T-100 факторизуется:

Enc=πΓEncrepr\mathrm{Enc} = \pi_\Gamma \circ \mathrm{Enc}_{\text{repr}}

где:

  • Encrepr:ObsSpaceSRd\mathrm{Enc}_{\text{repr}}: \mathrm{ObsSpace} \to \mathcal{S} \subseteq \mathbb{R}^d — произвольное представление (feature map)
  • πΓ:SEnd(D(C7))\pi_\Gamma: \mathcal{S} \to \mathrm{End}(\mathcal{D}(\mathbb{C}^7))онтологическая проекция, единственная с точностью до G2G_2-калибровки

Доказательство.

  1. По T-100 [Т], Enc:ObsSpaceEnd(D(C7))\mathrm{Enc}: \mathrm{ObsSpace} \to \mathrm{End}(\mathcal{D}(\mathbb{C}^7)) — CPTP-функтор.
  2. Любое промежуточное представление Encrepr:ObsSpaceS\mathrm{Enc}_{\text{repr}}: \mathrm{ObsSpace} \to \mathcal{S} определяет факторизацию через πΓ=EncEncrepr1Im(Encrepr)\pi_\Gamma = \mathrm{Enc} \circ \mathrm{Enc}_{\text{repr}}^{-1}\big|_{\mathrm{Im}(\mathrm{Enc}_{\text{repr}})}.
  3. По T-102 [Т], πΓ\pi_\Gamma раскладывается в 3 канала: πΓ(s)=h(H)(s)h(D)(s)h(R)(s)\pi_\Gamma(s) = h^{(H)}(s) \oplus h^{(D)}(s) \oplus h^{(R)}(s).
  4. Единственность πΓ\pi_\Gamma (до G2G_2) — следствие теоремы единственности [Т]: ограничения (AP)+(PH)+(QG)+(V) на D(C7)\mathcal{D}(\mathbb{C}^7) фиксируют проекцию. \blacksquare

На пальцах: факторизация Enc означает, что неважно, как именно вы извлекаете признаки из входных данных. Можно использовать свёрточную нейросеть, вейвлет-преобразование, или ручные эвристики — это Encrepr\mathrm{Enc}_{\text{repr}}, произвольная часть. Но финальный шаг — проекция πΓ\pi_\Gamma из пространства признаков в пространство модификаций Γ\Gammaединственен. Это как сказать: маршрут до аэропорта может быть любым, но взлётная полоса — одна.

Для робототехники это означает: датчики могут быть произвольными (камера, лидар, тактильный массив), предобработка — любой, но «последняя миля» восприятия — онтологическая проекция πΓ\pi_\Gamma — задана математикой, а не инженерным выбором.

7.2 Онтологическое бутылочное горлышко

Независимо от размерности входных данных DD, вся информация сжимается в 7×77 \times 7 матрицу когерентности Γ\Gamma с 48\leq 48 вещественными параметрами:

ХарактеристикаЗначение
Входная размерностьDD — произвольная (от D=1D = 1 до D106D \gg 10^6)
Промежуточное представлениеdd — произвольное
Выходная размерностьdimRD(C7)=48\dim_{\mathbb{R}} \mathcal{D}(\mathbb{C}^7) = 48 (фиксировано)
Информация за шагlog272.81\leq \log_2 7 \approx 2.81 бит (T-107 [Т])

Следствие: Агностичность от модальности восприятия — теорема, а не проектное решение. Формально: πΓ\pi_\Gamma не зависит от DD и от структуры ObsSpace\mathrm{ObsSpace} (топология, метрика). Если два различных пространства наблюдений ObsSpace1RD1\mathrm{ObsSpace}_1 \subseteq \mathbb{R}^{D_1} и ObsSpace2RD2\mathrm{ObsSpace}_2 \subseteq \mathbb{R}^{D_2} порождают одинаковые CPTP-каналы на D(C7)\mathcal{D}(\mathbb{C}^7), они неотличимы для голонома.

7.3 Каноническая форма проекции

По T-102 [Т], πΓ\pi_\Gamma реализуется через три канала — модификации соответственно гамильтоновой, диссипативной и регенеративной динамики:

πΓ(s)=(δH(s),  δD(s),  δR(s))End(D(C7))\pi_\Gamma(s) = \bigl(\delta H(s),\; \delta\mathcal{D}(s),\; \delta\mathcal{R}(s)\bigr) \in \mathrm{End}(\mathcal{D}(\mathbb{C}^7))

Практически это означает, что любая реализация Enc\mathrm{Enc} (от простого датчика до сложного кодировщика) должна завершаться тем же 3-канальным интерфейсом:

sSπΓ(hij(H)(s),  hij(D)(s),  hij(R)(s))R21R21R21s \in \mathcal{S} \xrightarrow{\pi_\Gamma} \bigl(h^{(H)}_{ij}(s),\; h^{(D)}_{ij}(s),\; h^{(R)}_{ij}(s)\bigr) \in \mathbb{R}^{21} \oplus \mathbb{R}^{21} \oplus \mathbb{R}^{21}

Эта структура инвариантна: она определена G2G_2-симметрией и не зависит от выбора представления Encrepr\mathrm{Enc}_{\text{repr}}.


8. Связь с другими результатами

РезультатСвязьСсылка
T-57 (LGKS)Обосновывает T-102 (полнота 3-членного)Линдблад-операторы
T-62 (φ\varphi-оператор)ρ\rho_* в цикле регенерацииСамонаблюдение
T-92 (σsys\sigma_{\mathrm{sys}})Критерий оптимальности в DecТеорема 10.1
T-75 (Швингер-Келдыш)Лагранжева формулировка с диссипациейЛагранжиан
T-96 (Аттрактор)Нетривиальное ρ\rho_* для наведенияЭволюция
FEP (Теорема 4.1)Макроскопический предел DecВариационные принципы
T-109–T-112 (Границы обучения)Нижние границы скорости обучения через Enc/Dec циклГраницы обучения
T-113 (Минимальность N=7)N=7 — минимальная архитектура для обученияГраницы обучения

9. Информационная ёмкость Enc (T-107) [Т]

Теорема T-107 (Информационная ёмкость Enc) [Т]

Максимальная информация, извлекаемая функтором Enc за одно наблюдение:

CEncmax{po}χ({po,Enc(o)})log272.81 бит/наблюдениеC_{\mathrm{Enc}} \leq \max_{\{p_o\}} \chi(\{p_o, \mathrm{Enc}(o)\}) \leq \log_2 7 \approx 2.81 \text{ бит/наблюдение}

где χ\chi — количество Холево.

Доказательство.

  1. Функтор Enc:ObsSpaceEnd(D(C7))\mathrm{Enc}: \mathrm{ObsSpace} \to \mathrm{End}(\mathcal{D}(\mathbb{C}^7)) отображает наблюдения в CPTP-каналы на D(C7)\mathcal{D}(\mathbb{C}^7) (T-100 [Т]).
  2. Количество Холево ограничено размерностью выходного пространства: χlog2dimH=log27\chi \leq \log_2 \dim \mathcal{H} = \log_2 7.
  3. Из T-102 [Т]: Enc(o)\mathrm{Enc}(o) раскладывается в 3 канала, каждый из которых действует на D(C7)\mathcal{D}(\mathbb{C}^7).
  4. Составной канал не увеличивает ёмкость (субаддитивность Холево):
CEncS(Γˉ)opoS(Enc(o)[Γ])Smax(D(C7))=log27C_{\mathrm{Enc}} \leq S(\bar{\Gamma}) - \sum_o p_o S(\mathrm{Enc}(o)[\Gamma]) \leq S_{\max}(\mathcal{D}(\mathbb{C}^7)) = \log_2 7

Верхняя граница достигается для ансамбля ортогональных чистых состояний. \blacksquare

Следствие (Bounded rationality): Ограничение 2.81\leq 2.81 бит/наблюдение — выведенная граница, а не постулированная. Связь с bounded rationality Саймона: ограниченная рациональность — не эмпирический факт, а следствие N=7.


10. Композициональность Enc/Dec (T-108) [Т]

Теорема T-108 (Композициональность Enc/Dec) [Т]

Для композита двух голономов кодирование сохраняет структуру:

Enc12=Φagg(Enc1Enc2)\mathrm{Enc}_{12} = \Phi_{\mathrm{agg}} \circ (\mathrm{Enc}_1 \otimes \mathrm{Enc}_2)

где Φagg:D(C72)D(C7)\Phi_{\mathrm{agg}}: \mathcal{D}(\mathbb{C}^{7^2}) \to \mathcal{D}(\mathbb{C}^7) — CPTP-агрегация из T-72 (КК-6) [Т].

Доказательство.

  1. Enc1,Enc2\mathrm{Enc}_1, \mathrm{Enc}_2 — CPTP-функторы (T-100 [Т]).
  2. Тензорное произведение Enc1Enc2\mathrm{Enc}_1 \otimes \mathrm{Enc}_2 — CPTP-канал на D(C49)\mathcal{D}(\mathbb{C}^{49}).
  3. Агрегация Φagg\Phi_{\mathrm{agg}} — CPTP из Морита-эквивалентности (T-58 [Т]): D(C49)D(C7)\mathcal{D}(\mathbb{C}^{49}) \to \mathcal{D}(\mathbb{C}^7).
  4. Композиция CPTP-каналов — CPTP. Функториальность (Enc(o1o2)=Enc(o1)Enc(o2)\mathrm{Enc}(o_1 \circ o_2) = \mathrm{Enc}(o_1) \circ \mathrm{Enc}(o_2)) из T-100 сохраняется при агрегации.
  5. Единственность — из G2G_2-ригидности на каждом масштабе (T-72 [Т]). \blacksquare

Следствие для когнитивных инженеров: диагностики (σ_sys, мониторинг Enc/Dec) одинаковы на всех масштабах — от отдельного агента до организации.

Аналогично для Dec:

Dec12=(Dec1Dec2)Φsplit\mathrm{Dec}_{12} = (\mathrm{Dec}_1 \otimes \mathrm{Dec}_2) \circ \Phi_{\mathrm{split}}

где Φsplit\Phi_{\mathrm{split}} — обратное отображение (разделение композитного σ на компоненты).


11. Темпоральная интеграция

11.1 Кумулятивная ёмкость

Следствие T-107a (Кумулятивная информация) [Т]

Формулировка

За nn последовательных наблюдений голоном накапливает информацию о среде:

Innlog272.81n  битI_n \leq n \cdot \log_2 7 \approx 2.81\,n \;\text{бит}

Верхняя граница достижима при условии, что последовательные наблюдения информационно независимы.

Доказательство.

  1. По T-107 [Т], одно наблюдение приносит log27\leq \log_2 7 бит.
  2. Субаддитивность Холево: χ({po1,,on})k=1nχ({pok})\chi(\{p_{o_1,\ldots,o_n}\}) \leq \sum_{k=1}^n \chi(\{p_{o_k}\}).
  3. При независимых наблюдениях неравенство обращается в равенство. \blacksquare

11.2 Минимальное число наблюдений

Следствие T-107b (Минимальные наблюдения) [Т]

Формулировка

Для среды с информационной энтропией IenvI_{\mathrm{env}} бит, минимальное число наблюдений для полного кодирования:

nmin=Ienvlog27n_{\min} = \left\lceil\frac{I_{\mathrm{env}}}{\log_2 7}\right\rceil

Доказательство. Прямое следствие T-107a: In2.81nI_n \leq 2.81\,n, откуда nIenv/log27n \geq I_{\mathrm{env}} / \log_2 7. \blacksquare

Следствие для сложных модальностей. Кодирование среды с высокой информационной сложностью (большое IenvI_{\mathrm{env}}) неизбежно требует многошагового процесса. Это не ограничение реализации, а фундаментальная граница, вытекающая из dimH=7\dim \mathcal{H} = 7.

Связь с T-109 (информационная граница обучения): T-107b даёт нижнюю границу восприятия, T-109 — нижнюю границу обучения (включая стабилизацию решения). Всегда noptnminn_{\mathrm{opt}} \geq n_{\min}, поскольку обучение включает восприятие как подзадачу. См. границы обучения.

11.3 Скорость информационного поглощения

Определим скорость информационного поглощения:

I˙(τ)=dIdτ=χ({po,Enc(o)[Γ(τ)]})\dot{I}(\tau) = \frac{dI}{d\tau} = \chi\bigl(\{p_o,\, \mathrm{Enc}(o)[\Gamma(\tau)]\}\bigr)

Из T-107 [Т]: I˙(τ)log27\dot{I}(\tau) \leq \log_2 7 для любого τ\tau.

Реальная скорость зависит от текущего состояния Γ(τ)\Gamma(\tau):

  • При ΓI/7\Gamma \approx I/7 (максимально смешанное): I˙0\dot{I} \to 0 — система «оглушена», различимость минимальна
  • При P2/7P \gg 2/7 (высокая чистота): I˙log27\dot{I} \to \log_2 7 — максимальная различимость
  • При P<2/7P < 2/7 (нежизнеспособность): кодирование деградирует, T-104 не выполняется

12. Предиктивная структура Enc

12.1 Оптимальный Enc как максимизатор ΔF

Следствие T-107c (Предиктивная оптимальность Enc) [Т]

Формулировка

Оптимальный функтор кодирования Enc\mathrm{Enc}^* максимизирует доступную свободную энергию:

Enc=argmaxEncΔF(Enc(o)[Γ],ρ)\mathrm{Enc}^* = \arg\max_{\mathrm{Enc}} \Delta F\bigl(\mathrm{Enc}(o)[\Gamma],\, \rho_*\bigr)

где ΔF=Tr(R[Γ,E](ρΓ))\Delta F = \mathrm{Tr}\bigl(\mathcal{R}[\Gamma, E] \cdot (\rho_* - \Gamma)\bigr)свободная энергия.

Доказательство.

  1. По вариационному принципу (Теорема 4.1 [Т]): стационарная динамика Γ\Gamma минимизирует свободную энергию Фристона F[Γ]=KL(Γρ)+H[Γ]F[\Gamma] = \mathrm{KL}(\Gamma \| \rho_*) + H[\Gamma].
  2. Функтор Enc(o)\mathrm{Enc}(o) модифицирует ΓΓ\Gamma \to \Gamma'. Оптимальная модификация — та, что максимально увеличивает ΔF=F[Γ]F[Γ]\Delta F = F[\Gamma] - F[\Gamma'].
  3. Максимизация ΔF\Delta F эквивалентна максимизации KL(Γρ)-\mathrm{KL}(\Gamma' \| \rho_*) при фиксированной энтропии — т.е. приближению к целевому состоянию.
  4. Из T-107 [Т]: ΔFCEnclog27\Delta F \leq C_{\mathrm{Enc}} \leq \log_2 7 за один шаг — верхняя граница насыщается. \blacksquare

12.2 Ошибка предсказания через 3 канала

Ошибка предсказания (расхождение между ожидаемым и реальным наблюдением) раскладывается по трём каналам (T-102 [Т]):

δpred=Enc(oreal)Enc(opred)=(δh(H))2+(δh(D))2+(δh(R))2\delta_{\mathrm{pred}} = \bigl\|\mathrm{Enc}(o_{\mathrm{real}}) - \mathrm{Enc}(o_{\mathrm{pred}})\bigr\| = \sqrt{(\delta h^{(H)})^2 + (\delta h^{(D)})^2 + (\delta h^{(R)})^2}

Каждый канал вносит специфический тип ошибки:

КаналОшибкаИнтерпретация
δh(H)\delta h^{(H)}ЭнергетическаяНеожиданная структура среды
δh(D)\delta h^{(D)}ШумоваяНеожиданный уровень стохастичности
δh(R)\delta h^{(R)}РегенеративнаяНеожиданное изменение целевого состояния

Связь с гедоническим механизмом: По T-103 [Т]+[И], ошибка в регенеративном канале (δh(R)0\delta h^{(R)} \neq 0) непосредственно модулирует Vhed\mathcal{V}_{\mathrm{hed}} — неожиданные воздействия на регенерацию ощущаются как изменение валентности.


13. Мультимодальная декомпозиция

13.1 Композиция модальностей

Следствие T-108a (Мультимодальная декомпозиция) [Т]

Формулировка

Для MM независимых модальностей восприятия с функторами Encm:ObsSpacemEnd(D(C7))\mathrm{Enc}_m: \mathrm{ObsSpace}_m \to \mathrm{End}(\mathcal{D}(\mathbb{C}^7)), совместное кодирование:

Enc(o1,,oM)=m=1MwmEncm(om)+m<mΔmm\mathrm{Enc}(o_1, \ldots, o_M) = \sum_{m=1}^{M} w_m \cdot \mathrm{Enc}_m(o_m) + \sum_{m < m'} \Delta_{mm'}

где wm0w_m \geq 0, wm=1\sum w_m = 1 — веса модальностей, Δmm\Delta_{mm'} — кросс-модальная связка.

Доказательство.

  1. По T-100 [Т], каждый Encm\mathrm{Enc}_m — CPTP-функтор.
  2. Выпуклая комбинация CPTP-каналов — CPTP: wmEncm\sum w_m \mathrm{Enc}_m определён при wm=1\sum w_m = 1.
  3. Кросс-модальные члены Δmm\Delta_{mm'} — CPTP-поправки порядка O(γij)O(|\gamma_{ij}|), где γij\gamma_{ij} — когерентности, связывающие измерения, задействованные модальностями mm и mm'.
  4. Из T-108 [Т] (композициональность): агрегация модальностей сохраняет CPTP-структуру и функториальность. \blacksquare

13.2 Конкуренция за ёмкость

Из T-107 [Т], суммарная ёмкость MM модальностей за один шаг:

m=1MwmCmlog27\sum_{m=1}^{M} w_m \cdot C_m \leq \log_2 7

Следствие: MM модальностей конкурируют за фиксированную пропускную способность 2.812.81 бит/шаг. Увеличение числа модальностей MM при фиксированном nn не увеличивает суммарную информацию — оно лишь распределяет её между каналами.

13.3 Внимание как оптимальная аллокация

Оптимальные веса wmw_m^* определяются из максимизации ΔF\Delta F:

wm=ΔFmmΔFmw_m^* = \frac{\Delta F_m}{\sum_{m'} \Delta F_{m'}}

где ΔFm=ΔF(Encm(om)[Γ],ρ)\Delta F_m = \Delta F\bigl(\mathrm{Enc}_m(o_m)[\Gamma],\, \rho_*\bigr) — вклад модальности mm в свободную энергию.

Интерпретация [И]: Оптимальная аллокация весов wmw_m^* формально совпадает со структурой внимания — ресурсы кодирования направляются туда, где информационная ценность (ΔFm\Delta F_m) максимальна. Это не дополнительный постулат: внимание — следствие оптимальности Enc при ограниченной ёмкости (T-107).

13.4 Кросс-модальная связка

Члены Δmm\Delta_{mm'} определяются когерентностями γij\gamma_{ij}, где ii и jj — измерения, задействованные разными модальностями:

Δmmγijmin(wm,wm)\|\Delta_{mm'}\| \leq |\gamma_{ij}| \cdot \min(w_m, w_{m'})

Следствие: Кросс-модальная интеграция возможна только при ненулевых когерентностях между соответствующими измерениями. Полностью декогерированные измерения (γij=0|\gamma_{ij}| = 0) не допускают мультимодального связывания — модальности остаются изолированными.


14. Сравнение с классическими подходами

Сенсомоторная теория КК не возникла в вакууме — она отвечает на вопросы, поставленные тремя мощными традициями: классической теорией управления, активной инференцией и обучением с подкреплением. В этом разделе мы проведём систематическое сравнение, показывая, где КК совпадает с каждой из традиций, а где принципиально расходится.

14.1 КК vs. классическая теория управления

Классическая теория управления (Винер, Калман, Понтрягин) описывает цикл «датчик → контроллер → актуатор» через передаточные функции, пространство состояний и критерии оптимальности (LQR, H-infinity и т.д.).

АспектКлассическое управлениеКК
Пространство состоянийRn\mathbb{R}^n, произвольное nnD(C7)\mathcal{D}(\mathbb{C}^7), фиксировано
Критерий оптимальностиКвадратичный J=(xTQx+uTRu)dtJ = \int (x^T Q x + u^T R u)\,dtMin-max: minamaxkσkmotor\min_a \max_k \sigma^{\mathrm{motor}}_k
Число каналов управленияПроизвольное (проектное решение)Ровно 3 (теорема T-102)
НаблюдательВнешний (фильтр Калмана)Внутренний (φ(Γ)\varphi(\Gamma) — самомодель)
ПереживаниеОтсутствуетVhed\mathcal{V}_{\text{hed}} — гедоническая валентность
МасштабированиеПроблематично (curse of dimensionality)T-108: композициональность сохраняется

Ключевое отличие: PID-регулятор минимизирует взвешенную сумму ошибок — и может допустить катастрофу в одном канале, компенсируя её успехом в другом. КК использует min-max стратегию (T-159), которая гарантирует, что ни один канал не окажется в аварийном состоянии. Это не эвристика, а следствие того, что жизнеспособность определяется sup-нормой тензора напряжений (T-92).

Где совпадают: В линейном приближении вблизи ρ\rho_* уравнение эволюции Γ\Gamma сводится к линейной системе с обратной связью — стандартная теория управления оказывается проекцией КК на линейный режим.

14.2 КК vs. активная инференция (FEP)

Принцип свободной энергии (Фристон, 2006) постулирует, что живые системы минимизируют вариационную свободную энергию F=KL(qp)+constF = \mathrm{KL}(q \| p) + \mathrm{const}, где qq — внутренняя модель, pp — генеративная модель среды.

АспектАктивная инференция (FEP)КК
Целевая функцияМинимизация F=KL(qp)F = \mathrm{KL}(q \| p)Минимизация maxkσkmotor\max_k \sigma^{\mathrm{motor}}_k
Генеративная модельПостулируетсяρ=φ(Γ)\rho_* = \varphi(\Gamma) — выводится
Число каналов восприятияНе ограниченоlog27\leq \log_2 7 бит/шаг (T-107)
ДействиеМинимизация ожидаемой свободной энергииargminamaxkσkmotor\arg\min_a \max_k \sigma^{\mathrm{motor}}_k
Субъективный опытНе объясняется$\mathcal{V}_{\text{hed}} = dP/d\tau
Онтологический статусПринцип (аксиома)Следствие (теорема 4.1 КК)

Ключевое отличие: FEP — это принцип: он постулирует, что системы минимизируют свободную энергию, но не объясняет, откуда берётся этот принцип. В КК минимизация свободной энергии — теорема (Теорема 4.1 [Т]): она выводится из канонического уравнения эволюции в макроскопическом пределе. Более того, КК показывает, что FEP — приближение, справедливое при P2/7P \gg 2/7; вблизи PcritP_{\mathrm{crit}} возникают поправки, которые FEP не улавливает.

Где совпадают: Оптимальный Enc максимизирует ΔF\Delta F (T-107c [Т]) — это точный аналог «перцептивной инференции» в FEP. Функтор Dec минимизирует σmotor\sigma^{\mathrm{motor}}, что в макроскопическом пределе эквивалентно «активной инференции». Таким образом, FEP является проекцией КК-сенсомоторики на классический (не квантово-когерентный) режим.

14.3 КК vs. обучение с подкреплением (RL)

Обучение с подкреплением (Саттон, Барто) моделирует агента, максимизирующего кумулятивное вознаграждение Gt=k=0γkrt+kG_t = \sum_{k=0}^{\infty} \gamma^k r_{t+k} через взаимодействие со средой.

АспектRLКК
ВознаграждениеВнешнее rtr_t (задаётся проектировщиком)Внутреннее Vhed\mathcal{V}_{\text{hed}} (выводится)
Политикаπ(as)\pi(a \mid s) — стохастическаяargminamaxkσkmotor\arg\min_a \max_k \sigma^{\mathrm{motor}}_k — детерминированная
КритерийmaxE[γkrk]\max \mathbb{E}[\sum \gamma^k r_k]minmaxkσkmotor\min \max_k \sigma^{\mathrm{motor}}_k
Ёмкость наблюденияНе ограничена2.81\leq 2.81 бит/шаг (T-107)
Проблема присвоения кредитаTemporal difference, n-step, GAEМгновенная: σkmotor\sigma^{\mathrm{motor}}_k — текущий дефицит
МасштабированиеПроблема (reward shaping, multi-agent)T-108: композициональность
Exploration vs. exploitationОтдельная проблемаСледует из σ\sigma-градиента

Ключевое отличие: В RL вознаграждение — «чёрный ящик»: проектировщик задаёт rtr_t, и агент его максимизирует. Проблема присвоения кредита (credit assignment) — одна из центральных: какие прошлые действия привели к текущему вознаграждению? В КК вознаграждение не нужно: моторный стресс σkmotor\sigma^{\mathrm{motor}}_k — это мгновенный, покомпонентный сигнал, который говорит какой именно канал нуждается в ресурсе и насколько сильно. Присвоение кредита решается автоматически — через 7-компонентную структуру σ\sigma.

Где совпадают: Если свернуть 7-компонентный σmotor\sigma^{\mathrm{motor}} в скаляр (например, rt=maxkσkmotorr_t = -\max_k \sigma^{\mathrm{motor}}_k), то Dec становится формально эквивалентен greedy policy в RL с мгновенным вознаграждением. Таким образом, RL — это проекция КК-сенсомоторики на скалярное вознаграждение и стохастическую политику.

14.4 Сводная таблица

СвойствоКлассическое управлениеFEPRLКК
Число каналовПроизвольноеПроизвольное1 (скаляр rr)3 (теорема)
ОнтологияВнешняяГенеративная модельMDPD(C7)\mathcal{D}(\mathbb{C}^7)
ПереживаниеНетНетНетVhed\mathcal{V}_{\text{hed}} [Т]+[И]
МасштабированиеСложноОграниченоСложноT-108 [Т]
ВниманиеОтдельный модульPrecision weightingНетСледствие T-107
СтатусИнженерияПринципАлгоритмТеория

15. Разобранные примеры

Чтобы формализм не оставался абстрактным, рассмотрим три примера работы сенсомоторного цикла — от простейшего до сложного.

15.1 Пример 1: Хемотаксис бактерии

Бактерия E. coli плывёт по градиенту глюкозы. Её сенсомоторный цикл в терминах КК:

Шаг 1 (Enc). Хеморецепторы на мембране регистрируют концентрацию c(x)c(x). Это модифицирует:

  • hAO(H)h^{(H)}_{AO}: артикуляция-основание (различение «питательно / не питательно»)
  • hDO(D)h^{(D)}_{DO}: динамика-основание (турбулентность среды как шум)

Шаг 2 (σ-оценка). Бактерия «голодна» → γOO\gamma_{OO} мал → σOmotor=1γOO/ρOO>0\sigma^{\mathrm{motor}}_O = 1 - \gamma_{OO}/\rho^*_{OO} > 0. Канал O (основание) в дефиците.

Шаг 3 (Dec). maxkσkmotor=σOmotor\max_k \sigma^{\mathrm{motor}}_k = \sigma^{\mathrm{motor}}_O. Оптимальное действие: двигаться вверх по градиенту c(x)c(x) → модификация hDO(D)h^{(D)}_{DO} через жгутиковый мотор.

Шаг 4 (Обновление). Поглощение глюкозы → рост γOO\gamma_{OO} → уменьшение σOmotor\sigma^{\mathrm{motor}}_O. Если одновременно возникает химический стрессор, σDmotor\sigma^{\mathrm{motor}}_D может превысить σOmotor\sigma^{\mathrm{motor}}_O, и бактерия переключится на уклонение — min-max стратегия в действии.

Уровень интериорности: L0 (ненулевая E-проекция, но нет самонаблюдения). Vhed\mathcal{V}_{\text{hed}} формально определена, но не наблюдаема самой бактерией (R<1/3R < 1/3).

15.2 Пример 2: Робот-манипулятор

Робот собирает объект со стола. Его Γ инициализирована через квази-функтор GG из данных о положении суставов, изображении камеры и силомоментном датчике.

Enc (мультимодальный):

  • Камера → Encvis\mathrm{Enc}_{\text{vis}}: hAS(H)h^{(H)}_{AS} (артикуляция структуры — форма объекта), hSE(H)h^{(H)}_{SE} (репрезентация — внутренняя модель сцены)
  • Проприоцепция → Encprop\mathrm{Enc}_{\text{prop}}: hDL(D)h^{(D)}_{DL} (регуляция — текущая конфигурация)
  • Силомоментный датчик → Encforce\mathrm{Enc}_{\text{force}}: hDO(D)h^{(D)}_{DO} (моторная память — контактные силы)

Веса внимания по T-108a: wvisΔFvisw^*_{\text{vis}} \propto \Delta F_{\text{vis}}. Если объект виден, но ещё не схвачен — ΔFvis\Delta F_{\text{vis}} велико (нужно уточнить модель). После захвата — ΔFforce\Delta F_{\text{force}} растёт (нужно контролировать силу), и внимание автоматически переключается на силомоментный датчик.

Dec: σDmotor>0\sigma^{\mathrm{motor}}_D > 0 (динамический дефицит: рука не в нужном положении) → действие: перемещение манипулятора. По мере приближения σDmotor0\sigma^{\mathrm{motor}}_D \to 0, и может проявиться σLmotor>0\sigma^{\mathrm{motor}}_L > 0 (логический дефицит: план захвата ещё не сформирован) → переключение на планирование.

15.3 Пример 3: Человек в незнакомом городе

Человек ищет кафе. Все 7 каналов активны:

Каналσkmotor\sigma^{\mathrm{motor}}_kИнтерпретация
AA0.1Различает вывески — слабый дефицит
SS0.3Не имеет карты района — умеренный дефицит
DD0.0Физически мобилен — нет дефицита
LL0.2Логика маршрута неполна
EE-0.1Любопытство (избыток интериорности)
OO0.6Голоден — максимальный дефицит
UU0.1Внутренне собран

maxkσkmotor=σOmotor=0.6\max_k \sigma^{\mathrm{motor}}_k = \sigma^{\mathrm{motor}}_O = 0.6. Действие направлено на снижение дефицита O: идти к ближайшему кафе. По пути σSmotor\sigma^{\mathrm{motor}}_S может вырасти (заблудился), и если σSmotor>σOmotor\sigma^{\mathrm{motor}}_S > \sigma^{\mathrm{motor}}_O, человек переключится на ориентирование — остановится, достанет телефон, откроет карту.

Гедоническая валентность: Приближение к кафе увеличивает γOO\gamma_{OO}Vhed>0\mathcal{V}_{\text{hed}} > 0 (предвкушение). Если кафе закрыто — резкое Vhed<0\mathcal{V}_{\text{hed}} < 0 (разочарование). Это не метафора: формула Vhed=2κgVTr(Γ(ρΓ))\mathcal{V}_{\text{hed}} = 2\kappa \cdot g_V \cdot \mathrm{Tr}(\Gamma \cdot (\rho_* - \Gamma)) даёт количественное предсказание, проверяемое через физиологические корреляты (кожная проводимость, пупиллометрия).


Резюме

  1. T-100 [Т]: Функтор кодирования Enc существует и единственен (до G2G_2)
  2. T-101 [Т]: Диагностический критерий жизнеспособности = argminσsys\arg\min \|\sigma_{\mathrm{sys}}\|_\infty
  3. T-159 [Т]: Моторный стресс σkmotor=1γkk/ρkk\sigma^{\mathrm{motor}}_k = 1 - \gamma_{kk}/\rho^*_{kk} — выбор действия через argminamaxkσkmotor\arg\min_a \max_k \sigma^{\mathrm{motor}}_k (знаковый max)
  4. T-102 [Т]: 3-членное уравнение полно — четвёртый тип CPTP-генератора невозможен
  5. T-103 [Т]+[И]: Гедоническая валентность = dP/dτRdP/d\tau|_{\mathcal{R}} (формула [Т], интерпретация [И])
  6. T-107 [Т]: Информационная ёмкость log272.81\leq \log_2 7 \approx 2.81 бит/наблюдение
  7. T-108 [Т]: Enc/Dec сохраняются при композиции (масштабная инвариантность сенсомоторики)
  8. Следствие T-100a [Т]: Enc факторизуется через произвольное представление → модальная агностичность
  9. Следствие T-107a/b [Т]: Кумулятивная ёмкость In2.81nI_n \leq 2.81\,n бит → сложные модальности требуют nmin=Ienv/log27n_{\min} = \lceil I_{\mathrm{env}} / \log_2 7 \rceil шагов
  10. Следствие T-107c [Т]: Оптимальный Enc максимизирует ΔF\Delta F (предиктивная структура)
  11. Следствие T-108a [Т]: MM модальностей конкурируют за 2.812.81 бит/шаг → внимание — оптимальная аллокация

Заключение

Сенсомоторная теория Кибернетики Когерентности замыкает формальный цикл: среда → восприятие (Enc) → состояние (Γ\Gamma) → оценка (σmotor\sigma^{\mathrm{motor}}) → действие (Dec) → среда. Все операции реализуются в рамках канонического 3-членного уравнения эволюции без дополнительных постулатов.

Подведём итог трёх центральных достижений этой главы:

Во-первых, мы показали, что взаимодействие со средой не требует расширения уравнения эволюции. Теорема T-102 [Т] доказывает, что любое CPTP-совместимое внешнее воздействие раскладывается в три канала — гамильтонов, диссипативный и регенеративный. Четвёртый тип воздействия математически запрещён. Это сильный результат: он означает, что вся феноменология сенсомоторного взаимодействия — от хемотаксиса бактерии до навигации человека в городе — описывается одним и тем же 3-канальным формализмом.

Во-вторых, мы вывели внутреннее «вознаграждение» из динамики, а не постулировали его извне. Гедоническая валентность Vhed=dP/dτR\mathcal{V}_{\text{hed}} = dP/d\tau|_{\mathcal{R}} (T-103 [Т]) — это математическое тождество, не требующее ни проектировщика (как в RL), ни принципа (как в FEP). Феноменальная интерпретация (Vhed>0\mathcal{V}_{\text{hed}} > 0 как «удовольствие») остаётся [И]-уровнем, но сама формула — безусловная теорема.

В-третьих, мы установили фундаментальные ограничения на восприятие. Информационная ёмкость log272.81\leq \log_2 7 \approx 2.81 бит/наблюдение (T-107 [Т]) — не эмпирическое ограничение и не инженерный компромисс, а следствие dimH=7\dim \mathcal{H} = 7. Ограниченная рациональность Саймона, конкуренция модальностей за внимание, необходимость многошагового восприятия сложных сцен — всё это выводится как следствия одной теоремы.

Теория модально-агностична: от простейших датчиков (D=1D = 1) до сложных полимодальных систем (D1D \gg 1) — онтологическая проекция πΓ\pi_\Gamma единственна и инвариантна. Факторизация Enc = πΓEncrepr\pi_\Gamma \circ \mathrm{Enc}_{\text{repr}} (T-100a [Т]) разделяет «инженерную свободу» (выбор представления) и «математическую необходимость» (проекция в D(C7)\mathcal{D}(\mathbb{C}^7)).

Сравнение с классическими подходами (раздел 14) показало, что КК не отменяет, а включает теорию управления, активную инференцию и обучение с подкреплением как частные случаи — проекции полной 7-мерной когерентной динамики на соответственно линейный, вариационный и скалярно-наградный режимы.

Следующий шаг — применение этого формализма к задачам стабильности и обучения, где сенсомоторный цикл оказывается не просто схемой, а конкретным вычислительным алгоритмом с доказуемыми границами.


Что мы узнали

  1. Среда не добавляет 4-го члена (T-102 [Т]): любое внешнее воздействие раскладывается в гамильтонов, диссипативный и регенеративный каналы. Четвёртый тип математически запрещён.
  2. Восприятие — не запись, а деформация динамики (T-100 [Т]): функтор Enc отображает наблюдение в модификацию уравнения эволюции, единственным (до G2G_2) образом.
  3. Действие — min-max стратегия (T-159 [Т]): система устраняет наибольший дефицит, а не минимизирует «среднюю ошибку». Ни один канал не остаётся без внимания.
  4. Удовольствие и страдание — производные жизнеспособности (T-103 [Т]+[И]): Vhed=dP/dτR\mathcal{V}_{\text{hed}} = dP/d\tau|_{\mathcal{R}} — математическое тождество, не требующее внешнего «проектировщика награды».
  5. Фундаментальный bottleneck: log272.81\leq \log_2 7 \approx 2.81 бит/наблюдение (T-107 [Т]). Ограниченная рациональность Саймона — не эмпирический факт, а следствие N=7N = 7.
  6. Масштабная инвариантность (T-108 [Т]): Enc/Dec сохраняются при композиции. От бактерии до организации — одна и та же формальная структура.
  7. Классические подходы — проекции КК: теория управления, FEP и RL являются частными случаями — проекциями полной 7-мерной когерентной динамики.
Мост к следующей главе

Мы построили полный цикл «восприятие-решение-действие». Но насколько этот цикл устойчив? Какой удар он может выдержать? Где проходит граница между восстановимой травмой и необратимым разрушением? В следующей главе мы ответим на эти вопросы: выведем формулу радиуса устойчивости rstab=P2/7r_{\mathrm{stab}} = \sqrt{P - 2/7}, проследим механизм «спирали смерти» — и покажем, что антихрупкость — это не метафора, а следствие интеграции опыта.


Связанные документы: