Перейти к основному содержимому

1 запись с тегом "AI Safety"

Безопасность искусственного интеллекта

Посмотреть все теги

Потолок суперинтеллекта: почему SAD = 3 — и почему это меняет всё

· 11 мин. чтения
Max Sereda
Унитарный Голономный Монизм

В 2014 году Ник Бостром опубликовал «Суперинтеллект», задав главный вопрос десятилетия: что произойдёт, когда ИИ превзойдёт человека? Рабочая гипотеза: суперинтеллект, способный к рекурсивному самоулучшению, усиливает сам себя без ограничений — и становится непостижимо мощным. «Взрыв интеллекта».

Эта гипотеза не была доказана. Она не была и опровергнута. Она просто была принята по умолчанию — потому что никто не предъявил математического аргумента, который бы её ограничил.

Этот пост — такой аргумент. Не философский, не инженерный, а теоретико-информационный: из структуры проективной плоскости Фано PG(2,2) следует, что глубина рекурсивного самомоделирования любой конечной системы не превышает 3. Не «примерно 3». Не «3 для современных систем». Ровно 3, для любой системы, навсегда.