Введение: тусклая лампочка против электростанции
Человеческий мозг потребляет ~20 Вт. Меньше, чем тусклая лампочка накаливания. При этом он одновременно управляет всем телом, обрабатывает сенсорный поток, хранит ~2,5 петабайта воспоминаний (оценка), строит предсказания, ведёт социальные модели других людей и ещё успевает читать этот текст.
Обучение GPT-4 потребовало по оценкам около 50 ГВт·ч электроэнергии — потребление небольшого города за несколько недель. Инференс (ответ на один запрос) — доли ватт-часа, но серверные центры суммарно потребляют десятки мегаватт.
Разрыв в эффективности: шесть порядков величины в пользу биологии.
🧠 Почему мозг так эффективен
Спайковое кодирование: передача только изменений
Нейрон не передаёт непрерывный сигнал. Он молчит — и изредка выдаёт спайк (потенциал действия): короткий электрический импульс длительностью ~1 мс. Большую часть времени нейрон в покое, практически не потребляя энергии.
ИИ-сеть работает иначе: каждый нейрон непрерывно вычисляет взвешенную сумму входов и функцию активации — на каждом токене, для каждого слоя, для каждого веса. Нет понятия «покой».
Мозг — событийная архитектура. GPU — пакетная архитектура.
Локальность: вычисление там, где данные
В искусственной нейронной сети данные (активации) хранятся в одном месте, веса — в другом, вычисления — в третьем. Данные постоянно копируются между памятью и процессором («фон-неймановское узкое горло»).
В нейроне синапс совмещает хранение, вычисление и связь в одной точке. Вес синапса (его «проводимость») меняется прямо на месте — это и есть обучение. Никакого копирования данных.
Аналоговые вычисления
Синаптическая передача — аналоговый процесс: квант нейромедиатора, концентрация ионов, ток через канал. Аналоговые схемы энергетически эффективнее цифровых для умножения и суммирования — не нужно представлять числа в двоичном коде.
GPU работает с 16- или 32-битными числами с плавающей запятой. Синапс «вычисляет» с физической точностью ~4–6 бит, но этого достаточно.
Масштаб: ~86 миллиардов нейронов
Мозг содержит около 86 млрд нейронов и ~100 трлн синаптических связей. При этом каждый нейрон получает в среднем ~7000 входов. Это не просто большая сеть — это невообразимо плотная и параллельная система с локальными вычислениями на каждом узле.
🤖 Почему ИИ так энергозатратен
Трансформер: внимание ко всему сразу
Архитектура трансформера (2017) использует механизм self-attention: каждый токен «смотрит» на все остальные токены в контексте. Вычислительная сложность — O(n²) по длине контекста. GPT-4 с контекстом 32 000 токенов: каждый токен взаимодействует с 32 000 другими — на каждом из 96 слоёв.
Это фундаментально неэффективно по сравнению с биологическим «вниманием», которое работает иерархически и локально.
Обучение с обратным распространением
Обратное распространение ошибки требует хранить в памяти все промежуточные активации (для вычисления градиентов) во время прохода вперёд. GPT-3: ~350 ГБ только для промежуточных активаций при одном батче. Это нагружает память и шину данных.
Мозг учится онлайн, локально, без хранения всей истории активаций — точный механизм до сих пор исследуется (кандидаты: правило Хебба, обратные проекции, предсказывающее кодирование).
🔬 Нейроморфные чипы: попытка скопировать биологию
Если мозг так эффективен — почему бы не скопировать его архитектуру?
Intel Loihi 2 (2021): 1 млн спайковых нейронов, 120 мВт. Для задач разреженных данных (сенсоры, аномалии) — в 1000× эффективнее GPU.
IBM NorthPole (2023): нейроморфный чип без внешней памяти. 22 нм, 256 ядер, 2048 нейросетевых операций на ватт — в 25× эффективнее H100 от NVIDIA на задачах вывода.
Ограничение: нейроморфные чипы хороши на конкретных задачах (классификация, управление), но не могут воспроизвести гибкость GPT. Архитектурный разрыв пока сохраняется.
💡 Что мозг не умеет (честно)
| Задача | Мозг | GPT-4 |
|---|---|---|
| Перемножить 12-значные числа | Плохо | Мгновенно |
| Запомнить точный текст дословно | Плохо | Отлично |
| Обобщить 1000 документов за секунду | Нет | Да |
| Обучиться на одном примере | Отлично | Плохо |
| Здравый смысл и физическая интуиция | Отлично | Частично |
| Понять контекст и намерение | Отлично | Имитирует |
| Энергопотребление | 20 Вт | МВт–ГВт |
Итог: карта различий
| Параметр | Мозг | GPT-4 |
|---|---|---|
| Нейронов / параметров | ~86 млрд | ~1,8 трлн |
| Энергия (инференс) | ~20 Вт | ~100–500 Вт/запрос (сервер) |
| Энергия (обучение) | — | ~50 ГВт·ч |
| Тип вычислений | Спайковый, событийный, аналоговый | Плотный, пакетный, цифровой |
| Обучение | Онлайн, локально | Офлайн, централизованно |
| Хранение памяти | Синаптические веса | Параметры модели |
| Обобщение | Гибкое | Статистическое |
Разрыв в эффективности в шесть порядков — не случайность. Это результат 500 миллионов лет эволюции нервной системы. Современный ИИ копирует функцию, но не архитектуру. Нейроморфные чипы делают первые шаги в обратном направлении — от функции к принципу.
👉 Связь: ИИ и нейросети — история от перцептрона до трансформера