Сотворено природой Начальный

Мозг против ИИ: 20 Вт против 20 мегаватт

Нейронная сеть GPT-4 потребляет при обучении столько энергии, сколько небольшой город за несколько недель. Человеческий мозг решает сопоставимые задачи на 20 Вт — меньше тусклой лампочки. В чём принципиальное различие?

Длительность
чтение — 15–20 минут
Бюджет
0 ₽
Возраст
13–99 лет
Сложность
Начальный
#мозг #нейросеть #энергоэффективность #синапс #нейрон #ии #нейроморфные чипы #спайковые сети #биофизика

Схема носит иллюстративный характер и может содержать упрощения. Если вы заметили неточность — воспользуйтесь кнопкой обратной связи.

Введение: тусклая лампочка против электростанции

Человеческий мозг потребляет ~20 Вт. Меньше, чем тусклая лампочка накаливания. При этом он одновременно управляет всем телом, обрабатывает сенсорный поток, хранит ~2,5 петабайта воспоминаний (оценка), строит предсказания, ведёт социальные модели других людей и ещё успевает читать этот текст.

Обучение GPT-4 потребовало по оценкам около 50 ГВт·ч электроэнергии — потребление небольшого города за несколько недель. Инференс (ответ на один запрос) — доли ватт-часа, но серверные центры суммарно потребляют десятки мегаватт.

Разрыв в эффективности: шесть порядков величины в пользу биологии.


🧠 Почему мозг так эффективен

Спайковое кодирование: передача только изменений

Нейрон не передаёт непрерывный сигнал. Он молчит — и изредка выдаёт спайк (потенциал действия): короткий электрический импульс длительностью ~1 мс. Большую часть времени нейрон в покое, практически не потребляя энергии.

ИИ-сеть работает иначе: каждый нейрон непрерывно вычисляет взвешенную сумму входов и функцию активации — на каждом токене, для каждого слоя, для каждого веса. Нет понятия «покой».

Мозг — событийная архитектура. GPU — пакетная архитектура.

Локальность: вычисление там, где данные

В искусственной нейронной сети данные (активации) хранятся в одном месте, веса — в другом, вычисления — в третьем. Данные постоянно копируются между памятью и процессором («фон-неймановское узкое горло»).

В нейроне синапс совмещает хранение, вычисление и связь в одной точке. Вес синапса (его «проводимость») меняется прямо на месте — это и есть обучение. Никакого копирования данных.

Аналоговые вычисления

Синаптическая передача — аналоговый процесс: квант нейромедиатора, концентрация ионов, ток через канал. Аналоговые схемы энергетически эффективнее цифровых для умножения и суммирования — не нужно представлять числа в двоичном коде.

GPU работает с 16- или 32-битными числами с плавающей запятой. Синапс «вычисляет» с физической точностью ~4–6 бит, но этого достаточно.

Масштаб: ~86 миллиардов нейронов

Мозг содержит около 86 млрд нейронов и ~100 трлн синаптических связей. При этом каждый нейрон получает в среднем ~7000 входов. Это не просто большая сеть — это невообразимо плотная и параллельная система с локальными вычислениями на каждом узле.


🤖 Почему ИИ так энергозатратен

Трансформер: внимание ко всему сразу

Архитектура трансформера (2017) использует механизм self-attention: каждый токен «смотрит» на все остальные токены в контексте. Вычислительная сложность — O(n²) по длине контекста. GPT-4 с контекстом 32 000 токенов: каждый токен взаимодействует с 32 000 другими — на каждом из 96 слоёв.

Это фундаментально неэффективно по сравнению с биологическим «вниманием», которое работает иерархически и локально.

Обучение с обратным распространением

Обратное распространение ошибки требует хранить в памяти все промежуточные активации (для вычисления градиентов) во время прохода вперёд. GPT-3: ~350 ГБ только для промежуточных активаций при одном батче. Это нагружает память и шину данных.

Мозг учится онлайн, локально, без хранения всей истории активаций — точный механизм до сих пор исследуется (кандидаты: правило Хебба, обратные проекции, предсказывающее кодирование).


🔬 Нейроморфные чипы: попытка скопировать биологию

Если мозг так эффективен — почему бы не скопировать его архитектуру?

Intel Loihi 2 (2021): 1 млн спайковых нейронов, 120 мВт. Для задач разреженных данных (сенсоры, аномалии) — в 1000× эффективнее GPU.

IBM NorthPole (2023): нейроморфный чип без внешней памяти. 22 нм, 256 ядер, 2048 нейросетевых операций на ватт — в 25× эффективнее H100 от NVIDIA на задачах вывода.

Ограничение: нейроморфные чипы хороши на конкретных задачах (классификация, управление), но не могут воспроизвести гибкость GPT. Архитектурный разрыв пока сохраняется.


💡 Что мозг не умеет (честно)

ЗадачаМозгGPT-4
Перемножить 12-значные числаПлохоМгновенно
Запомнить точный текст дословноПлохоОтлично
Обобщить 1000 документов за секундуНетДа
Обучиться на одном примереОтличноПлохо
Здравый смысл и физическая интуицияОтличноЧастично
Понять контекст и намерениеОтличноИмитирует
Энергопотребление20 ВтМВт–ГВт

Итог: карта различий

ПараметрМозгGPT-4
Нейронов / параметров~86 млрд~1,8 трлн
Энергия (инференс)~20 Вт~100–500 Вт/запрос (сервер)
Энергия (обучение)~50 ГВт·ч
Тип вычисленийСпайковый, событийный, аналоговыйПлотный, пакетный, цифровой
ОбучениеОнлайн, локальноОфлайн, централизованно
Хранение памятиСинаптические весаПараметры модели
ОбобщениеГибкоеСтатистическое

Разрыв в эффективности в шесть порядков — не случайность. Это результат 500 миллионов лет эволюции нервной системы. Современный ИИ копирует функцию, но не архитектуру. Нейроморфные чипы делают первые шаги в обратном направлении — от функции к принципу.

👉 Связь: ИИ и нейросети — история от перцептрона до трансформера

Что почитать

Книги

  • Хокинс Дж.. Тысяча мозгов (2021) есть на русском Теория Reference Frame Theory — как мозг строит карты мира и почему это принципиально отличается от GPT
  • Маркус Г., Дэвис Э.. Переосмыслить ИИ (2019) есть на русском Честный разбор ограничений нынешнего ИИ по сравнению с биологическим интеллектом

Онлайн

Обратная связь
Тип обращения
Ваша оценка
Сообщение
Подтверждение
Загрузка...

без персональных данных