Как это сделано Начальный

Искусственный интеллект: что на самом деле происходит внутри

Нейросети — не магия и не разум. Это математика, физика и нейронаука, собранные вместе. Нобель 2024, 80 лет истории и то, чего большинство людей не знает.

Длительность
чтение — 25–30 минут
Бюджет
0 ₽
Возраст
13–99 лет
Сложность
Начальный
#искусственный интеллект #нейросети #машинное обучение #трансформер #хинтон #хопфилд #нобель 2024 #alphafold #chatgpt #глубокое обучение #перцептрон

Схема носит иллюстративный характер и может содержать упрощения. Если вы заметили неточность — воспользуйтесь кнопкой обратной связи.

Этот сайт сделан с помощью ИИ. Статьи написаны совместно с Claude (Anthropic) — языковой моделью на основе трансформера. Код сайта, SVG-схемы, структура экспериментов — всё это результат совместной работы человека и нейросети. Мы считаем важным говорить об этом прямо.


Введение: то, чего большинство не знает

Когда говорят «искусственный интеллект думает» или «нейросеть понимает» — это метафора, которая вводит в заблуждение. Нейросеть не думает и не понимает.

Вот что происходит на самом деле:

Нейросеть — это функция. Она принимает числа на вход и выдаёт числа на выход. Внутри — миллиарды умножений и сложений. Обучение — это поиск таких весов (коэффициентов), при которых функция даёт правильные ответы на обучающих данных.

Всё. Никакого сознания, никакого понимания, никакой «искры».

И при этом это работает настолько хорошо, что нейросеть ставит диагноз рак точнее опытного радиолога, предсказывает погоду лучше суперкомпьютеров ECMWF, решила задачу фолдинга белков, над которой биохимики бились 50 лет.

Как это возможно — и есть главный вопрос этой карты.


🧠 Откуда взялась идея: нейрон Маккалока и Питтса, 1943

Уоррен Маккалок — нейрофизиолог. Уолтер Питтс — математик-самоучка, бездомный подросток, которого Маккалок взял к себе жить. В 1943 году они опубликовали статью «Логическое исчисление идей, относящихся к нервной активности».

Идея: биологический нейрон получает сигналы от других нейронов, суммирует их и «стреляет», если сумма превышает порог. Маккалок и Питтс показали, что сеть таких простых элементов может вычислить любую логическую функцию.

Это была не нейронаука — это была математика. Но метафора «нейрон» осталась навсегда.

👉 Связь: JPEG и зрение: нейроны Хьюбела — биологический прообраз


📐 Перцептрон: первая обучающаяся машина, 1958

Фрэнк Розенблатт в 1958 году создал перцептрон — физическую машину (не программу!) в корпусе IBM 704, которая могла обучаться распознавать изображения.

Принцип прост: входные сигналы умножаются на веса, суммируются, сравниваются с порогом. Если ответ неверный — веса немного корректируются. И так тысячи раз.

Газета New York Times написала: «Военно-морской флот показал прообраз компьютера, который умеет ходить, говорить, видеть, писать, воспроизводить себя и осознавать своё существование».

Это была журналистская гиперболизация. Но ажиотаж был огромным.

Первая зима ИИ: Минский и Пейперт, 1969

В 1969 году Марвин Минский и Сеймур Пейперт опубликовали книгу «Перцептроны» и математически доказали: однослойный перцептрон не может решить задачу XOR — элементарную логическую функцию.

Финансирование ИИ-исследований рухнуло почти до нуля. Это называют «первой зимой ИИ». Хинтон продолжал работать, когда почти никто не верил.


🔄 Обратное распространение: нейросети научились учиться, 1986

Главная проблема многослойных сетей: как обучать скрытые слои? Ошибку на выходе видно, но как понять, чей вклад в эту ошибку?

В 1986 году Дэвид Румельхарт, Джефф Хинтон и Рональд Уильямс опубликовали алгоритм обратного распространения ошибки (backpropagation):

  1. Прогони данные вперёд (forward pass) — получи ответ
  2. Вычисли ошибку
  3. Прогони градиент ошибки назад (backward pass) — цепное правило дифференцирования
  4. Скорректируй каждый вес пропорционально его вкладу в ошибку

Математически — это градиентный спуск в пространстве весов. Геометрически — движение вниз по «горному рельефу» функции потерь.

Это переломный момент. Нейросети стало можно обучать. Но компьютеры ещё были слишком слабы для больших сетей.


❄️ Вторая зима и тихая работа, 1990-е

В 1990-х ИИ снова разочаровал. Нейросети работали, но медленно и требовали огромных ресурсов. Побеждали другие методы — SVM, деревья решений.

Хинтон, ЛеКун и Бенджио продолжали. ЛеКун создал LeNet — свёрточную нейросеть для распознавания рукописных цифр на почтовых конвертах (1998). Та же архитектура — в Face ID вашего смартфона сегодня.


💥 AlexNet: 2012 — всё изменилось

В 2012 году на конкурсе ImageNet (распознавание 1000 категорий объектов) произошло что-то неожиданное.

Все участники давали ошибку ~26%. Команда Алекса Крижевского и Джеффа Хинтона из Университета Торонто дала 15,3%.

Разрыв был огромным — почти вдвое. Второе место: 26,2%.

Это был AlexNet: глубокая свёрточная сеть, обученная на двух GPU (видеокартах для игр). Ключевые находки:

  • ReLU вместо сигмоиды — обучение в 6 раз быстрее
  • Dropout — случайное «отключение» нейронов при обучении, борьба с переобучением
  • Data augmentation — искусственное увеличение датасета (повороты, отражения)

После 2012 года все занялись глубоким обучением. Вторая зима закончилась навсегда.


🔮 Трансформер: «Внимание — это всё», 2017

В 2017 году восемь инженеров Google Brain опубликовали статью с названием «Attention Is All You Need» («Внимание — это всё»).

Они предложили архитектуру трансформера — и это изменило всё.

До трансформера языковые модели обрабатывали текст последовательно: слово за словом, слева направо. При длинных текстах начало «забывалось».

Трансформер обрабатывает весь текст сразу, вычисляя для каждого слова его «внимание» (attention) ко всем другим словам в тексте. «Кот поймал мышь, которую он преследовал» — слово «он» «внимает» к «кот», а не к «мышь».

Механизм attention — математически близок к тому, как нейробиологи описывают избирательное внимание в зрительной коре. Совпадение? Возможно, нет.

На трансформерах построены: GPT, Claude, Gemini, LLaMA, BERT, Whisper, Stable Diffusion.

Что такое GPT на самом деле?

GPT (Generative Pre-trained Transformer) делает одно: предсказывает следующий токен (слово или часть слова) по предыдущим.

Дано: «Земля вращается вокруг» → следующий токен: «Солнца» (с высокой вероятностью).

Вот и весь принцип. Но обученный на сотнях миллиардов слов предсказатель следующего слова оказывается способен отвечать на вопросы, писать код, объяснять физику и вести диалог. Это не потому что он «понимает» — а потому что понимание, возможно, и есть очень хорошее предсказание следующего шага в рассуждении.


🏆 Нобелевская премия по физике 2024: Хопфилд и Хинтон

В октябре 2024 года Нобелевский комитет присудил премию по физике двум исследователям нейросетей.

Многие были удивлены: это же не физика?

Джон Хопфилд (1982): нейросеть как физическая система

Хопфилд описал рекуррентную нейросеть как физическую систему с «энергией» — по аналогии со спиновым стеклом (магнитный материал в физике конденсированных сред).

Система «скатывается» в состояние минимальной энергии, как шарик в ямке. Это и есть вспоминание: по частичному образу сеть восстанавливает полный — как мы узнаём человека по голосу, не видя лица.

Нобелевский комитет объяснил: методы физики применены к нейросетям, и методы нейросетей теперь применяются в физике. Граница стёрлась.

Джефф Хинтон: 40 лет против течения

Хинтон получил Нобеля за всю совокупность работ: обратное распространение (1986), машины Больцмана, дроп-аут, капсульные сети. И за то, что не бросил, когда все бросили.

После получения Нобеля Хинтон сказал, что беспокоится об ИИ больше, чем гордится достижениями. Он покинул Google в 2023 году, чтобы свободно говорить о рисках.


🧬 AlphaFold: Нобель по химии 2024 — через ИИ

Параллельно в 2024 году Нобелевская премия по химии была присуждена частично за AlphaFold (Демис Хасабис и Джон Джампер, DeepMind).

Задача фолдинга белков — предсказать трёхмерную форму белка по его аминокислотной последовательности — считалась одной из величайших нерешённых задач биологии. Над ней работали 50 лет.

AlphaFold решил её. В базе данных теперь более 200 миллионов структур белков — фактически весь белковый мир. Это меняет разработку лекарств, понимание болезней, синтетическую биологию.

Один нейросетевой инструмент переделал целую науку.


💡 То, чего большинство не знает

ИИ «галлюцинирует» — и это не баг, это особенность архитектуры

Языковая модель не ищет факты в базе данных. Она генерирует наиболее вероятное продолжение. Если вероятный следующий токен — несуществующая цитата, модель её сгенерирует. Это называется галлюцинация.

Решение — не в «исправлении» модели, а в RAG (retrieval-augmented generation): сначала найти факты, потом генерировать ответ на их основе.

Нейросеть — это просто числа

Модель GPT-4 — это файл весов размером ~1,8 терабайта. Это просто числа. Никакой программы, никаких правил, никаких баз знаний. Только числа, которые описывают, как входные токены преобразуются в выходные.

Обучение требует огромной энергии — использование — нет

Обучение GPT-4 потребовало, по оценкам, ~50 ГВт·ч электроэнергии. Один запрос к GPT-4 — около 0,001–0,01 кВт·ч. Это сопоставимо с поиском в Google.

Свёрточные сети скопированы с мозга

CNN (свёрточные нейросети) были вдохновлены открытием Хьюбела и Визела: зрительная кора строит иерархию детекторов (край → угол → форма → объект). CNN делает то же самое. Это не случайность — ЛеКун сознательно проектировал сеть по образцу зрительной системы.

👉 Связь: JPEG и зрение: нейроны Хьюбела

Трансформер не понимает — он интерполирует

Трансформер — чрезвычайно мощный интерполятор в пространстве текстов, которые он видел. Когда он даёт правильный ответ на новый вопрос — он «вспоминает» паттерн из обучающих данных. Когда он ошибается — он «экстраполирует» туда, куда паттерны не ведут.


🌍 Применения, которые уже меняют мир

Медицина: нейросети выявляют рак молочной железы на маммографии с точностью, превышающей среднего радиолога. DeepMind предсказывает острую почечную недостаточность за 48 часов до клинических симптомов.

Климат и погода: GraphCast (Google DeepMind, 2023) предсказывает погоду на 10 суток точнее, чем ECMWF (лучшая физическая модель в мире), за секунды вместо часов.

Наука: AlphaFold решил фолдинг белков. GNoME предсказал 2,2 миллиона новых стабильных кристаллических структур — потенциальных новых материалов.

Образование: персональные ИИ-тьюторы адаптируются под темп и стиль ученика. Сократический диалог вместо лекции.

Этот сайт: «На острие науки» создан совместно с Claude — языковой моделью компании Anthropic. Статьи, код, SVG-схемы, структура экспериментов — всё это совместная работа человека и нейросети. Мы считаем, что ИИ как инструмент в образовании и науке нужно не скрывать, а показывать — и объяснять, как он устроен.


Итог: карта открытий

МоментОткрытиеНобельГод
Математический нейронМаккалок и Питтс1943
ПерцептронРозенблатт1958
Обратное распространениеРумельхарт, Хинтон, Уильямс✅ 20241986
Свёрточные сети (CNN)ЛеКун1989–1998
Сеть ХопфилдаХопфилд✅ 20241982
Глубокое обучениеAlexNet (Крижевский, Хинтон)2012
ТрансформерVaswani et al., Google Brain2017
Фолдинг белковAlphaFold (Хасабис, Джампер)✅ 2024 (хим.)2020
Массовый ИИChatGPT (OpenAI)2022

2 Нобелевские премии в 2024 году — физика и химия — за работы, связанные с нейросетями. Это беспрецедентно.


Что дальше?

Хинтон, ЛеКун и Бенджио — «отцы глубокого обучения», лауреаты премии Тьюринга 2018 года — расходятся во взглядах на будущее. Хинтон обеспокоен рисками. ЛеКун считает, что нынешние LLM — тупик, нужна другая архитектура. Бенджио работает над безопасностью.

Одно очевидно: мы живём в момент, когда технология меняется быстрее, чем общество успевает осмыслить. И лучшее, что можно сделать — понять, как это устроено изнутри.

Что почитать

Книги

  • Хайкин С.. Нейронные сети: полный курс (2006) есть на русском Фундаментальный учебник. Математика от перцептрона до рекуррентных сетей
  • Гудфеллоу И., Бенджио И., Курвилль А.. Глубокое обучение (2017) есть на русском Стандартный учебник по deep learning от авторов-основоположников
  • Сеймановски Т.. Глубокое обучение. Революция в обработке текста, изображений и данных (2018) есть на русском Доступное введение без тяжёлой математики

Онлайн

Обратная связь
Тип обращения
Ваша оценка
Сообщение
Подтверждение
Загрузка...

без персональных данных