Здесь — то о чём говорят в техническом твиттере и на конференциях прямо сейчас. Mixture of Experts, квантизация, LoRA-адаптеры, мультимодальность через CLIP, scaling laws. Это инженерные техники, которые делают возможной современную индустрию ИИ — без них всё застряло бы на лабораторных демо.
На этом уровне ты понимаешь не только «как работает GPT внутри», но и «почему индустрия делает именно так». Почему Mixtral дешевле GPT-4 при сравнимом качестве. Почему ты можешь скачать LLaMA на ноутбук. Почему дообучить модель под свою задачу — это часы, а не недели. И почему Сэм Альтман просит $7 триллионов на чипы.
Тридцать четыре секции, пять частей. От одного нейрона до scaling laws. Если читал всё — у тебя теперь есть структурированная картина того что такое нейросети, как они работают, как обучаются, и почему эта индустрия выглядит так как выглядит.