Index · Правила · Поиск· Группы · Регистрация · Личные сообщения· Вход

Список разделов Мнение оппозиции
 
 
 

Раздел: Мнение оппозиции механика интеллекта 

Создана: 17 Декабря 2025 Срд 14:09:08.
Раздел: "Мнение оппозиции"
Сообщений в теме: 3, просмотров: 210

  1. 17 Декабря 2025 Срд 14:09:08
    трансформер это зерно LLM

    придумали его в google, но начали использовать в openAI

    он состоит из двух частей, по моему -
    1. матриц внимания, их существует четыре типа - матрица запрос, матрица ключ, матрица значение и матрица выхода
    2. матриц FFN (Feed-Forward Network), их называют матрицы баз знаний, обычно это две или три большие матрицы - матрица Up-Projection, матрица Down-Projection и матрица Gate (Ворота)
  2. 20 Декабря 2025 Суб 12:26:05
    у современных продвинутых моделей трансформер состоит только из декодера

    Если в электронике дешифратор просто выбирает один сигнал из многих, то в нейросетях декодировщик — это структура, которая предсказывает следующее слово (токен) на основе всего предыдущего контекста.

    декодер создает процесс авторегрессии:

    1. Вы даете модели начало фразы (промпт).

    2. Декодировщик вычисляет вероятность того, какое слово должно идти следующим и добавляет его к фразе.

    3. Повторяет процесс снова и снова, пока не закончит мысль.

    декодер состоит из нескольких механизмов которые позволяют ему «понимать» текст и генерировать продолжение:

    Masked Self-Attention (Маскированное самовнимание): декодировщик имеет в качестве запроса неоконченные фразы (не полностью сформулированные задания, запросы). Модель должна угадывать следующее слово, опираясь только на то, что уже было сказано ранее.

    Слои прямой связи (Feed-Forward Networks): После того как механизм внимания собрал связи между словами (например, понял, что слово «открыл» относится к слову «книга»), эти слои обрабатывают информацию и формируют более абстрактное представление смысла.

    Линейный слой и Softmax: Это финальный этап. Декодировщик переводит свои математические вычисления в список вероятностей для всех слов, которые он знает (его словаря). Например: «кот» — 80\%, «пес» — 5\%, «самолет» — 0.1\%.
  3. 21 Декабря 2025 Вск 13:13:39
    механизм внимания (Attention) позволяет понять, что слово «ключ» в предложении «Я открыл замок ключом» — это инструмент, а не музыкальный знак,
    если предложение «Я увидел в нотах ключ», то скорее всего речь идет о музыкальном ключе

    механизм внимания улавливает связь между словами в запросе

    механизм FFN(feed-forward network) позволяет обдумать - расширить и углубить наше восприятие контекста запроса

    FFN делает следующее:

    Извлечение фактов: FFN работают как своего рода «база знаний». В их весах хранятся конкретные факты о мире.

    Уточнение признаков: FFN может решить: «Ага, раз контекст про двери, значит, нам нужно усилить признаки "металлический", "холодный", "поворачивающийся"».

    Трансформация представления: Слово на входе в FFN — это просто набор сырых данных из контекста. На выходе это уже более глубокое, концептуальное описание.