Доступно

[Lazy Programmer Inc.] Машинное обучение: Обработка естественного языка на Python (V2)

Тема в разделе "Курсы по программированию"

Цена:
5990 руб
Взнос:
434 руб
Организатор:
Пандора

Список участников складчины:

1. Пандора
Купить
  1. Пандора Организатор складчин

    [Lazy Programmer Inc.] Машинное обучение: Обработка естественного языка на Python (V2)

    [​IMG]
    Здравствуйте, друзья!

    Добро пожаловать в раздел "Машинное обучение: Обработка естественного языка на Python (версия 2).

    Это обширный курс "4 в 1", включающий в себя:
    1. Векторные модели и методы предварительной обработки текста
    2. Вероятностные модели и марковские модели
    3. Методы машинного обучения
    4. Методы глубокого обучения и нейронные сети
    В первой части, посвященной векторным моделям и методам предварительной обработки текста, вы узнаете, почему векторы так важны в науке о данных и искусственном интеллекте. Вы узнаете о различных методах преобразования текста в векторы, таких как CountVectorizer и TF-IDF, а также познакомитесь с основами методов нейронного встраивания, таких как word2vec и GloVe.

    Затем вы примените полученные знания для решения различных задач, таких как:
    • Классификация текстов
    • Поиск документов / поисковая система
    • Обобщение текста
    Попутно вы освоите такие важные этапы предварительной обработки текста, как токенизация, стемминг и лемматизация.

    Вы кратко познакомитесь с классическими задачами НЛП, такими как тегирование частей речи.

    Во второй части, посвященной вероятностным и марковским моделям, вы узнаете об одной из самых важных моделей в науке о данных и машинном обучении за последние 100 лет. Она применяется не только в НЛП, но и во многих других областях, таких как финансы, биоинформатика и обучение с подкреплением.

    В этом курсе вы увидите, как такие вероятностные модели могут быть использованы в различных областях, таких как:
    • Построение классификатора текстов
    • Генерация текста (создание поэзии)
    • Формирование статей
    Важно отметить, что эти методы являются необходимой предпосылкой для понимания работы новейших моделей трансформаторов (внимания), таких как BERT и GPT-3. В частности, мы познакомимся с двумя важными задачами, которые соответствуют задачам предварительного обучения для BERT и GPT.

    В третьей части, посвященной методам машинного обучения, вы узнаете о более классических задачах НЛП, таких как:
    • Обнаружение спама
    • Топологическое моделирование
    • Латентно-семантический анализ (также известный как латентно-семантическое индексирование)
    • Анализ настроения
    Этот раздел будет ориентирован на применение, а не на теорию, т.е. вместо того, чтобы тратить большую часть усилий на изучение деталей различных алгоритмов ML, вы сосредоточитесь на том, как они могут быть применены для решения вышеуказанных задач.Конечно, для того чтобы понять суть происходящего, вам все равно придется кое-что узнать об этих алгоритмах. Будут использоваться следующие алгоритмы:
    • Наивный Байес
    • Логистическая регрессия
    • Анализ главных компонент (PCA) / разложение по сингулярным значениям (SVD)
    • Латентное распределение Дирихле (LDA)
    Это не просто "какие-то" алгоритмы машинного обучения / искусственного интеллекта, а скорее алгоритмы, которые являются основными в НЛП и поэтому являются неотъемлемой частью любого курса НЛП.

    В четвертой части, посвященной методам глубокого обучения, вы узнаете о современных архитектурах нейронных сетей, которые могут применяться для решения задач НЛП. Благодаря своей огромной мощности и гибкости нейронные сети могут быть использованы для решения любой из упомянутых в курсе задач.

    Вы узнаете о:
    • Искусственные нейронные сети с обратной связью (ИНС)
    • Конволюционные нейронные сети (CNN)
    • Рекуррентные нейронные сети (РНС)
    • Встраивание
    При изучении RNN будут рассмотрены современные архитектуры, такие как LSTM и GRU, которые широко используются компаниями Google, Amazon, Apple, Facebook и др. для решения таких сложных задач, как перевод языка, распознавание речи и преобразование текста в речь.Очевидно, что поскольку новейшие трансформеры (такие как BERT и GPT-3) являются примерами глубоких нейронных сетей, эта часть курса является необходимым условием для понимания трансформеров.

    УНИКАЛЬНЫЕ ХАРАКТЕРИСТИКИ
    • Каждая строчка кода подробно объясняется
    • Не тратить время на "набор текста" на клавиатуре, как в других курсах - давайте будем честными, никто не сможет написать код, достойный изучения, всего за 20 минут с нуля
    • Не бойтесь математики университетского уровня - получите важные детали об алгоритмах, которые другие курсы оставляют без внимания
    Продолжительность: 22.5 ч.
    Язык: Английский + Английские субтитры.

    Скрытый текст. Доступен только зарегистрированным пользователям.Нажмите, чтобы раскрыть...
     
  2. Похожие складчины
    Загрузка...
  3. Пандора Организатор складчин
    Уведомляем вас о начале сбора взносов.
    Цена продукта: 5990 руб. Взнос с каждого участника: 434 руб.
    Кол-во участников в основном списке: 1 чел.

    Начало сбора взносов 10 Январь 2024 года
     
    Пандора,
Наверх