Основы машинного обучения
книга

Основы машинного обучения

Здесь можно купить книгу "Основы машинного обучения " в печатном или электронном виде. Также, Вы можете прочесть аннотацию, цитаты и содержание, ознакомиться и оставить отзывы (комментарии) об этой книге.

Место издания: Екатеринбург

ISBN: 978-5-7996-3015-7

Страниц: 91

Артикул: 101077

Электронная книга
136.5

Краткая аннотация книги "Основы машинного обучения"

Изложены основы машинного обучения, а также история его появления. Даны определения основным понятиям: выборка, объекты выборки, параметры, функционал ошибки и прочее. Описаны основы градиентного спуска и его модификаций, основные алгоритмы обучения с учителем и обучения без учителя.

Содержание книги "Основы машинного обучения"


Data Science — что это такое и зачем она нужна?
Что такое data science?
Data Science — зачем она нужна?
Контрольные вопросы
Основы обучения с учителем
Основные понятия
Контрольные вопросы
Градиентный спуск
Пакетный метод градиентного спуска
Стохастический градиентный спуск
Mini-batch
Адаптивный градиентный спуск
Контрольные вопросы
Переобучение модели и методы борьбы с ним
Суть проблемы переобучения
Отложенная выборка
Кросс-валидация
Регуляризация
Контрольные вопросы
Бинарная классификация
Основные понятия и задачи классификации
Линейный классификатор
Логистическая регрессия
Метрики качества классификации
Контрольные вопросы
Решающие деревья и случайный лес
Решающие деревья
Случайный лес
Bagging
Boosting
Градиентный бустинг
Контрольные вопросы
Обучение без учителя
Основные понятия и области применения
Контрольные вопросы
Понижение размерности
Алгоритмы отбора признаков
Проекция признаков
Контрольные вопросы
Кластеризация
Задача, алгоритм и этапы кластеризации
Метод ближайших соседей (kNN)
Метод k средних (k‑means)
Плотностной алгоритм пространственной кластеризации с присутствием шума (Density-based spatial clustering of applications with noise — DBSCAN)
Иерархические методы кластеризации
Контрольные вопросы

Все отзывы о книге Основы машинного обучения

Чтобы оставить отзыв, зарегистрируйтесь или войдите

Отрывок из книги Основы машинного обучения

11Основные понятияРассмотрим математическое описание линейного алгорит-ма модели. Алгоритм линейной модели a(x) выражается в виде взвешенной суммы a xww xijjd( )=+=е01, (1)где w0, wi — веса модели; j — номер объекта в выборке; d — ко-личество объектов в выборке; i — номер параметра объекта.Перейдем к векторной форме записи выражения (1). Для этого внесем w0 в сумму, добавив еще один признак, всегда равный 1: a xw xW Xjjjd( ),===+е11, (2)где W — вектор весовых коэффициентов; X — вектор признаков.Вернемся к вышеописанному примеру модели, предсказы-вающей количество проданных рожков мороженого в зависи-мости от температуры воздуха. Алгоритм данной модели a(t) за-пишется в виде следующей суммы: a tww tjjd( )=+=е011, (3)где t — температура воздуха; w0 и w1 — веса модели; j — номер дня, для которого известна температура воздуха и количество проданных рожков мороженого; d — количество дней.Можно выражение (3) представить также в векторной форме: a tW X( ),=.Рассмотрим функционал ошибки, используемый в зада-че регрессии. В качестве функционала ошибки в задаче ре-грессии используется среднеквадратичная ошибка. По сути своей она отображает квадрат разности между значением, полученным алгоритмом (а(х)) и ответом на обучающей вы-борке (y):

Внимание!
При обнаружении неточностей или ошибок в описании книги "Основы машинного обучения (автор Оксана Лимановская, Татьяна Алферьева)", просим Вас отправить сообщение на почту help@directmedia.ru. Благодарим!