Построение систем машинного обучения на языке Python, Луис П.К., Вилли Р., 2016

К сожалению, на данный момент у нас невозможно бесплатно скачать полный вариант книги.

Но вы можете попробовать скачать полный вариант, купив у наших партнеров электронную книгу здесь.

Также можно купить бумажную версию книги здесь.


Построение систем машинного обучения на языке Python, Луис П.К., Вилли Р., 2016.

  Применение машинного обучения для лучшего понимания природы данных - умение, необходимое любому современному разработчику программ или аналитику. Python - замечательный язык для создания приложений машинного обучения. Благодаря своей динамичности он позволяет быстро производить разведочный анализ данных и экспериментировать с ними. Обладая первоклассным набором библиотек машинного обучения с открытым исходным кодом, Python дает возможность сосредоточиться на решаемой задаче и в то же время опробовать различные идеи.
Книга начинается с краткого введения в предмет машинного обучения и знакомства с библиотеками NumPy, SciРу, scikit-learn. Но довольно быстро авторы переходят к более серьезным проектам с реальными наборами данных, в частности, тематическому моделированию, анализу корзины покупок, облачным вычислениям и др.
Издание рассчитано на программистов, пишущих на Python и желающих узнать о построении систем машинного обучения и научиться извлекать из данных ценную информацию, необходимую для решения различных задач.

Построение систем машинного обучения на языке Python, Луис П.К., Вилли Р., 2016


Введение в машинное обучение на языке Python.
Машинное обучение - это наука о том, как научить машину самостоятельно решать задачи. Вот так все просто. Но дьявол кроется в деталях, и именно поэтому вы читаете эту книгу.

Быть может, данных слишком много, а априорных знаний о них слишком мало. И вы надеетесь, что алгоритмы машинного обучения помогут справиться с этой проблемой, а потому начинаете в них разбираться. Но через некоторое время впадаете в ступор: какой же из мириада алгоритмов выбрать?

Или, быть может, вас заинтересовали общие вопросы машинного обучения, и вы начали читать блоги и статьи на эту тему. Все эго показалось вам таким крутым и волшебным, что вы приступили к собственным исследованиям и загрузили простенькие данные в решающее дерево или в машину опорных векторов. Но вот эксперимент завершился, и возникает вопрос: а правильно ли он был поставлен? Насколько оптимальны полученные результаты? И как узнать, не существует ли алгоритма получше? Да и вообще - правильно ли были подобраны данные ?

Оглавление.
Об авторах.
О рецензентах.
Предисловие.
О содержании книги.
Что необходимо для чтения этой книги.
На кого рассчитана эта книга.
Графические выделения.
Отзывы.
Поддержка клиентов.
Загрузка кода примеров.
Опечатки.
Нарушение авторских прав.
Вопросы.
Глава 1. Введение в машинное обучение на языке Python.
Машинное обучение и Python - команда мечты.
Что вы узнаете (и чего не узнаете) из этой книги.
Что делать, если вы застряли.
Приступая к работе.
Введение в NumPy, SciPy и matplotlib.
Установка Python.
NumPy как средство эффективной и SciPy как средство интеллектуальной обработки данных.
Изучаем NumPy.
Изучаем SciPy.
Наше первое (простенькое) приложение машинного обучения.
Чтение данных.
Предварительная обработка и очистка данных.
Выбор подходящей модели и обучающего алгоритма.
Резюме.
Глава 2. Классификация в реальной жизни.
Набор данных Iris.
Визуализация - первый шаг к цели.
Построение первой модели классификации.
Оценка качества - резервирование данных и перекрестная проверка.
Построение более сложных классификаторов.
Более сложный набор данных и более сложный классификатор.
Набор данных Seeds.
Признаки и подготовка признаков.
Классификация по ближайшему соседу.
Классификация с помощью scikit-learn.
Решающие границы.
Бинарная и многоклассовая классификация.
Резюме.
Глава 3. Кластеризация - поиск взаимосвязанных сообщений.
Измерение сходства сообщений.
Как не надо делать.
Как надо делать.
Предварительная обработка - количество общих слов как мера сходства.
Преобразование простого текста в набор слов.
Развитие концепции стоп-слов.
Чего мы достигли и к чему стремимся.
Кластеризация.
Метод К средних.
Тестовые данные для проверки наших идей.
Кластеризация сообщений.
Решение исходной задачи.
Другой взгляд на шум.
Настройка параметров.
Резюме.
Глава 4. Тематическое моделирование.
Латентное размещение Дирихле.
Построение тематической модели.
Сравнение документов по темам.
Моделирование всей википедии.
Выбор числа тем.
Резюме.
Глава 5. Классификация - выявление плохих ответов.
План действий.
Учимся классифицировать классные ответы.
Подготовка образца.
Настройка классификатора.
Получение данных.
Сокращение объема данных.
Предварительная выборка и обработка атрибутов.
Что считать хорошим ответом?.
Создание первого классификатора.
Метод к ближайших соседей.
Подготовка признаков.
Обучение классификатора.
Измерение качества классификатора.
Проектирование дополнительных признаков.
Как поправить дело?.
Дилемма смещения-дисперсии.
Устранение высокого смещения.
Устранение высокой дисперсии.
Низкое или высокое смещение?.
Логистическая регрессия.
Немного математики на простом примере.
Применение логистической регрессии к задаче классификации.
Не верностью единой - точность и полнота.
Упрощение классификатора.
К поставке готов!.
Резюме.
Глава 6. Классификация II - анализ эмоциональной окраски.
План действий.
Чтение данных из Твиттера.
Введение в наивный байесовский классификатор.
О теореме Байеса.
Что значит быть наивным.
Использование наивного байесовского алгоритма для классификации.
Учет ранее не встречавшихся слов и другие тонкости.
Борьба с потерей точности при вычислениях.
Создание и настройка классификатора.
Сначала решим простую задачу.
Использование всех классов.
Настройка параметров классификатора.
Очистка твитов.
Учет типов слов.
Определение типов слов.
Удачный обмен с помощью SentiWordNet.
Наш первый оценщик.
Соберем все вместе.
Резюме.
Глава 7. Регрессия.
Прогнозирование стоимости домов с помощью регрессии.
Многомерная регрессия.
Перекрестная проверка для регрессии.
Регрессия со штрафом, или регуляризованная регрессия.
Штрафы L1 и L2.
Lasso и эластичная сеть в библиотеке scikit-learn.
Визуализация пути в Lasso.
Сценарии Р-больше-N.
Пример, основанный на текстовых документах.
Объективный подход к заданию гиперпараметров.
Резюме.
Глава 8. Рекомендации.
Прогноз и рекомендование оценок.
Разделение данных на обучающие и тестовые.
Нормировка обучающих данных.
Рекомендование на основе ближайших соседей.
Регрессионный подход к рекомендованию.
Комбинирование нескольких методов.
Анализ корзины.
Получение полезных прогнозов.
Анализ корзин покупок в супермаркете.
Поиск ассоциативных правил.
Более сложный анализ корзины.
Резюме.
Глава 9. Классификация по музыкальным жанрам.
План действий.
Получение музыкальных данных.
Преобразование в формат WAV.
Взгляд на музыку.
Разложение на синусоидальные волны.
Применение БПФ для построение первого классификатора.
Повышение гибкости эксперимента.
Обучение классификатора.
Применение матрицы неточностей для измерения верности в многоклассовых задачах.
Альтернативный способ измерения качества классификатора с помощью рабочей характеристики приемника.
Повышение качества классификации с помощью мел-частотных кепстральных коэффициентов.
Резюме.
Глава 10. Машинное зрение.
Введение в обработку изображений.
Загрузка и показ изображения.
Бинаризация.
Гауссово размывание.
Помещение центра в фокус.
Простая классификация изображений.
Вычисление признаков по изображению.
Создание собственных признаков.
Использование признаков для поиска похожих изображений.
Классификация на более трудном наборе данных.
Локальные представления признаков.
Резюме.
Глава 11. Понижение размерности.
План действий.
Отбор признаков.
Выявление избыточных признаков с помощью фильтров.
Применение оберток для задания модели вопросов о признаках.
Другие методы отбора признаков.
Выделение признаков.
Об анализе главных компонент.
Ограничения РСД и чем может помочь LDA.
Многомерное шкалирование.
Резюме.
Глава 12. Когда данных больше.
Что такое большие данные.
Использование jug для построения конвейера задач.
введение в задачи jug.
Заглянем под капот.
Применение jug для анализа данных.
Повторное использование частичных результатов.
Работа с Amazon Web Services.
Создание виртуальной машины.
Установка Python-пакетов на Amazon Linux.
Запуск jug на облачной машине.
Автоматизированная генерация кластеров с помощью StarCluster.
Резюме.
Где получить дополнительные сведения о машинном обучении.
Онлайновые курсы.
Книги.
Вопросно-ответные сайты.
Блоги.
Источники данных.
Участие в конкурсах.
Что не вошло в книгу.
Резюме.
Предметный указатель.

Купить .

По кнопкам выше и ниже «Купить бумажную книгу» и по ссылке «Купить» можно купить эту книгу с доставкой по всей России и похожие книги по самой лучшей цене в бумажном виде на сайтах официальных интернет магазинов Лабиринт, Озон, Буквоед, Читай-город, Литрес, My-shop, Book24, Books.ru.

По кнопке «Купить и скачать электронную книгу» можно купить эту книгу в электронном виде в официальном интернет магазине «ЛитРес», и потом ее скачать на сайте Литреса.

По кнопке «Найти похожие материалы на других сайтах» можно найти похожие материалы на других сайтах.

On the buttons above and below you can buy the book in official online stores Labirint, Ozon and others. Also you can search related and similar materials on other sites.


Дата публикации:






Теги: :: :: ::


Следующие учебники и книги:
Предыдущие статьи:


 


 

Книги, учебники, обучение по разделам




Не нашёл? Найди:





2021-09-16 23:16:20