{
    "version": "https:\/\/jsonfeed.org\/version\/1",
    "title": "Блог Артёма Агасиева: заметки с тегом Machine Learning",
    "_rss_description": "Telegram: @aagasiev",
    "_rss_language": "ru",
    "_itunes_email": "",
    "_itunes_categories_xml": "",
    "_itunes_image": "",
    "_itunes_explicit": "",
    "home_page_url": "https:\/\/agasiev.com\/tags\/machine-learning\/",
    "feed_url": "https:\/\/agasiev.com\/tags\/machine-learning\/json\/",
    "icon": "https:\/\/agasiev.com\/user\/userpic@2x.jpg?1529202066",
    "author": {
        "name": "Артём Агасиев",
        "url": "https:\/\/agasiev.com\/",
        "avatar": "https:\/\/agasiev.com\/user\/userpic@2x.jpg?1529202066"
    },
    "items": [
        {
            "id": "85",
            "url": "https:\/\/agasiev.com\/all\/shpargalka-po-otlichiyam-ansamblevyh-metodov-v-klassifikacii\/",
            "title": "Шпаргалка по отличиям ансамблевых методов в классификации",
            "content_html": "<p>Раньше, бывало, забывал в чем отличия каждого из популярных ансамблевых методов, так что решил написать об этом краткую справку. Может, кому-то пригодится.<\/p>\n<p><b>Стекинг<\/b><\/p>\n<p>Берем наши данные целиком и учим на них несколько моделей с разными алгоритмами. Ответы по каждому примеру собираем и подаем на вход финальному решающему алгоритму.<\/p>\n<p>Пример из жизни: Спрашиваем всех своих знакомых, какой из двух автомобилей лучше купить.<\/p>\n<p>Плюсы: Очень просто реализовать.<br \/>\nМинусы: Хуже качество, если сравнивать с бэггингом и бустингом.<\/p>\n<p><b>Бэггинг<\/b><\/p>\n<p>Много раз берем случайные выборки из наших данных и обучаем на них несколько моделей с одним и тем же алгоритмом. Ответы по каждому примеру собираем и подаем на вход финальному решающему алгоритму.<\/p>\n<p>Пример из жизни: Разные трейдеры, рекомендуют покупать или продавать какую-то конкретную акцию в зависимости от подмножества знаний о всем рынке, которыми они обладают в данный момент.<\/p>\n<p>Плюсы: Очень легко параллелится, быстро работает.<br \/>\nМинусы: Качество классификации хуже, чем у бустинга.<\/p>\n<p><b>Бустинг<\/b><\/p>\n<p>Берем случайную выборку из данных и обучаем одну модель на одном алгоритме. На следующем шаге, в случайную выборку добавляем примеры, на которых предыдущая модель ошибалась больше всего и обучаем еще одну модель на том же самом алгоритме и т. д.<\/p>\n<p>Пример из жизни: Похоже на то, как мы учим билеты к экзамену. Сначала все подряд, потом все больше внимания уделяя тем, на которые часто даем неверные ответы.<\/p>\n<p>Плюсы: Высокое качество классификации.<br \/>\nМинусы: Медленно работает. т. к. если не заморачиваться, по умолчанию не параллелится.<\/p>\n",
            "date_published": "2021-07-19T16:34:29+03:00",
            "date_modified": "2021-07-19T16:45:58+03:00",
            "_date_published_rfc2822": "Mon, 19 Jul 2021 16:34:29 +0300",
            "_rss_guid_is_permalink": "false",
            "_rss_guid": "85",
            "_e2_data": {
                "is_favourite": false,
                "links_required": [],
                "og_images": []
            }
        }
    ],
    "_e2_version": 3576,
    "_e2_ua_string": "E2 (v3576; Aegea)"
}