Разделы презентаций


Вывод: Для получения наибольшего спроса требуется разместить товары категории e

          Рисунок 6 — зависимость точности модели от числа соседейРазмерность Х:(351, 34)Размерность Y:(351,)Обучающая выборка (263,) примеровТестовая выборка (88,) примеровРезультатНаивысшая точность 0.9% при числе соседей = 2 Точность cross val на тестовой выборке: 84.18% Точность cross val на "перекошенной"

Слайды и текст этой презентации

Слайд 1Вывод: Для получения наибольшего спроса требуется разместить товары категории e

в центре зала так, чтобы все потребители проходили около него

и в случае покупки товаров других категорий наиболее часто сталкивались с товарами категории e, в свою очередь, ближе всего к товарам категории e требуется разместить товары категории c в силу высокого спроса на товары данной категории, при покупке товаров категории e

Рисунок 1 — Частота появления 1го товара

Рисунок 2 — Частота покупки двух товаров одновременно

Рисунок 3 — Частота покупки второго товара при покупке первого

Рисунок 4 — Частота покупки двух товаров одновременно сгупированная

Рисунок 5 — Частота покупки второго товара при покупке первого сгупированная

Результат: Самый большой спрос имеет товар e, причём при покупке товара e чаще всего покупают товар c, а при покупке других товаров чаще всего покупают товар e

Постановка задачи: Произвести оценку частоты покупки каждого из 5ти товаров, чьи статистические данные были представлены, и оценить частоту покупки пары товаров и предложить наиболее рациональный вариант из размещения для повышения спроса на них.

Метод решения: Обработка представленных статистических данных встроенными методами Excel

Вывод: Для получения наибольшего спроса требуется разместить товары категории e в центре зала так, чтобы все потребители

Слайд 2 
        





Рисунок 6 — зависимость точности модели от числа соседей
Размерность

Х:(351, 34)
Размерность Y:(351,)
Обучающая выборка (263,) примеров
Тестовая выборка (88,) примеров

Результат
Наивысшая точность

0.9% при числе соседей = 2
Точность cross val на тестовой выборке: 84.18% 
Точность cross val на "перекошенной" тестовой выборке: 80.73% 
Точность cross val на нормализованной тестовой выборке: 85.33%

Вывод: Наибольшая эффективность классификатора достигается при количестве равном 2м, теряя свою эффективность в иных случаях. Также было выявлено, что нормализация данных влияет на качество классификации

Постановка задачи: Провести оценку классификации данных ионосферы методом KNeighborsClassifier и определить число соседей для получения наиболее эффективной оценки, оценить эффективность классификации при нормализации данных

Метод решения: Обработка данных их классификация с использованием возможностей Jupyter lab

          Рисунок 6 — зависимость точности модели от числа соседейРазмерность Х:(351, 34)Размерность Y:(351,)Обучающая выборка (263,) примеровТестовая выборка

Слайд 3Результат
Многие классификаторы показали 100% разделение, что показало линейное разделение данных.

Вывод:

Данные, являясь линейно разделимыми, без ошибок классифицируются большинством методов классификации,

однако, понимая это, лучшими методами классификации в данном случае будут являться линейные, т.к. они являются наиболее простыми и быстрыми и наименее трудоёмкими

Постановка задачи: Провести оценку классификации предоставленных данных различными методами и произвести оценку эффективности

Метод решения: Обработка данных их классификация с использованием возможностей Jupyter lab

Рисунок 7 — Матрица диаграммы рассеивания

PCA(n_components=2)
Массив train: (48, 16)
Массив test: (16, 16)
Массив train_PCA: (48, 2)
Массива test_PCA: (16, 2)

Таблица 1 — Сравнение методов классификации с PCA и без

НЕТ ИССЛЕДОВАНИЯ!!!
НУЖНО НА ВСЕХ МЕТОДАХ ПРОСМОТРЕТЬ ВСЕ ПАРАМЕТРЫ(КОТОРЫЕ МЫ ИЗУЧАЛИ) В РАЗНЫХ КОМБИНАЦИЯХ И ЭТО ПРЕДСТАВИТЬ!
СКАЗАТЬ С КАКИМИ ПАРАМЕТРАМИ ЛУЧШЕ!

РезультатМногие классификаторы показали 100% разделение, что показало линейное разделение данных.Вывод: Данные, являясь линейно разделимыми, без ошибок классифицируются

Слайд 4Результат
Наилучший результат показал классификатор MLP с данным на тесте 94.32%
Вывод:

Представленные данные не являются визуально разделимыми. В данном случае большую

роль играют параметры, которые будут использоваться в классификаторах, а также выбранное количество компонент в модели PCA. В рассмотренном примере наилучший результат в обоих случаях показал MLPClassifier.

Постановка задачи: Провести оценку классификации данных ionosphere различными методами и произвести оценку эффективности

Метод решения: Обработка данных их классификация с использованием возможностей Jupyter lab

Рисунок 8 — Матрица диаграммы рассеивания

PCA(n_components=11)
Массив train: (48, 16)
Массив test: (16, 16)
Массив train_PCA: (48, 2)
Массива test_PCA: (16, 2)

Таблица 2 — Сравнение методов классификации с PCA и без

НЕТ ИССЛЕДОВАНИЯ!!!
НУЖНО НА ВСЕХ МЕТОДАХ ПРОСМОТРЕТЬ ВСЕ ПАРАМЕТРЫ(КОТОРЫЕ МЫ ИЗУЧАЛИ) В РАЗНЫХ КОМБИНАЦИЯХ И ЭТО ПРЕДСТАВИТЬ!
СКАЗАТЬ С КАКИМИ ПАРАМЕТРАМИ ЛУЧШЕ!

РезультатНаилучший результат показал классификатор MLP с данным на тесте 94.32%Вывод: Представленные данные не являются визуально разделимыми. В

Слайд 5Результат
Деревья решений с random_state только: test 100%, train 88.64%
Деревья решений

с max_depth=2: train 92.40%, train: 87.50%
MLP с ACTIVATION tanh: train

100%, train: 89.77%
MLP без ACTIVATION: train 99.62%, train: 85.23%
MLP c random_state только: train 98.10%, train: 94.32%
MLP (solver=‘adam’,hidden=[3,4],a=‘tahn’): train 91.25%, train: 93.18%

Вывод: На небольших выборках MLP является гораздо менее эффективной, чем деревья решений, однако, достигая достаточно высокой эффективности при больших объёмах данных, в случае большого количества итераций, MLP быстро переобучается, что является её основной проблемой с подбором необходимых входных данных для эффективной работы. Также, деревья решений являются менее трудоёмкими в сравнении с MLP-моделью

Постановка задачи: Провести оценку классификации данных ionosphere c помощью деревьев решений и нейронных сетей при random_state=4

Метод решения: Обработка данных их классификация с использованием возможностей Jupyter lab

Рисунок 9 — График деревьев решений при разной глубине

Рисунок 10 — График MLP при разном числе итераций

Лучшие результаты max_iters:

mlp.score train 301: 96.58%
mlp.score test 301: 93.18%

mlp.score train 351: 96.96%
mlp.score test 351: 93.18%

mlp.score train 401: 96.58%
mlp.score test 401: 92.05%

РезультатДеревья решений с random_state только: test 100%, train 88.64%Деревья решений с max_depth=2: train 92.40%, train: 87.50%MLP с

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика