Выполнить анализ данных

1. ETL: подготовка (preprocessing), исследовательский анализ данных

1.Используя платформу Data Science and Machine Learning (любую на выбор: Knime, RapidMiner, Trifacta, Loginom(Предпочтительнее)) выполнить консолидацию данных кейса(предоставлю), провести очистку, трансформацию данных (ETL), выполнить preprocessing (https://www.sv-europe.com/crisp-dm-methodology/), провести исследовательский анализ данных (EDA) путем создания различных визуализаций и описательных статистик.
2. Платформы BI:
На выбор 2.1, 2.2, 2.3 пункты: в любой из BI-платформ:
2.1. Подключившись к BigQuery (или использовать подготовленный датасет, или работать с исходными “сырыми” данными (обработать их в Power Query), создать в Power BI Desktop выражения KPI с использованием выражений анализа данных (DAX), разработать несколько интерактивных отчетов в Power BI Desktop.
2.2. В Tableau Public / Yandex DataLens (используя подготовленный датасет из предыдущего задания) построить дашборды, выявить инсайты, оформить истории (Story), опубликовать в своем аккаунте в Tableau Public / Yandex DataLens), поделиться аналитическим приложением.
2.3. Создать интерактивный отчет в LookerStudio https://lookerstudio.google.com/navigation/reporti... (используя подготовленный датасет из предыдущего задания), поделиться аналитическим приложением.
3. По результатам выполнения работы составить эссе (защита работы) на 3-5 минут
- Краткое описание задания (необходимо было найти, разработать и т.д.)
- Краткое описание выполнения задания (задание выполнено в следующих программах, выполнялось так-то)
- Описание полученных результатов (вывод должен быть заранее четко сформирован).Сама
Сама работа не более чем на 15-17 листов (лучше чуть меньше).

Читайте на 123ru.net