Где взять номер запасной части в справочнике рса


⋆ Проверка стоимости запчастей на сайте РСА ⋆

Появилась возможность самостоятельно рассчитать на официальном сайте РСА среднюю стоимость авто запчастей, норм часов работ и материалов при возмещении ущерба по ОСАГО.

При заполнении формы необходимо ввсети в соответствующие поля следующие данные

  1. Дата, на которую необходимы сведения
  2. Экономический регион
  3. Марка транспортного средства
  4. Тип транспортного средства
  5. OEM Номер запасной части
  6. Наименование производителя материалов
  7. Наименование материала

Перейти на сайт РСАдля расчета

После заполнения всех полей и прохождения капчи нажимаем Отправить запрос.

Через несколько мгновений данные из базы АИС РСА будут получены.

Расчет стоимости материалов и нормо-часов производится аналогично в соответствующих частях формы.

Перейти на сайт РСА для расчета

Страница не найдена · GitHub Pages

Страница не найдена · GitHub Pages

Файл не найден

Сайт настроен по этому адресу не содержать запрошенный файл.

Если это ваш сайт, убедитесь, что регистр имени файла соответствует URL.
Для корневых URL (например, http://example.com/ ) вы должны предоставить index.html файл.

Прочитайте полную документацию для получения дополнительной информации об использовании GitHub Pages .

,
PCA с использованием Python (scikit-learn). Мой последний урок был посвящен логистике ... | Михаил Галарник Исходное изображение (слева) с сохранением различных сумм дисперсии

Мой последний урок был посвящен логистической регрессии с использованием Python. Одна из полученных вещей заключалась в том, что вы можете ускорить подгонку алгоритма машинного обучения, изменив алгоритм оптимизации. Более распространенный способ ускорения алгоритма машинного обучения - использование анализа основных компонентов (PCA). Если ваш алгоритм обучения слишком медленный, потому что входное измерение слишком велико, то использование PCA для его ускорения может быть разумным выбором.Это, наверное, самое распространенное применение СПС. Другое распространенное применение PCA - для визуализации данных.

Чтобы понять ценность использования PCA для визуализации данных, первая часть этого учебного пособия посвящена базовой визуализации набора данных IRIS после применения PCA. Вторая часть использует PCA для ускорения алгоритма машинного обучения (логистической регрессии) в наборе данных MNIST.

Итак, начнем! Если вы заблудились, я рекомендую открыть видео ниже на отдельной вкладке.

PCA с использованием Python Video

Код, используемый в этом руководстве, доступен ниже

PCA для визуализации данных

PCA для ускорения алгоритмов машинного обучения

Для многих приложений машинного обучения это помогает иметь возможность визуализировать ваши данные. Визуализация 2-х или 3-х мерных данных не так уж сложна. Тем не менее, даже набор данных Iris, используемый в этой части руководства, является четырехмерным. Вы можете использовать PCA, чтобы уменьшить эти 4-мерные данные до 2-х или 3-х измерений, чтобы вы могли строить и надеяться лучше понять эти данные.

Загрузка набора данных Iris

Набор данных Iris - это один из наборов данных, который поставляется с scikit-learn и не требует загрузки какого-либо файла с какого-либо внешнего веб-сайта. Код ниже загрузит набор данных радужной оболочки.

 импортировать панд как pdurl = "https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data"# загрузить набор данных в Pandas DataFrame 
df = pd.read_csv (url, names = ['длина чашелистика', 'ширина чашелистика', 'длина лепестка', 'ширина лепестка', 'цель'])
Оригинальные Pandas df (функции + цель)

Стандартизация данных

PCA

зависит от масштаба, поэтому вам нужно масштабировать функции в ваших данных перед применением PCA.Используйте StandardScaler , чтобы помочь вам стандартизировать функции набора данных в единичном масштабе (среднее = 0 и дисперсия = 1), что является требованием для оптимальной производительности многих алгоритмов машинного обучения. Если вы хотите, чтобы отрицательный эффект не влиял на масштабирование ваших данных, в scikit-learn есть раздел о том, как не стандартизировать ваши данные.

 из sklearn.preprocessing import StandardScalerfeatures = ['длина чашелистика', 'ширина чашелистика', 'длина лепестка', 'ширина лепестка'] # Разделение элементов 
x = df.loc [:, features] .values ​​# Выделение цели
y = df.loc [:, ['target']]. values ​​# Стандартизация функций
x = StandardScaler (). fit_transform (x)
Массив x (визуализируется с помощью блока данных pandas) до и после стандартизации

PCA Проекция на 2D

Исходные данные имеют 4 столбца (длина чашелистика, ширина чашелистика, длина лепестка и ширина лепестка). В этом разделе код проецирует исходные данные, которые являются 4-мерными в 2-х измерениях. Должен отметить, что после уменьшения размерности каждому главному компоненту обычно не присваивается особый смысл.Новые компоненты - это всего лишь два основных аспекта вариации.

 из sklearn.decomposition import PCApca = PCA (n_components = 2) PrincipalComponents = pca.fit_transform (x) PrincipalDf = pd.DataFrame (data = PrincipalComponents 
, столбцы = ['основной компонент 1', 'главный компонент 2'])
PCA и ведение двух главных компонентов
 finalDf = pd.concat ([PrincipalDf, df [['target']]], axis = 1) 

Объединение DataFrame вдоль оси = 1. finalDf - это окончательный DataFrame перед построением графика данные.

Конкатенация кадров данных по столбцам для создания finalDf перед построением графика

Визуализация 2D проекции

В этом разделе только построены двухмерные данные. Обратите внимание на график ниже, что классы кажутся хорошо отделенными друг от друга.

 fig = plt.figure (figsize = (8,8)) 
ax = fig.add_subplot (1,1,1)
ax.set_xlabel ('Основной компонент 1', размер шрифта = 15)
ax.set_ylabel (' Основной компонент 2 ', размер шрифта = 15)
ax.set_title (' 2-компонентный PCA ', размер шрифта = 20) цели = [' Iris-setosa ',' Iris-versicolor ',' Iris-virginica ']
colors = [' r ',' g ',' b ']
для цели, цвет в zip (цели, цвета):
indicesToKeep = finalDf [' target '] == цель
ax.scatter (finalDf.loc [indicesToKeep, «главный компонент 1»)
, finalDf.loc [indicesToKeep, «главный компонент 2»]
, c = цвет
, s = 50)
ax.legend (цели)
ax.grid ()
2-компонентная диаграмма PCA

Объясненная дисперсия

Объясненная дисперсия говорит вам, сколько информации (дисперсии) можно отнести к каждому из основных компонентов. Это важно, поскольку в то время как вы можете конвертировать 4-мерное пространство в 2-мерное, вы теряете некоторую дисперсию (информацию) при этом.Используя атрибут объясненный_вариант_рацио_ , можно увидеть, что первый главный компонент содержит 72,77% дисперсии, а второй главный компонент содержит 23,03% дисперсии. Вместе эти два компонента содержат 95,80% информации.

 pca.explained_variance_ratio_ 

Одним из наиболее важных приложений PCA является ускорение алгоритмов машинного обучения. Использование набора данных IRIS здесь нецелесообразно, так как набор данных имеет только 150 строк и только 4 столбца объектов.База данных рукописных цифр MNIST более удобна, поскольку в ней имеется 784 столбца функций (784 измерения), обучающий набор из 60000 примеров и тестовый набор из 10000 примеров.

Загрузка и загрузка данных

Вы также можете добавить параметр data_home в fetch_mldata , чтобы изменить место загрузки данных.

 из sklearn.datasets import fetch_openmlmnist = fetch_openml ('mnist_784') 

Загруженные изображения содержатся в mnist.данные и имеют форму (70000, 784), что означает наличие 70000 изображений с 784 размерами (784 признаками).

Метки (целые числа 0–9) содержатся в mnist.target . Элементы имеют размер 784 (28 x 28 изображений), а метки представляют собой просто числа от 0 до 9.

Разделение данных на обучающие и тестовые наборы

Обычно разделение теста поезда составляет 80% обучения и 20% теста. В этом случае я выбрал 6/7 данных для обучения и 1/7 данных для набора тестов.

 из sklearn.model_selection import train_test_split # test_size: какая доля исходных данных используется для тестового набора 

Стандартизировать данные

Текст в этом параграфе является почти точной копией того, что было написано ранее. PCA зависит от масштаба, поэтому вам необходимо масштабировать функции в данных перед применением PCA. Вы можете преобразовать данные в единичный масштаб (среднее = 0 и дисперсия = 1), что является требованием для оптимальной производительности многих алгоритмов машинного обучения. StandardScaler помогает стандартизировать функции набора данных. Обратите внимание, что вы вписываетесь в тренировочный набор и трансформируетесь в тренировочный и тестовый набор Если вы хотите, чтобы отрицательный эффект не влиял на масштабирование ваших данных, в scikit-learn есть раздел о том, как не стандартизировать ваши данные.

 из sklearn.preprocessing import StandardScaler 
scaler = StandardScaler () # Подходит только для тренировочного набора.
scaler.fit (train_img) # Применить преобразование как к обучающему, так и к испытательному набору.
train_img = scaler.transform (train_img)
test_img = scaler.transform (test_img)

Импортируйте и примените PCA

Обратите внимание, что в приведенном ниже коде для параметра количества компонентов указано 0,95. Это означает, что scikit-learn выбирает минимальное количество главных компонентов, чтобы сохранить 95% дисперсии.

 из sklearn.decomposition import PCA # Создайте экземпляр модели 
pca = PCA (.95)

Установите PCA на тренировочном наборе. Примечание: вы устанавливаете PCA только на тренировочном наборе.

 pca.fit (train_img) 

Примечание. Вы можете узнать, сколько компонентов выбирает PCA после подгонки модели, используя pca.n_components_ . В этом случае 95% дисперсии составляют 330 основных компонентов.

Примените отображение (преобразование) как к обучающему набору, так и к испытательному набору.

 train_img = pca.transform (train_img) 
test_img = pca.transform (test_img)

Применить логистическую регрессию к преобразованным данным

Шаг 1: Импортировать модель, которую вы хотите использовать

В sklearn, Все модели машинного обучения реализованы в виде классов Python

 от Sklearn.linear_model import LogisticRegression 

Шаг 2: Создайте экземпляр модели.

 # все параметры, не указанные, установлены по умолчанию 
# решатель по умолчанию невероятно медленный, поэтому он был изменен на 'lbfgs'
logisticRegr = LogisticRegression (solver = 'lbfgs')

Шаг 3: Обучение модели на данных, сохраняя информацию, извлеченную из данных

Модель изучает взаимосвязь между цифрами и метками

 logisticRegr.fit (train_img, train_lbl) 

Шаг 4: Прогнозирование меток новых данных (новых изображений)

Использует информацию, полученную моделью в процессе обучения модели

Приведенный ниже код прогнозирует одно наблюдение

  # Прогноз для одного наблюдения (изображение)  
logisticRegr.predict (test_img [0] .reshape (1, -1))

Приведенный ниже код позволяет прогнозировать сразу несколько наблюдений

  # Прогноз для одного наблюдения (изображение)  
logisticRegr ,предикат (test_img [0:10])

Измерение производительности модели

Хотя точность не всегда является наилучшей метрикой для алгоритмов машинного обучения (точность, отзыв, оценка F1, кривая ROC и т. д. лучше), она используется здесь для простоты.

 logisticRegr.score (test_img, test_lbl) 

Время подбора логистической регрессии после PCA

Весь смысл этого раздела учебного пособия заключался в том, чтобы показать, что вы можете использовать PCA для ускорения подбора алгоритмов машинного обучения.В приведенной ниже таблице показано, сколько времени потребовалось для того, чтобы соответствовать логистической регрессии на моем MacBook после использования PCA (каждый раз сохраняя различные значения дисперсии).

Время, затрачиваемое на согласование логистической регрессии после PCA с различными фракциями, сохраняется:

В предыдущих частях руководства демонстрировалось использование PCA для сжатия высокоразмерных данных в низкоразмерные данные. Я хотел бы кратко упомянуть, что PCA также может вернуть сжатое представление данных (данные более низкого размера) обратно к приближению исходных данных большого размера.Если вы заинтересованы в коде, который производит изображение ниже, проверьте мой github.

Исходное изображение (слева) и аппроксимации (справа) исходных данных после PCA

Заключительные мысли

Это пост, о котором я мог бы написать гораздо дольше, поскольку у PCA много разных применений. Я надеюсь, что этот пост поможет вам во всем, над чем вы работаете. В моем следующем учебном пособии по машинному обучению рассматриваются Понимание деревьев решений для классификации (Python). Если у вас есть какие-либо вопросы или мысли по поводу учебника, не стесняйтесь обращаться в комментариях ниже или через Twitter.Если вы хотите узнать, как я сделал некоторые из своих графиков или как использовать библиотеки Pandas, Matplotlib или Seaborn, рассмотрите возможность пройти курс изучения Python для визуализации данных в LinkedIn Learning.

Страница не найдена · GitHub Pages

Страница не найдена · GitHub Pages

Файл не найден

Сайт настроен по этому адресу не содержать запрошенный файл.

Если это ваш сайт, убедитесь, что регистр имени файла соответствует URL.
Для корневых URL (например, http://example.com/ ) вы должны предоставить index.html файл.

Прочитайте полную документацию для получения дополнительной информации об использовании GitHub Pages .

,

Смотрите также

Автопрофи, г. Екатеринбург, ул. Таватуйская, 20.