Analyzing the application of artificial neural networks to assess the technical condition of 6-10 KV power transformers

Cover Page

Cite item

Full Text

Abstract

This paper compares the effectiveness of the k-nearest neighbours Regressor machine learning model and the k-nearest neighbours Classifier model in the task of predicting the state of transformer equipment using data that has been captured by a transformer monitoring system.

Subject of research: power transformers.

Purpose of research: identifying the best model in the task of classifying the state of transformer equipment.

Object of research: transformer equipment diagnostic system.

Methods of research: analysis, computer modelling.

Main results of research: data on the effectiveness of models with different parameters were obtained, but all regression models showed a worse result than the classifier model.

Full Text

ВВЕДЕНИЕ

Силовые трансформаторы – крайне значимое и дорогое оборудование в сфере электроснабжения, поэтому предсказывание состояния оборудования важно для продолжения нормальной работы. В связи со стремительным ростом вычислительных мощностей современных ЭВМ появилась возможность автоматизировать процессы и улучшить качество работ. На основе нейросетевых моделей разрабатывают проекты, которые могут привнести автоматизацию во многие сферы человеческой деятельности [1–6].

Регрессионная модель k-ближайших соседей основана на оценивании расстояния между данными обучающей выборки и экземпляров, которые были отправлены алгоритму для оценки. Для оценки расстояния используют различные метрики, обычно это евклидово расстояние (1), расстояние Минковского (2) и манхэттенское (3).

dui,vj=t=1muivj2 (1)

где u и v – векторы, между которыми оценивается расстояние.

du,v=i=1nuivip1p (2)

где p – параметр пространства, который может обращать формулу в другие метрики евклидова пространства, например, при p = 1 метрика будет идентична метрике «городских кварталов», а при p= 2 – евклидовой метрике.

d(u,v)=i=1nuivi (3)

Однако помимо этих расстояний существует еще немало метрик.

В работе [7] приводилось сравнение некоторых простых нейросетевых моделей. Задача данной статьи – сравнить эффективность модели регрессора k-соседей при использовании разных метрик, встроенных алгоритмов и весов с результатами, полученными в работе [7].

РЕЗУЛЬТАТЫ И ОБСУЖДЕНИЕ

В качестве информации для обучения моделей выступил набор данных [8] о силовом трансформаторе напряжением 10/0,4 кВ и мощностью 1500 кВА, запись которого проводилась в промежутке с 25 июня 2019 года по 14 апреля 2020 года с интервалом в 15 минут (20 465 измерений). Этот набор был разделен на две части: тестовая и обучающая, соотношением 30 % и 70 % соответственно.

Обучение осуществлялось на языке программирования общего назначения Python.

Модели k-соседей регрессии с разными параметрами были собраны на основе библиотеки языка программирования Python «Scikit-Learn». Библиотека предоставляет возможность настройки моделей с разными встроенными алгоритмами нахождения ближайших соседей, а также метрик вычисления расстояния между ними.

Также в библиотеке реализовано полезное влияние соседей в зависимости от их расстояния от экземпляра. Это влияние оценивается весами «uniform» и «distance».

Были заданы глобальные параметры моделей:

− n_neighbors=5,

− leaf_size=30,

− p=2,

− metric_params=None,

− n_jobs=None.

По итогу работы было рассмотрено 26 метрик с разными весами («uniform» и «distance») и при разных алгоритмах («Ball_tree», «Kd_tree», «brute»). Все результаты представлены в таблице 1.

 

Таблица 1. Результаты правильности классификации тестовых образов

Алгоритм

Ball_tree

Kd_tree

brute

Метрика

uniform

distance

uniform

distance

uniform

distance

P

0.574

0.603

0.574

0.603

euclidean

0.574

0.603

0.574

0.603

0.574

0.603

rogerstanimoto

-0.111

hamming

0.670

0.655

l1

0.664

0.693

0.664

0.693

0.664

0.693

chebyshev

0.493

0.522

0.494

0.523

0.496

0.524

infinity

0.493

0.522

0.494

0.523

jaccard

-0.111

-0.111

-0.111

-0.111

sokalmichener

-0.111

-0.111

-0.111

-0.111

minkowski

0.574

0.603

0.574

0.603

0.574

0.603

sokalsneath

-0.111

-0.111

-0.111

-0.111

braycurtis

0.655

0.685

0.655

0.685

l2

0.574

0.603

0.574

0.603

0.574

0.603

russellrao

-0.111

-0.111

-0.111

dice

-0.111

-0.111

-0.111

-0.111

canberra

0.581

0.613

0.581

0.613

cityblock

0.664

0.693

0.664

0.693

0.664

0.693

manhattan

0.664

0.693

0.664

0.693

0.664

0.693

yule

-0.111

-0.111

sqeuclidean

0.574

0.618

nan_euclidean

0.574

0.603

cosine

0.583

0.622

correlation

0.580

rogerstanimoto

-0.111

-0.111

-0.111

russellrao

-0.111

hamming

0.688

0.675

 

Функция оценки правильности классификации для регрессионной модели выражается коэффициентом детерминации (4).

R2=1iyiy^2iyiy¯2 (4)

где Σi (yi ŷ)2 – сумма квадратов ошибок регрессии;

Σi (yi ȳ)2 – сумма квадратов отклонения точек данных от среднего значения.

Стоит отметить, что максимальная величина коэффициента детерминации – 1. При этом значении модель имеет хорошие показатели классификации объектов. Однако коэффициент может принимать и отрицательные значения, несмотря на то, что его значения лежат в пределе от 0 до 1. В документации к библиотеке «Scikit-Learn» [9] этот момент объясняется таким образом: «…модель может быть произвольно хуже», поэтому в таблице 1 можно наблюдать отрицательные оценки у некоторых метрик. Эти оценки стоит интерпретировать так: модель не справилась с задачей классификации и не представляет никакой практической ценности.

В таблице 1 также можно наблюдать отсутствие значений для некоторых метрик и алгоритмов. Это значит, что данные метрики не удалось вызвать при стандартных условиях для данных алгоритмов.

Также можно заметить, что такие метрики, как manhattan, cityblock, l1, имеют одинаковые показатели для всех алгоритмов. Связано это с тем, что эти три метрики являются синонимами расстояния городских кварталов (cityblock). Для удобства обобщим их до метрики cityblock.

По данным таблицы 1 можно заключить, что при всех метриках и алгоритмах модели с весом «distance» показывали лучший результат, чем с весом «uniform». Такие результаты исходят из принципа задания эти двух весов: в первом случае каждая точка-сосед имеет одинаковый весовой коэффициент, соответственно, и влияние каждой точки на итоговый ответ одинаковое; во втором случае же у каждой точки-соседа вес имеет зависимость от расстояния до исследуемой точки, то есть ближние «соседи» привносят больший вклад в предсказание, чем дальние.

ЗАКЛЮЧЕНИЕ И ВЫВОДЫ

По итогу исследования среди протестированных моделей не удалось выявить однозначного фаворита. Две модели показали лучшие результаты среди других (таблица 2).

 

Таблица 2. Лучшие результаты среди протестированных моделей

Алгоритм

Ball_tree

Kd_tree

brute

Метрика

uniform

distance

uniform

distance

uniform

distance

braycurtis

0.655

0.685

0.655

0.685

cityblock

0.664

0.693

0.664

0.693

0.664

0.693

 

Однако в сравнении с результатами модели классификатора k-ближайших соседей (95,9 %) [4] при одинаковом количестве соседей (5 соседей) эти результаты очень далеки от пригодных для использования. В целях научного интереса стоит провести углубленное исследование на предмет нахождения модели регрессора k-соседей с параметрами, которые могут дать лучшую точность. Для дальнейших исследований в данном направлении стоит использовать вес «distance», так как качество предсказаний с этим весом больше. В работе не изменялись такие параметры моделей, как n_neighbors, leaf_size и др.

×

About the authors

Matvey S. Solodyankin

Yugra State University

Email: matvej.solodyankin@mail.ru

Laboratory assistant

Russian Federation, Khanty-Mansiysk

Vladislav D. Kolontsov

Yugra State University

Email: kolontzov.vladislav@yandex.ru

Laboratory assistant

Russian Federation, Khanty-Mansiysk

Vsevolod A. Tkachenko

Yugra State University

Author for correspondence.
Email: v_tkachenko@ugrasu.ru

Candidate of Technical Science, Associate Professor

Russian Federation, Khanty-Mansiysk

References

  1. Свидетельство о государственной регистрации программы для ЭВМ № 2023666061 Российская Федерация. Программа оценки функционального состояния усталости человека по выражению лица : № 2023664887 : заявл. 17.07.2023 : опубл. 26.07.2023 / Б. Курбанов, А. С. Катасев ; заявитель федеральное государственное бюджетное образовательное учреждение высшего образования «Казанский национальный исследовательский технический университет им. А. Н. Туполева – КАИ».
  2. Свидетельство о государственной регистрации программы для ЭВМ № 2023665983 Российская Федерация. Программный комплекс редукции нечетких правил в моделях оценки дискретного состояния объектов : № 2023664921 : заявл. 17.07.2023 : опубл. 25.07.2023 / М. В. Дагаева, А. С. Катасев, М. Ф. Хасбиуллин ; заявитель федеральное государственное бюджетное образовательное учреждение высшего образования «Казанский национальный исследовательский технический университет им. А. Н. Туполева – КАИ».
  3. Свидетельство о государственной регистрации программы для ЭВМ № 2023665580 Российская Федерация. Программный комплекс установки и проверки электронной подписи по алгоритму RSA : № 2023664878 : заявл. 17.07.2023 : опубл. 18.07.2023 / М. Ф. Хасбиуллин, А. С. Катасев ; заявитель федеральное государственное бюджетное образовательное учреждение высшего образования «Казанский национальный исследовательский технический университет им. А.Н. Туполева – КАИ».
  4. Лютаревич, А. Г. Применение нейронных сетей для прогнозирования параметров электропотребления / А. Г. Лютаревич. – doi: 10.18822/byusu202302124-132. – Текст : непосредственный // Вестник Югорского государственного университета. – 2023. – № 2 (69). – С. 124–132.
  5. Манусов, В. З. Нейронные сети: прогнозирование электрической нагрузки и потерь мощности в электрических сетях. От романтики к прагматике : монография / В. З. Манусов, С. В. Родыгина. – Новосибирск : Издательство НГТУ, 2018. – 303 с. – Текст : непосредственный.
  6. Веселов, О. В. Нейроконтроллер оценки технического состояния электромеханических систем / О. В. Веселов, С. Г. Светушенко. – doi: 10.17513/snt.39104. – Текст : непосредственный // Современные наукоемкие технологии. – 2022. – № 4. – С. 32–39.
  7. Лютаревич, А. Г. Применение нейросетевых моделей как инкрементных комплексов надежности трансформаторного оборудования / А. Г. Лютаревич, М. С. Солодянкин, В. А. Ткаченко. – Текст : непосредственный // Пространственное социально-экономическое развитие территорий: формирование комфортной среды и повышение качества жизни населения : сборник материалов II Всероссийской научно-практической конференции с международным участием XV Международного IT-форума с участием стран БРИКС и ШОС (Ханты-Мансийск, 18-19 июня 2024 г.). – Ханты-Мансийск : Югорский государственный университет, 2024. – С. 243–247.
  8. Putchala, S. Distributed Transformer Monitoring / S. Putchala // Kaggle. – URL: https://www.kaggle.com/datasets/sreshta140/ai-transformer-monitoring (date of application: 15.09.2024).
  9. r2_score. – Текст : электронный // Открытая программная библиотека Scikit Learn. – URL: r2_score — scikit-learn 1.5.2 documentation (дата обращения: 20.09.2024).

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2024 Yugra State University

Creative Commons License
This work is licensed under a Creative Commons Attribution-ShareAlike 4.0 International License.