Construction of quite interpretable non-elementary linear regression models

Cover Page

Cite item

Full Text

Abstract

Subject of research: mixed-integer 0-1 linear programming problem for choosing optimal structures for non-elementary linear regression models.

Purpose of research: integrate into the mixed-integer 0-1 linear programming problem additional constraints that will guarantee the construction of quite interpretable non-elementary linear regressions.

Methods of research: regression analysis, mathematical programming, method of successive increase the absolute contributions of variables to the general determination.

Object of research: non-elementary linear regression models.

Main results of research: in the mixed-integer 0-1 linear programming problem, designed to construct non-elementary regressions, additional linear constraints on the absolute contributions of variables to the general determination are integrated, allowing you to control both the contributions themselves and multicollinearity in the model. It is shown how it is necessary to regulate these constraints so that the non-elementary linear regression obtained as a result of solving the problem is quite interpretable. The proposed mathematical apparatus was used to model railroad freight transportation in the Tyumen region. An interpretation of the obtained high-precision and quite interpretable non-elementary linear regression is given.

Full Text

Введение

Актуальным в настоящее время направлением в науке считается интерпретируемое машинное обучение [1–4]. Как отмечено в [2], со ссылкой на [3], интерпретируемость дает возможность моделям машинного обучения представлять свое поведение в понятных людям терминах. С точки зрения конечных пользователей, интерпретируемость повышает доверие к модели машинного обучения, поскольку им становится ясно и понятно, как именно она работает. С точки зрения разработчиков, интерпретируемость помогает лучше понять проблему, как устроены данные и причины неточной работы модели, что в конечном итоге приводит к повышению её точности.

Среди моделей машинного обучения высокой степенью интерпретируемости обладают регрессионные модели [5, 6]. Среди них самыми простыми закономерно следует считать линейные регрессии, в которых каждый коэффициент трактуется как величина изменения зависимой переменной при изменении соответствующей ему объясняющей переменной на одну условную единицу. Однако даже при построении линейной регрессии может оказаться так, что у неё будут искажены знаки коэффициентов при объясняющих переменных. Причина такого искажения – мультиколлинеарность, означающая наличие сильной корреляционной связи между объясняющими переменными. Таким образом, мультиколлинеарность негативно сказывается на интерпретируемости регрессионных моделей.

На сегодняшний день ведется активная работа по созданию новых эффективных форм связи между переменными в регрессионных моделях. Так, например, в работах [7–10] исследуются так называемые кусочно-линейные регрессии, для оценки неизвестных параметров которых авторы используют метод наименьших модулей. В то же время в работах [11–14] предложены неэлементарные регрессионные модели, являющиеся обобщением линейных регрессий и содержащие в своем составе помимо объясняющих переменных все возможные комбинации их пар, преобразованных с помощью бинарных операций min и max. Для оценки таких моделей используется метод наименьших квадратов (МНК). В [14] предложен метод построения неэлементарных линейных регрессий (НЛР) на основе аппарата математического программирования и продемонстрированы их высокие интерпретационные свойства. Однако вопрос о том, каким образом следует контролировать мультиколлинеарность в НЛР, а значит, и их интерпретируемость, решен не был.

Работа [15] посвящена построению вполне интерпретируемых линейных регрессионных моделей. Вполне интерпретируемая регрессия удовлетворяет трем условиям:

  • её спецификация изначально выбрана так, что после оценивания можно объяснить любой коэффициент модели или некоторый его аналог, за исключением, быть может, свободного члена;
  • все знаки коэффициентов модели соответствуют содержательному смыслу решаемой задачи;
  • эффект мультиколлинеарности незначителен.

Для построения вполне интерпретируемых линейных регрессий в работе [15] был предложен метод последовательного повышения абсолютных вкладов переменных в общую детерминацию. Целью данной работы является интеграция в задачу построения НЛР дополнительных ограничений, позволяющих контролировать абсолютные вклады и мультиколлинеарность, что позволит сформулировать алгоритм, гарантирующий получение вполне интерпретируемых НЛР.

Результаты и обсуждение

НЛР [14] имеет вид

yi=α0+j=1lαjxij+j=1Cl2αj+lmin{xi,μj1,λj1xi,μj2}+

+j=1Cl2αj+l+Сl2max{xi,μj1,λj2xi,μj2}+εi,    (1)

i=1,n¯,

где n – объем выборки; l – количество объясняющих переменных; yii-е значение объясняемой переменной y; xij>0i-е значение j-й объясняющей переменной; εii-я ошибка аппроксимации; α0, α1, ..., αl+2Cl2, λ11, λ21, ..., λСl2,1, λ12, λ22, ..., λСl2,2 – неизвестные параметры; μj1, μj2 – элементы -й строки индексной матрицы  размера Cl2×2, содержащей в строках всевозможные комбинации пар индексов переменных.

Придавая каждому из параметров λ11, λ21, ..., λСl2,1, λ12, λ22, ..., λСl2,2 p значений так, как это сделано в [14], можно перейти к регрессии

yi=α0+j=1lαjxij+j=1Cl2k=1pαjkzijk+j=1Cl2k=1pαjk+zijk++εi,    (2)

i=1,n¯,

где αjkαjk+, j=1,Cl2¯, k=1,p¯ – параметры для регрессоров с бинарной операцией min и max соответственно; zijk=minxi,μj1,λjk*xi,μj2, zijk+=maxxi,μj1,λjk*xi,μj2, i=1,n¯, j=1,Cl2¯, k=1,p¯.

Проведя нормирование всех переменных в (2) по известному правилу [14], вместо (2) можно получить стандартизованную регрессию с неизвестными коэффициентами βj,  j=1,l¯ и βjk, βjk+, j=1,Сl2¯, k=1,p¯. А с помощью неё можно сформулировать следующую задачу частично-булевого линейного программирования (ЧБЛП) построения модели НЛР:

R2=j=1lryxjβj+j=1Cl2k=1pryzjkβjk+j=1Cl2k=1pryzjk+βjk+max,    (3)

1δjMk=1lrxjxkβk+s=1Cl2k=1prxjzskβsk+

+s=1Cl2k=1prxjzsk+βsk+ryxj(1δj)Mj=1,l¯,   (4)

1δjkMs=1lrxszjkβs+s1=1Cl2s2=1przs1s2zjkβs1s2+

+s1=1Cl2s2=1przs1s2+zjkβs1s2+ryzjk(1δjk)Mj=1,Cl2¯, k=1,p¯,    (5)

1δjk+Ms=1lrxszjk+βs+s1=1Cl2s2=1przs1s2zjk+βs1s2+

+s1=1Cl2s2=1przs1s2+zjk+βs1s2+ryzjk+(1δjk+)Mj=1,Cl2¯, k=1,p¯,    (6)

0βjryxj1δjjs|ryxs>0,     (7)

ryxj1δjβj0js|ryxs<0,     (8)

0βjkryzjk1δjkj,ks1,s2|ryzs1s2>0,    (9)

ryzjk1δjkβjk0j,ks1,s2|ryzs1s2<0,    (10)

0βjk+ryzjk+1δjk+j,ks1,s2|ryzs1s2+>0,     (11)

ryzjk+1δjk+βjk+0j,ks1,s2|ryzs1s2+<0,     (12)

δj{0,1}j=1,l¯; δjk{0,1}, δjk+{0,1}, j=1,Cl2¯, k=1,p¯,   (13)

где R2 – коэффициент детерминации модели; символом rXY обозначены коэффициенты парной корреляции между переменными X и Y; δj, j=1,l¯ – булевы переменные, заданные по правилу

δj=1, если j-я переменная входит в регрессию,0, в противном случае;

δjkj=1,Cl2¯, k=1,p¯– булевы переменные, заданные по правилу

δjk=1, если j-я бинарная операция минимум с k-м преобразованиемвходит в регрессию,0, в противном случае;

δjk+j=1,Cl2¯, k=1,p¯ – булевы переменные, заданные по правилу

δjk+=1, если j-я бинарная операция максимум с k-м преобразованиемвходит в регрессию,0, в противном случае;

M – большое положительное число, возможный способ выбора которого подробно описан в [14].

Решение задачи ЧБЛП с целевой функцией (3) и с линейными ограничениями (4)–(13) приводит к выбору оптимальной структуры модели (2), в которой знаки оценок параметров будут согласованы со знаками соответствующих коэффициентов корреляции. В этой связи в полученной регрессии о значимости регрессоров можно судить по величинам абсолютных вкладов переменных в общую детерминацию R2:

Cxjабс=ryxjβjj=1,l¯; Czjkабс=ryzjkβjk, Czjk+абс=ryzjk+βjk+, j=1,Cl2¯, k=1,p¯.

Для того чтобы каждая объясняющая переменная входила в модель не более одного раза, необходимо ввести в задачу (3)–(13) следующие линейные ограничения:

j=1lvijδj+j=1Cl2k=1pvi,l+k+p(j1)δjk+j=1Cl2k=1pvi,l+pCl2+k+p(j1)δjk+1i=1,l¯,     (14)

где vij– элементы бинарной матрицы Vразмера l+2pCl2×l, заданные по правилу

vij=1, если j-я переменная входит в i-й регрессор модели (2),0, в противном случае.

В полученной в результате решения задачи ЧБЛП (3) – (14) НЛР может присутствовать мультиколлинеарность, а коэффициенты модели могут оказаться незначимыми. Для решения этой проблемы введем в задачу ограничения на абсолютные вклады переменных CxjабсCzjkабс, Czjk+абс в общую детерминацию R2:

ryxjβjθδjj=1,l¯,       (15)

ryzjkβjkθδjkj=1,Сl2¯, k=1,p¯,     (16)

ryzjk+βjk+θδjk+j=1,Сl2¯, k=1,p¯,     (17)

где θ0 – заданное минимальное значение вклада каждого регрессора в общую детерминацию. Очевидно, что с ростом числа θ будут увеличиваться вклады регрессоров в общую детерминацию и параллельно будет уменьшаться их количество, что приведет к снижению мультиколлинеарности.

Построение НЛР рекомендуется проводить методом последовательного повышения вкладов (МППВ) регрессоров по следующему алгоритму. Решить задачу (3) – (14). Для полученной НЛР вычислить абсолютные вклады регрессоров и оценить степень мультиколлинеарности любым известным методом, например с помощью коэффициентов вздутия дисперсии. Если вклады достаточно высоки, а мультиколлинеарность слабая, то НЛР получена. В противном случае назначается величина θ, чуть большая, чем минимальный из текущих абсолютных вкладов, и решается задача (3) – (17). И так до тех пор, пока не будет получена НЛР со слабой мультиколлинеарностью и необходимыми абсолютными вкладами регрессоров в детерминацию. МППВ гарантирует построение вполне интерпретируемой НЛР.

Для решения сформулированных весьма трудоемких задач была разработана специальная программа «ВИнтер-2». Решателем задач ЧБЛП в этой программе выступает пакет LPSolve. Для того чтобы полученная структура НЛР гарантированно была интерпретируемой, «ВИнтер-2» по умолчанию исключает все регрессоры, не удовлетворяющие содержательному смыслу решаемой задачи (подробно эти условия описаны в [14]). Также в программе предусмотрена возможность контролировать число преобразованных переменных, исключая те из них, у которых коэффициент корреляции с  по абсолютной величине не превосходит некоторого числа r[0,1), т. е. для которых не выполняются условия:

ryzjkrryzjk+r, j=1,Cl2¯, k=1,p¯.      (18)

Тюменская область, имеющая в своем составе Ханты-Мансийский автономный округ – Югру и Ямало-Ненецкий автономный округ, занимает третье место по площади среди субъектов Российской Федерации. Она представляет собой крупнейший нефтегазовый регион России, поэтому актуальной задачей является создание в Тюменской области современной и эффективной транспортной инфраструктуры. При этом с научной точки зрения актуальна задача моделирования железнодорожных грузовых перевозок в Тюменской области. Одно из решений этой задачи можно найти в работах [16, 17], в которых построена линейная регрессия

y=31,6346+0,0007z10,0001z20,0003z3,

где y – грузовые перевозки железнодорожного транспорта юга Тюменской области (млн тонн); z1 – среднемесячная заработная плата работников магистрального ж/д транспорта (руб.); z2 – экспорт в страны дальнего зарубежья минеральных продуктов (млрд долл. США); z3 – среднесписочная численность работников (человек). Коэффициент детерминации R2 этой линейной регрессии составил всего 0,67, поэтому вряд ли можно считать её адекватной.

Для построения вполне интерпретируемой НЛР железнодорожных грузоперевозок Тюменской области были использованы годовые статистические данные за период с 2000 по 2020 г. по следующим переменным:

y – отправление грузов железнодорожным транспортом общего пользования (миллионов тонн);

x1 – численность рабочей силы (тысяч человек);

x2 – число предприятий и организаций;

x3 – производство электроэнергии (миллиард киловатт-часов);

x4 – удельный вес автомобильных дорог с твердым покрытием в общей протяженности автомобильных дорог общего пользования (%);

x5 – удельный вес автомобильных дорог с усовершенствованным покрытием в протяженности автомобильных дорог с твердым покрытием общего пользования (%);

x6 – продукция сельского хозяйства (миллионов рублей);

x7 – объем работ, выполненных по виду экономической деятельности «Строительство» (миллионов рублей);

x8 – валовой региональный продукт (ВРП) (миллионов рублей).

Коэффициенты корреляции объясняющих переменных с y составляют:

ryx1=0,840ryx2=0,339, ryx3=0,896, ryx4=0,549,

ryx5=0,725ryx6=0,946, ryx7=0,818, ryx8=0,926.

Как видно, знаки всех коэффициентов корреляции удовлетворяют содержательному смыслу задачи. Так, рост численности рабочей силы x1, числа предприятий и организаций x2, производства электроэнергии x3, продукции сельского хозяйства x6, объемов работ по виду «Строительство» x7 и ВРП x8 приводит к увеличению грузовых ж/д перевозок Тюменской области. А увеличение удельного веса автодорог с твердым покрытием x4 и с усовершенствованным покрытием x5 приводит, по логике, к повышению спроса на перевозки грузов автотранспортом, а следовательно, к снижению спроса на ж/д перевозки. Самая слабая корреляция наблюдается между yи x2 (0,339), однако было принято решение не исключать переменную x2 из рассмотрения, поскольку степень её влияния на y в НЛР может вырасти.

Сначала в программе «ВИнтер-2» были заданы следующие параметры построения НЛР: p=4r=0,2. В результате было сформировано pСl2=112 пар переменных, преобразованных с помощью бинарной операции min, и столько же пар переменных, преобразованных с помощью max. Итого 224 преобразования. Затем из них были исключены те, для которых не выполнились условия (18). В итоге сформировался набор, содержащий 8 объясняющих переменных и 128 преобразований. По этому набору программа автоматически сформировала задачу ЧБЛП (3) – (14) на языке пакета LPSolve. Решение этой задачи было найдено за 153 секунды. В результате решения была выбрана следующая оптимальная структура НЛР:

y~=13,8072+0,000167(1,146)(0,0701)minx2,0.9545x7+0,017(0,128)(0,0293)minx3,0.0000709x8+

+0,0105(4,229)(0,7854)maxx1,0.04633x60,403(1,706)(0,0666)maxx4,0.9475x5.      (19)

Как видно, все восемь объясняющих переменных вошли в состав полученного уравнения. При этом для пар x2 и x7, x3 и x8 была идентифицирована бинарная операция min, а для пар x1 и x6, x4 и x5 – max.

Коэффициент детерминации R2 НЛР (19) составил 0,951423, что подтверждает адекватность модели. 

В скобках под коэффициентами регрессии (19) указаны значения t-критерия Стьюдента, по которым можно сделать вывод, что значимым для уровня значимости α=0,1оказался только один регрессор – maxx1,0.04633x6. В скобках над коэффициентами модели (19) указаны абсолютные вклады переменных в общую детерминацию, показывающие, что регрессор min{x3,0.0000709x8} вносит слишком низкий вклад (0,0293), не превышающий 0,05.

Коэффициенты вздутия дисперсии регрессоров НЛР (19) составили 8,912, 23,039, 12,596 и 1,435 соответственно. Двое из этих коэффициентов превысили пороговое значение 10, из чего можно сделать вывод о присутствии в полученной модели мультиколлинеарности.

Перечисленные обстоятельства не позволяют отнести НЛР (19) к вполне интерпретируемым. Поэтому было принято решение перестроить модель, дополнив задачу ЧБЛП (3) – (14) ограничениями (15) – (17) на абсолютные вклады переменных. Поскольку минимальный из абсолютных вкладов регрессии (19) равен 0,0293, то величина параметра θбыла выбрана равной 0,03. Начальные параметры p и r не менялись. Решение задачи (3) – (17) в LPSolve было найдено за 136 секунд. В результате автоматически определилась следующая структура НЛР:

y~=12,7415+0,0001866(3,827)(0,0774)min{x2,0.09879x8}+0,01083(13,14)(0,8078)max{x1,0.04633x6}

0,4005(1,751)(0,0661)max{x4,0.9475x5}.     (20)

Как видно, переменные x3 и x7 не вошли в состав регрессии (20). При этом регрессоры max{x1,0.04633x6} и max{x4,0.9475x5} сохранились в уравнении, а регрессоры minx2,0.9545x7 и minx3,0.0000709x8 из (19) перегруппировались в модели (20) в регрессор min{x2,0.09879x8}.

Коэффициент детерминации R2 НЛР (20) составил 0,951374, что меньше, чем у модели (19), всего лишь на 0,00005. Иными словами, исключение переменных x3 и x7 практически не изменило высокого качества аппроксимации НЛР.

Все коэффициенты регрессии (20) значимы по t-критерию Стьюдента для уровня значимости α=0,1, а минимальный абсолютный вклад в R2 составляет 0,0661 для регрессора max{x4,0.9475x5}, что довольно существенно.

Коэффициенты вздутия дисперсии регрессоров НЛР (20) составили 1,035, 1,466 и 1,425 соответственно, откуда следует, что в модели мультиколлинеарности нет.

Таким образом, выполняются все необходимые условия, чтобы считать НЛР (20) вполне интерпретируемой регрессионной моделью.

Представим модель (20) в кусочно-заданной форме:

y~=12,7415+0,00001843x8+0,01083x10,4005x4, при x2x80,09879, x1x60,04633, x4x50,9475;12,7415+0,00001843x8+0,01083x10,3795x5, при x2x80,09879, x1x60,04633, x4x5<0,9475;12,7415+0,00001843x8+0,000502x60,4005x4, при x2x80,09879, x1x6<0,04633, x4x50,9475;12,7415+0,00001843x8+0,000502x60,3795x5, при x2x80,09879, x1x6<0,04633, x4x5<0,9475;12,7415+0,0001866x2+0,01083x10,4005x4, при x2x8<0,09879, x1x60,04633, x4x50,9475;12,7415+0,0001866x2+0,01083x10,3795x5, при x2x8<0,09879, x1x60,04633, x4x5<0,9475;12,7415+0,0001866x2+0,000502x60,4005x4, при x2x8<0,09879, x1x6<0,04633, x4x50,9475;12,7415+0,0001866x2+0,000502x60,3795x5, при x2x8<0,09879, x1x6<0,04633, x4x5<0,9475.

Тогда НЛР (20) можно интерпретировать следующим образом.

  1. Если показатель x2/x8 не меньше, чем 0,09879, то на отправление грузов ж/д транспортом y влияет ВРП x8, а число предприятий и организаций x2 не влияет. При этом с увеличением ВРП x8 на 1 млн руб. (при неизменных значениях остальных переменных) y возрастает в среднем на 18,43 тонны. А если показатель x2/x8 меньше, чем 0,09879, то на y влияет число предприятий и организаций x2, а ВРП x8 не влияет. При этом с увеличением числа предприятий и организаций x2 на 1 единицу (при неизменных значениях остальных переменных) y возрастает в среднем на 186,6 тонны.
  2. Если показатель x1/x6 не меньше, чем 0,04633, то на отправление грузов ж/д транспортом y влияет численность рабочей силы x1, а продукция сельского хозяйства x6 не влияет. При этом с увеличением численности рабочей силы x1 на 1 тыс. человек (при неизменных значениях остальных переменных) y возрастает в среднем на 10830 тонн. А если показатель x1/x6 меньше, чем 0,04633, то на y влияет продукция сельского хозяйства x6, а численность рабочей силы x1 не влияет. При этом с увеличением продукции сельского хозяйства x6 на 1 млн руб. (при неизменных значениях остальных переменных) y возрастает в среднем на 502 тонны.

Если показатель x4/x5 не меньше, чем 0,9475, то на отправление грузов ж/д тран0,9475, то на y влияет удельный вес автодорог с усовершенствованным покрытием x5, а удельный вес автодорог с твердым покрытием x4 не влияет. При этом с увеличением уделспортом y влияет удельный вес автодорог с твердым покрытием x4, а удельный вес автодорог с усовершенствованным покрытием x5 не влияет. При этом с увеличением удельного веса автодорог с твердым покрытием x4 на 1 % (при неизменных значениях остальных переменных) y убывает в среднем на 0,4005 млн тонн. А если показатель x4/x5 меньше, чем ьного веса автодорог с усовершенствованным покрытием x5 на 1 % (при неизменных значениях остальных переменных) y убывает в среднем на 0,3795 млн тонн.

Заключение и выводы

Таким образом, для построения НЛР в данной работе сформулирована задача ЧБЛП, позволяющая регулировать абсолютные вклады регрессоров в общую детерминацию и эффект мультиколлинеарности. Показано, что реализация метода последовательного повышения вкладов регрессоров гарантирует построение вполне интерпретируемых НЛР. С помощью предложенного математического аппарата решена задача моделирования ж/д грузовых перевозок Тюменской области. Автоматически полученная НЛР оптимальной структуры является адекватной по всем основным показателям, а также вполне интерпретируемой. Интерпретация модели позволила выявить новые закономерности функционирования ж/д транспорта Тюменской области, недоступные при использовании классических линейных регрессий. Построенная модель также может применяться для прогнозирования.

×

About the authors

Mikhail P. Bazilevskiy

Irkutsk State Transport University

Author for correspondence.
Email: mik2178@yandex.ru
ORCID iD: 0000-0002-3253-5697

Candidate of Technical Sciences, Associate Professor of the Department of Mathematics

Russian Federation, Irkutsk

References

  1. Molnar, C. Interpretable machine learning / C. Molnar. – Lulu. com, 2020.
  2. Du, M. Techniques for interpretable machine learning / M. Du, N. Liu, X. Hu // Communications of the ACM. – 2019. – Vol. 63, №. 1. – P. 68–77.
  3. Doshi-Velez, F. Towards a rigorous science of interpretable machine learning / F. Doshi-Velez, B. Kim // arXiv preprint arXiv:1702.08608. – 2017.
  4. Definitions, methods, and applications in interpretable machine learning / W. J. Murdoch, C. Singh, K. Kumbier, R. Abbasi-Asl, B. Yu // Proceedings of the National Academy of Sciences. – 2019. – Vol. 116, №. 44. – P. 22071–22080.
  5. Montgomery, D. C. Introduction to linear regression analysis / D. C. Montgomery, E. A. Peck, G. G. Vining. – John Wiley & Sons, 2021.
  6. Fox, J. Applied regression analysis and generalized linear models / J. Fox. – Sage Publications, 2015.
  7. Носков, С. И. Программный комплекс построения некоторых типов кусочно-линейных регрессий / С. И. Носков, А. А. Хоняков. – Текст : непосредственный // Информационные технологии и математическое моделирование в управлении сложными системами. – 2019. – № 3 (4). – С. 47–55.
  8. Носков, С. И. Кусочно-линейная производственная функция погрузки на железнодорожном транспорте / С. И. Носков. – Текст : непосредственный // Научные труды КубГТУ. – 2022. – № 4. – С. 72–79.
  9. Носков, С. И. Построение кусочно-линейной регрессии с интервальной неопределенностью в данных для зависимой переменной / С. И. Носков. – Текст : непосредственный // Вестник кибернетики. – 2022. – № 2 (46). – С. 61–65.
  10. Носков, С. И. Построение кусочно-линейной авторегрессионной модели произвольного порядка / С. И. Носков. – Текст : непосредственный // Вестник Югорского государственного университета. – 2022. – № 2 (65). – С. 89–94.
  11. Базилевский, М. П. МНК-оценивание параметров специфицированных на основе функций Леонтьева двухфакторных моделей регрессии / М. П. Базилевский. – Текст : непосредственный // Южно-Сибирский научный вестник. – 2019. – № 2 (26). – С. 66–70.
  12. Базилевский, М. П. Оценивание линейно-неэлементарных регрессионных моделей с помощью метода наименьших квадратов / М. П. Базилевский. – Текст : непосредственный // Моделирование, оптимизация и информационные технологии. – 2020. – Т. 8, № 4 (31). – С. 26–27.
  13. Базилевский, М. П. Отбор информативных операций при построении линейно-неэлементарных регрессионных моделей / М. П. Базилевский. – Текст : непосредственный // International Journal of Open Information Technologies. – 2021. – Т. 9, № 5. – С. 30–35.
  14. Базилевский, М. П. Метод построения неэлементарных линейных регрессий на основе аппарата математического программирования / М. П. Базилевский. – Текст : непосредственный // Проблемы управления. – 2022. – № 4. – С. 3–14.
  15. Базилевский, М. П. Построение вполне интерпретируемых линейных регрессионных моделей с помощью метода последовательного повышения абсолютных вкладов переменных в общую детерминацию / М. П. Базилевский. – Текст : непосредственный // Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии. – 2022. – № 2. – С. 5–16.
  16. Филимонова, Л. А. Особенности применения стохастических моделей в оценке и прогнозах уровня конкурентоспособности транспортно-логистической системы обслуживания грузопотоков на примере юга Тюменской области / Л. А. Филимонова, Д. А. Бут-кова, А В. Носырева. – Текст : непосредственный // Московский экономический журнал. – 2019. – № 1. – С. 354–364.
  17. Мильчакова, Н. Н. Формирование системы оценки и прогноза эффективности транспортно-логистической системы обслуживания грузопотоков Тюменской области / Н. Н. Мильчакова, А. В. Носырева. – Текст : непосредственный // Вестник Сургутского государственного университета. – 2018. – № 2 (20). – С. 71–77.

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2023 Yugra State University

Creative Commons License
This work is licensed under a Creative Commons Attribution-ShareAlike 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies