Prospects for the use of artificial intelligence as a means of counteraction to corruption in the activities of the bodies of preliminary investigation and the court

Cover Page

Cite item

Full Text

Abstract

Subject of study: features of the possible use of artificial intelligence systems in order to reduce corruption risks in judicial and investigative activities.

The purpose of the study: to identify and propose ways to overcome legal discretion and, thereby, ways to reduce the level of corruption based on the use of artificial intelligence technologies in the activities of the investigation and court.

Research methods and objects: the research is based on the dialectical method of scientific knowledge. Private scientific methods of cognition were used in the following aspects: when considering the concept of artificial intelligence, methods of formal logic were used; the study of the practice of introducing artificial intelligence into investigative and judicial activities was based on the formal legal method. The object of the study is the social relations that are developing in the field of criminal procedure, suggesting legal discretion as a certain corruption risk.

The main results of the study: the use of artificial intelligence for the long-term fight against corruption in judicial and investigative activities is possible as a controlled tool in such activities as: creating a service to facilitate the consideration of cases in a special manner; judicial record keeping and judicial statistics; simulation of the crime event; promotion of versions, determination of ways to check them.

Subject of study: features of the possible use of artificial intelligence systems in order to reduce corruption risks in judicial and investigative activities.

The purpose of the study: to identify and propose ways to overcome legal discretion and, thereby, ways to reduce the level of corruption based on the use of artificial intelligence technologies in the activities of the investigation and court.

Research methods and objects: the research is based on the dialectical method of scientific knowledge. Private scientific methods of cognition were used in the following aspects: when considering the concept of artificial intelligence, methods of formal logic were used; the study of the practice of introducing artificial intelligence into investigative and judicial activities was based on the formal legal method. The object of the study is the social relations that are developing in the field of criminal procedure, suggesting legal discretion as a certain corruption risk.

The main results of the study: the use of artificial intelligence for the long-term fight against corruption in judicial and investigative activities is possible as a controlled tool in such activities as: creating a service to facilitate the consideration of cases in a special manner; judicial record keeping and judicial statistics; simulation of the crime event; promotion of versions, determination of ways to check them.

Full Text

Введение

Современное российское уголовное судопроизводство является одним из ключевых звеньев в борьбе с преступностью. Несмотря на это, в самой уголовно-процессуальной деятельности, начиная с выявления факта совершения противоправного деяния и обнаружения в нем признаков состава преступления и заканчивая вынесением приговора с избранием меры наказания, присутствуют коррупционные факторы и риски. Одним из таковых является правовое усмотрение или правовая дискреция, то есть наличие широких властных полномочий, компетенций, сформулированных в законе по формуле «вправе», «может» и т. п. Такая процессуальная свобода, с одной стороны, обеспечивает возможность воплощения важнейших уголовно-правовых и уголовно-процессуальных принципов, а с другой стороны, может стать основанием для злоупотребления дознавателем, следователем, судьей своими полномочиями, так как избрание самого негативного для подозреваемого, обвиняемого, подсудимого варианта применения закона может являться средством давления на него с целью извлечения материальной выгоды, а именно – для получения незаконного вознаграждения за, например, переквалификацию преступления на менее тяжкий состав, освобождение от уголовной ответственности, избрание более мягкой меры пресечения, меры наказания и др. Одним из средств повышения эффективности уголовного судопроизводства в целом и в целях преодоления возможных коррупциогенных факторов предлагается использование искусственного интеллекта как нового современного способа повышения защищенности участников уголовного процесса.

Результаты и обсуждение

Высокая степень субъективизма, злоупотребление правом, объективные проблемы на регулятивном (законы, подзаконные акты) и правоприменительном уровнях – приведенные обстоятельства юридической практики являются прямым основанием для поднятия и полноценного исследования вопроса возможности использования компьютерных технологий и искусственного интеллекта в юридической сфере, в частности, в области правового усмотрения в деятельности органов следствия и суда. Под компьютерными технологиями понимается весь допустимый спектр использования машин, программ и т. д. Искусственный интеллект выступает как самостоятельная часть, входящая в вышеотмеченное более широкое понятие. Основываясь на криминологическом подходе понимания мер предупреждения и противодействия преступности, рассмотрим перспективы новых технологических возможностей борьбы с коррупционными проявлениями.

Приведем некоторые общие подходы к пониманию искусственного интеллекта вообще. А.В. Понькин и А.И. Редькина предлагают достаточно интересное понятие исследуемого явления. Так, под искусственным интеллектом они понимают искусственную сложную кибернетическую компьютерно-программно-аппаратную систему (электронная, в том числе, виртуальная, электронно-механическая, био-электронно-механическая или гибридная) с когнитивно-функциональной архитектурой и собственными или релевантно доступными (приданными) вычислительными мощностями необходимых емкостей и быстродействия [11, с. 93]. Отмечается ряд свойств, присущих искусственному интеллекту: субстантивость, то есть субъектность и способность совершенствоваться; способность на высоком уровне воспринимать информацию, анализировать ее, принимать решения и их исполнять, делать выводы относительно собственного опыта; способность приспосабливаться к внешней среде, реализовывать когнитивные функции (творческие, аналитические), способность к самосознанию [11, с. 93-95].

Рассмотрение понятия искусственного интеллекта и свойств, для него характерных, позволяет достаточно четко разграничить строго алгоритмизированные компьютерные программы, выполняющие роль сподручного инструмента в рамках решения того или иного вопроса, и отмеченный искусственный интеллект, представляющий собой совершенно иной уровень развития и, как следствие, выполняющий иные функции.

Искусственный интеллект определяется, как это было отмечено выше, функциями, выполнение которых он способен осуществлять. Выполнение же функций прямым образом зависит от технических характеристик и типов операций той или иной программы. Отмечается способность искусственных нейронных сетей настоящего поколения к осуществлению таких операций, как распознавание, предсказание и классификация [13, с. 207].

Дополнительно отметим, что искусственный интеллект также представляет собой, в некотором смысле, неоднозначное с содержательной точки зрения понятие, и не всегда выступает таким сверхсложным программным образованием. К примеру, П.М. Морхат отмечает, что в научном сообществе выделяют два вида искусственного интеллекта, а именно – «слабый» и «сильный» искусственный интеллект, при этом слабый – будучи умной машиной, предназначен для решения частных задач (например, разработка сценариев для кинофильмов), напротив, сильный – может решать широкий спектр задач [9, с. 14].

Приведем достаточно показательный практический пример использования «слабого» искусственного интеллекта. Так, при расследовании коррупционных преступлений с участием технологического концерна Rolls-Royce Holdings Plc, следователи использовали возможности робота «ACE», работающего на системе искусственного интеллекта, основной задачей которого являлось выявление ценной информации для уголовного дела. Робот анализировал по 600 000 различных текстовых файлов в день. Всего «ACE» помог семерым следователям обработать 30 млн документов, тем самым во многом ускорил процесс расследования преступления [2]. В данном случае речь идет прямым образом об использовании искусственного интеллекта, не обладающего какими-либо когнитивными функциями и способностями, а отмечается выполнение заранее строго алгоритмизированного процесса.

Таким образом, понятие искусственного интеллекта, рассмотренное выше, раскрывает суть и содержание «сильного» искусственного интеллекта. «Искусственный интеллект – создаваемое с помощью группы смежных технологий программное обеспечение, функционирующее нелинейно, способное к обучению, ограниченному пониманию причинности и выполнению задач интеллектуального, эвристического характера с возможностью обучения, корректировки и уточнения за счет опыта принимаемых решений» [13, с. 208].

Близким с содержательной точки зрения является подход о существовании реактивных и проактивных систем искусственного интеллекта. Реактивные системы искусственного интеллекта условно можно обозначить как компьютерные программы, не представляющие собой искусственный интеллект в том понимании, которое было дано ранее. Такие системы не обладают памятью и возможностью обучения. Принятие решений такой системой «осуществляется исключительно на основании заранее прописанных правил поведения» [13, с. 209]. В этой связи причисление отмеченных систем к разновидностям искусственного интеллекта носит достаточно условный характер, либо же можно вести речь о широком толковании сущности искусственного интеллекта.

Проактивные системы искусственного интеллекта делятся на системы с ограниченной и неограниченной памятью. Именно результаты такого деления можно сопоставить с отмеченными «слабым» и «сильным» искусственным интеллектом. Проактивные системы искусственного интеллекта «осуществляют обработку ранее полученной информации и прогнозирование ближайшего будущего, однако возможность записи событий и их интерпретации ограничена решаемой задачей, и в силу этого обучение, хотя и осуществляется, не может привести к развитию системы выше заданных пределов» [13, с. 210].

Второй тип систем проактивного вида искусственного интеллекта обладает способностью к обучению на основе разных моделей этого процесса, как и человек. Он способен воспринимать одни те же данные в разных аспектах, использовать их для выстраивания неоднозначных алгоритмов принятия решений, делать прогнозы на основе их интерпретации, то есть его способности к обучению предполагают наличие эвристической и прогностической функции.

К настоящему времени официально констатируется существование только слабых проактивных систем искусственного интеллекта. Их доработка и развитие должны привести к существованию такого их вида, который способен на эмпатию (понимание и восприятие действий и намерений людей), а в дальнейшем на обладание полноценным самосознанием.

Именно исследование возможного применения второго типа проактивных систем искусственного интеллекта применительно к юридической практике представляет собой одну из центральных проблем в области правовой дискреции.

Все подходы, концепции, теории в области использования искусственного интеллекта применительно к правовому усмотрению делятся на два основных направления, представляющие собой позитивное и негативное направления. Рассмотрение всех точек зрения в отмеченной области следует проводить как раз под углом либо позитивного, либо негативного отношения к использованию искусственного интеллекта в решении вопросов по теме правового усмотрения.

В свете рассмотрения положительного подхода относительно возможности использования искусственного в научном сообществе выдвигается мысль о необходимости его внедрения в сферу судебной деятельности по двум основным направлениям: судебное делопроизводство и судебная статистика [12, с. 6]. Данная деятельность строго алгоритмизирована и, без всяких сомнений, может быть поручена машине. При подаче искового заявления, принятии дела к производству машина может помочь упорядочить документы, сформировать дело, распечатать копии, рассортировать бумаги. Однако в данном случае речь идет о машине как об инструменте, о передаче дискреции в области права речи не идет, здесь даже не обсуждается возможное влияние искусственного интеллекта на формирование усмотрения у человека.

Несколько иным образом ситуация обстоит с использованием искусственного интеллекта более «высокого» уровня. К примеру, М.Д. Лебедев и С.А. Саввоев отмечают возможность его использования при выдвижении и проверке версий: «Исследуемые информационные системы базируются на типовой модели преступлений, выделяемых по различным криминалистическим основаниям, которая и позволяет искусственному интеллекту разрабатывать методики расследования отдельных видов общественно опасных деяний» [8, с. 75]. Вместе с тем, можно сразу привести контраргумент. Так, к примеру, программы по выдвижению следственных версий могут вполне справляться с типичными версиями, однако при необходимости выдвижения нетипичных версий их потенциал значительно уменьшается [3, с. 45].

Некоторые сферы судопроизводства даже на данный момент могут быть преображены посредством включения в свою содержательную структуру искусственного интеллекта на отмеченных началах. К примеру, достаточно интересным и актуальным является мнение о возможном облегчении работы мировых судей, правда, в сфере гражданского процесса, путем внедрения сервиса формирования судебного приказа. На официальном сайте суда будут находиться предлагаемые формы заявлений о выдаче судебного приказа, которые могут заполняться взыскателями в виде ответов на вопросы сервиса, отражающих сведения о фактах, влияющих на принятие, отказ в принятии, возвращение заявления о выдаче судебного приказа, содержание судебного приказа. Причем лицу, заполняющему форму и отвечающему на предлагаемые вопросы, должны предлагаться выверенные для каждого вида приказного дела варианты ответов. Система на основании выбранных взыскателем ответов автоматически выдаст текст судебного приказа, который затем должен будет проверить мировой судья и скрепить своей цифровой подписью [5, с. 66].

Подобную практику можно было бы внедрить и в уголовное судопроизводство, например, при особом порядке судебного разбирательства при согласии обвиняемого с предъявленным ему обвинением, при заключении досудебного соглашения о сотрудничестве. В данном случае, во-первых, речь будет идти об алгоритмизированном и строго формализированном процессе, во-вторых, проверка такого «усмотрения» программы будет осуществляться непосредственно судьей. Тем самым возникнет новый вид практики дискреции в праве – проверка усмотрения машины на основании своего усмотрения. Однако данный пример порождает новую проблему: формирование каких-либо критериев и требований оценки усмотрений машины вряд ли возможно. Таким образом, данную область судебной деятельности можно отнести на исключительно самостоятельное судейское регулирование, ответственность за качество решений и работы такой программы необходимо полностью возложить на судей.

Однако речь в данном случае все равно идет о формировании усмотрения человеком с использованием компьютерных технологий. Последовательным является вопрос относительно возможности полной передачи всех полномочий искусственному интеллекту.

Говоря о позиции, в соответствии с которой допускается передача генерации усмотрений в праве искусственному интеллекту, в первую очередь, необходимо привести радикальную точку зрения на поставленный вопрос. В частности, И.Н. Глебов полагает, что вопросы судейского усмотрения «могут быть запрограммированы для использования во благо судящегося человека, если будут заданы четкие пределы усмотрения и коэффициенты, когда робот-судья вправе применить свое милосердие, снисхождение. В отличие от судьи-человека, робот-судья не примет ни одного решения, которое не будет юридически мотивировано с конкретным указанием на закон или мудрость общечеловеческого рассуждения, заложенную в его программу» [4]. Тем самым, предлагается заложить «мудрость общечеловеческого рассуждения» в программу. Логически следует вопрос о технической возможности и исправности «программы»: сможет ли искусственный интеллект предусмотреть все свойственные исключительно человеку психологические и иные личностные факторы, имеющие непосредственное значение при вынесении справедливого решения по делу? Не будет ли стремление уйти от субъективных и тем более коррупционных злоупотреблений при вынесении решений усугублять ситуацию безоценочностью и автоматизированной техничностью вынесения итоговых приговоров и решений?

В случае с человеком и его усмотрением, мы можем иметь дело с субъективными причинами ненадлежащего усмотрения, а в случае с искусственным интеллектом – такие причины носят сугубо объективный характер. Или же закон должен исключить наличие в своем содержании норм с признаками оценочности, широкого толкования и т. д.? Однако говорить о столь широком законодательном регулировании общественной жизни, учитывая ее опережающий характер, вряд ли приходится.

Можно предположить создание нейронной сети, обладающей способностью к самообучению, свойственной искусственному интеллекту вообще, и создать необходимые условия для анализа и изучения судебной практики, позиций судов и т. д. Однако следующей стóит решить проблему унифицированности усмотрения с морально-нравственных позиций.

В связи с этим, следует предположить наличие некоторого логического тупика, поскольку гипотетическое использование программы в данном случае обусловлено необходимостью выхода из неопределенности человека, порождающей усмотрение; программа же, ввиду неопределенности в толковании на конкретном примере морально-нравственных категорий, самопорождает новое усмотрение. Таким образом, возникает усмотрение усмотрения на предмет морально-нравственного соответствия и вместо того, чтобы решить проблему, рождается новое такое же ненадлежащее усмотрение.

Отмеченная проблема в своем решении характеризуется не только технической стороной, но и иными существенными аспектами, рассмотрение которых требует исследования позиции сторонников негативного подхода.

Заложить в машину представление о вопросах справедливости, гуманизма и т. д. представляется достаточно трудной задачей, однако, даже опуская этот этап, совершенно непонятной является возможность осуществления искусственным интеллектом творческой юридической деятельности в соответствии с заявленными морально-нравственными критериями. Многие ученые убеждены в невозможности отражения на машинном языке всей полноты нематематических категорий, принципов и понятий, а уж тем более – толкования отмеченных вещей машиной. В связи с этим «наиболее очевидным является риск того, что принятие юридических решений станет непонятным, и что сам закон будет адаптироваться к использованию богатых источников данных в ущерб относительно не поддающимся количественной оценке ценностям, таким как милосердие» [14, с. 110].

Данная позиция наводит на мысль о возможном изменении законодательства в части содержания абстрактных норм, норм оценочного характера и т. д., поскольку закон в приведенном случае должен быть максимально лаконичным, прозрачным и предсказуемым в своем толковании и применении. Однако следует предположить, что все-таки закон первоначально должен приобрести такие свойства, а уж потом допустимо говорить о возможности внедрения искусственного интеллекта. В таком случае, проактивный искусственный интеллект второго типа на концептуальном уровне не будет представлять какого-либо существенного практического интереса.

В целом, морально-нравственные категории достаточно сложно выразить на доступном и понятном для машины языке в виду своей подвижности, динамичности и метафизической природы. К тому же машина должна обладать способностью к осознанию всей совокупности общественных процессов, системному мышлению и т. д.

Таким образом, логически следует вывести наличие определенной закономерности: чем выше уровень возможного усмотрения, тем ниже возможность использования искусственного интеллекта.

Отдельного рассмотрения заслуживает проблема пересмотра решений, принятых искусственным интеллектов, и толкования усмотрения искусственного интеллекта.

С процессуальной стороны, отсутствие прозрачности в понимании убеждений искусственного интеллекта и его мотивации при вынесении решений порождает ситуацию, затрудняющую возможность использовать обжалование такого решения в качестве способа защиты своих прав. Вполне очевидно, что в случае недостатка прозрачности в автоматизированных решениях право на объяснение имеет решающее значение для реализации права индивида оспаривать затрагивающие его решения. Следствием этого является то, что отсутствие такого права при реальном применении технологий искусственного интеллекта будет существенно подрывать эффективность права на пересмотр или оспаривание решений [6, с. 195].

Особняком стоит сугубо объективная проблема, являющаяся одновременно причиной невозможности использования искусственного интеллекта в области правового усмотрения на данный момент – техническая неготовность создать необходимую программу: «пока нет еще технологий, позволяющих заменить судью машиной, в которой дышит интеграл» [7, с. 6].

Искусственный интеллект, несмотря на условное его могущество, зависит от технических специалистов, которые, в свою очередь, могут совершить определенные технические неточности, что, как следствие, неминуемо приведет к дальнейшим негативным последствиям. Данный вопрос представляет собой самостоятельную проблему прозрачности разработки алгоритма на основании неких исходных данных, взятых за аксиому [1, с. 50].

Социальный аспект возможного использования искусственного интеллекта в качестве машины по формированию правовых усмотрений неминуемо повлечет за собой сокращение рабочих мест и даже исчезновение отдельных юридических профессий в перспективе [10, с. 36].

Таким образом, весь комплекс рассмотренных проблем условно можно разделить на основные блоки: концептуальные проблемы; проблемы содержания права; процессуальные проблемы; технические проблемы; социально-экономические проблемы. Завершая рассмотрение вопроса использования искусственного интеллекта в правовом усмотрении, которое является одним из коррупционных рисков в следственной и судебной практике, следует указать на необходимость учета данных проблем и на невозможность доверять машине принимать решения, которые касаются изменения правового статуса, назначения наказания, вынесения решения о компенсации вреда или иного вопроса о судьбе человека.

Деятельность, требующая разумного творческого начала, не может быть полностью алгоритмизирована, и искусственный интеллект может быть в ней только помощником, выполняя рутинную работу, иначе это может привести к негативному исходу [12, с. 5].

Заключение и выводы

Таким образом, по вопросу использования искусственного интеллекта в юридической деятельности проведено немалое количество исследований. На данный момент также сформировалось два больших направления: позитивное и негативное отношение к возможному использованию искусственного интеллекта и компьютерных технологий в юридической деятельности по формированию правового усмотрения. Конечно, по ряду объективных причин, более аргументированной представляется точка зрения негативистов. Так, в качестве проблем использования искусственного интеллекта как средства противодействия правовой дискреции, а на основании этого и противодействия коррупции в юридической деятельности, поднимаются следующие: обучение искусственного интеллекта; отсутствие возможности создать необходимую нейронную сеть – технические проблемы; проблема толкования усмотрения машины и, как следствие, невозможность обжалования такого решения в виду неясности мотивации; неясность использования алгоритма; комплекс социально-экономических проблем, связанных с исчезновением юридических профессий и т. д.

Позитивная же точка зрения на данный вопрос базируется, в первую очередь, исключительно на аксиологических началах и негативной природе человека.

Ввиду вышеизложенного необходимо придерживаться смешанного подхода, в рамках которого использование искусственного интеллекта для перспективной борьбы с коррупцией в судебной и следственной деятельности возможно, но только под контролем человека и исключительно в качестве инструмента, но не самостоятельного «субъекта» со своим усмотрением. В качестве потенциальной возможности такого использования: создание сервиса по облегчению рассмотрения дел в особом порядке; внедрение искусственного интеллекта в сферы судебного делопроизводства и судебной статистики; анализ правоприменительной практики; прикладные вопросы следствия – моделирование события преступления, планирование и прогнозирование, экспертизы, выдвижение версий, определение путей их проверки.

×

About the authors

Natalia V. Bugaevskaya

Tula State University

Author for correspondence.
Email: bugaevskaja.natalia@yandex.ru
ORCID iD: 0000-0002-3029-0104

PhD in Law, Associate Professor, Associate Professor of the Department of Justice and Law Enforcement

Russian Federation, Tula

References

  1. Амиянц, К. А. Использование искусственного интеллекта в современной судебной системе и права человека / К. А. Амиянц, К. В. Череминский. – Текст : непосредственный // Международный журнал гуманитарных и естественных наук. – 2019. – №11-3. – 49-52.
  2. Британская полиция привлекла ИИ для помощи в раскрытии преступлений. Хабр. сообщество IT-специалистов. – URL: https://habr.com/ru/news/t/466471/. – Загл. с экрана (дата обращения: 21.04.2023). – Текст : электронный.
  3. Бахтеев, Д. В. Искусственный интеллект в криминалистике : состояние и перспективы использования / Д. В. Бахтеев. – Текст : непосредственный // Российское право : образование, практика, наука. – 2018. – № 2 (104). – С. 43-49.
  4. Глебов, И. Н. Искусственный юридический разум / И.Н. Глебов. – Текст : электронный // Сетевой научный юридический журнал «Гуманитарное право». – 2018. – Режим доступа: https://humanlaw.ru/9-article/26-artificial-intelligence.html. – Загл. с экрана (дата обращения: 21.04.2023).
  5. Грицай, О. В. Цифровизация как способ оптимизации механизма защиты гражданских прав в сфере гражданской юрисдикции / О. В. Грицай, Е. Н. Губина. – Текст : непосредственный // Юридический вестник Самарского университета. – 2019. – №2. – Т. 5. – С. 64-68.
  6. Gacuta J., Selvadurai N. A statutory right to explanation for decisions generated using artificial intelligence / J. Gacuta, N. Selvadurai. – Текст : непосредственный // International journal of law and information technology. – Oxford, 2019. – Vol. 28. – № 3. – P. 193-216.
  7. Колоколов, Н. А. Компьютер вместо судьи – арифметика вместо души / Н. А. Колоколов. – Текст : непосредственный // Уголовное судопроизводство. – 2019. – № 3. – С. 3-7.
  8. Лебедев, М. Д. Использование искусственного интеллекта в расследовании преступлений / М. Д. Лебедев, С. А. Саввоев. – Текст : непосредственный // Скиф. – 2020. – №7 (47). – 73-77.
  9. Морхат, П. М. Искусственный интеллект: правовой взгляд: монография / П. М. Морхат. – Москва: Буки Веди, 2017. – 258 с. – ISBN 978-5-4465-1774-9. – Текст : непосредственный.
  10. Незнамов, А. В. Использование искусственного интеллекта в судопроизводстве: первый опыт и первые выводы / А. В. Незнамов. – Текст : непосредственный // Российское право: образование, практика, наука. – 2020. – №3. – С. 32-39.
  11. Понкин, А. В. Искусственный интеллект с точки зрения права / А. В. Понкин, А. И. Редькина. – Текст : непосредственный // Вестник РУДН.Юридические науки. – 2018. – № 1. – С. 91-109.
  12. Поскряков, Р. С. Использование искусственного интеллекта в судебной деятельности / Р. С. Поскряков. – Текст : непосредственный // Огарёв-Online. – 2019. – №16 (137). – С. 1-6.
  13. Степаненко Д. А. Использование систем искусственного интеллекта в правоохранительной деятельности / Д. А. Степаненко, Д. В. Бахтеев, Ю. А. Евстратова. – Текст : непосредственный // Всероссийский криминологический журнал. – 2020. – №2. – Т. 14. – 206-214.
  14. Умнова-Конюхова, И. А. Судебная власть и искусственный интеллект: правовые аспекты взаимодействия / И. А. Умнова-Конюхова. – Текст : непосредственный // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Сер. 4, Государство и право: Реферативный журнал. – 2021. – №1. – С. 106-114.

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2023 Yugra State University

Creative Commons License
This work is licensed under a Creative Commons Attribution-ShareAlike 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies