LTStraipsniu siekiama preliminariai sugrupuoti algoritmų panaudojimo teismų veikloje formas, remiantis konvenciniu trijų stadijų teisinio kvalifikavimo modeliu. Siekiant šio tikslo pirmiausiai glaustai pristatoma klasikinė teisinio kvalifikavimo samprata. Toliau nustatoma, kokiu aspektu kiekvienoje iš trijų teisinio kvalifikavimo stadijų gali būti panaudoti šiuo metu vystomi algoritmai. Galiausiai identifikuojamos kai kurios teisės į teisingą bylos nagrinėjimą pažeidimo rizikos valdymo gairės, atsižvelgiant į konkrečioje stadijoje taikomų algoritmų turinį. Straipsnyje konstatuojama, kad su algoritmų taikymu teismų veikloje susijusi rizika turi būti įvertinta, atsižvelgiant į algoritmo panaudojimo praktines galimybes. Algoritmams taikyti teismų aplinkoje naudojami saugikliai analizuotini konkrečių teismo sprendimo priėmimo proceso stadijų kontekste. Konstatuojama, kad tik taip įkontekstintas algoritmo potencialas gali būti analizuojamas kylančių rizikų aspektu. Remiantis konvenciniu teisės taikymo stadijų modeliu pateikiamos įžvalgos dėl kiekvienos iš stadijų metu naudojamų algoritmų potencialo. Teigiama, kad faktą nustatant algoritmai gali padėti įrodinėjimo procese. Nustatant teisę algoritmai gali padėti analizuoti gausius teisės šaltinius, padėti išrinkti taikytiną teisę. Galutiniame sprendimo priėmimo veiksme algoritmų potencialas yra ribotas, jis gali būti susijęs su paprastų, techninio pobūdžio ginčų sprendimu arba, remiantis algoritmu, siūlant tam tikrus praeities duomenimis pagrįstus sprendimo modelius. Straipsnyje pateikiamos preliminarios teisės į teisingą bylos nagrinėjimą taikymo gairės kiekvienoje iš aptariamų teisės taikymo stadijų.Šiuo straipsniu pristatoma autoriaus tyrimo dalis – doktrininio tipo. Juo nesiekiama normatyvinių išvadų, tai pozityvioji analizė. Tai platesnio teisėsaugos institucijų ir teismų veiklos algoritmizavimo keliamų rizikų teisės į teisingą bylos nagrinėjimą tyrimo dalis. [Iš leidinio]Reikšminiai žodžiai: Tisės taikymas; Teisinis kvalifikavimas; Dirbtinis intelektas; Teismai; Teisė į teisingą bylos nagrinėjimą; Application of law; Legal classification; Artificial intelligence; Courts; Right to a fair trial.
ENDiscussions regarding the algorithmization of judicial decision-making are widespread. Even more so, the risks linked to shifting the responsibility from human judges to artificial intelligence. In practice, the impact of the use of algorithms on human rights should be considered in a more rigorous way. General conclusions about the risks associated with algorithms in the judiciary do not provide enough information on how human rights will be affected in practice and how should we develop present safeguards. This paper attempts to classify presently used or potential algorithms within the framework of a conventional three stages judicial decision-making structure. The structure includes assessing the facts, indicating applicable law and decision-making stages. The author assumes that placing algorithms in the context of a given stage provides us with more practice-oriented discussions about needed regulatory reforms and interpretation of available remedies. The author provides preliminary outlook on relevant right to a fair trial safeguards in all three decision-making stages. This paper is a positive doctrinal analysis. It is part of an ongoing research on the right to a fair trial remedies in the context of the ongoing algorithmisation of law-enforcement and judicial decision-making. [From the publication]