ШІ в мантії: допомагає суддям чи знищує правосуддя [ Редагувати ]
Штучний інтелект у мантії? Апгрейд чи дегуманізація правосуддя? Або як нейромережі допомагають Феміді. Ми покажемо реальні кейси вже впроваджені у судову практику в Україні й закордоном. Все про ризики й загрози. І що таке "Дилема Кентавра", коли за рішенням стоїть два розуми?
Холодний. Без серця. З ним судяться. Він пише вироки. І виграє суди!
Феміда мовчить. Говорить алгоритм.
- Деякі юристи вважають, що штучний інтелект - це вже є суб'єктом права.
Здавалося б, суд - останнє місце, куди зайде штучний інтелект. Утім, нейромережі в правосудді вже не фантастика, а практика. Але як бути з етикою? Захистом даних? Упередженістю алгоритмів? Хто контролює ШІ-логіку? Хто наслідки? Та як поєднати розрахунок і мораль?
Нещодавно ChatGPT виграв перший в історії суд. У Казахстані 23-річному чоловікові вручили штраф за порушення правил дорожнього руху, але водій був переконаний: незаконно! У поліції "порушнику" допомогти відмовили. А от нейромережа порадила оскаржити штраф через суд, надавши доказ - відеозапис. Ще й сама склала заяву. Результат: мегакоротке засідання – всього 10 хвилин і позов судді задовольнили, а штраф скасували. Позивач увімкнув синтез мовлення у ChatGPT, тож штучний інтелект слухав і підказував позивачу просто в залі суду!
У Сполучених Штатах уже давно застосовують ШІ для оцінювання ризиків злочинних рецидивів; у Нідерландах суд тестує цифру як помічника під час написання вироків. А в Естонії ШІ допомагає відсіювати справи, які містять процесуальні помилки. В Україні ж функціонує інструмент дистанційної взаємодії з інстанцією - електронний суд. І не тільки...
Ян Берназюк, суддя Касаційного адміністративного суду у складі Верховного суду:
Ми маємо приклади того, як Верховний суд використовує технологію ШІ при створенні бази правових позицій, він опрацьовує постанову Верховного суду, здійснює відбір, здійснює їхню класифікацію, ШІ вже допомагає автоматизувати процеси: класифікує справи, підбирає практику, обґрунтовує правову позицію та генерує стандартні документи. Але. Що більше повноважень, тим вищі ризики.
Тетяна Авдєєва, старша юристка Лабораторії цифрової безпеки, експертка Експертного комітету з розвитку ШІ при Мінцифрі:
Така система, до прикладу, існувала в Сполучених Штатах, вона називалась "Компас". І, очевидно, оскільки в Сполучених Штатах є така собі інституційна, суспільна проблема расової дискримінації, коли таку систему штучного інтелекту тренували, то стикнулися з проблемою, що людей з кольоровою шкірою вважали більш схильними повторно вчиняти злочини.
Оцінка виявилася ненадійною у прогнозуванні: лише 20% чорношкірих із передбачених 40 справді скоїли повторний злочин. Ще одна проблема - загроза приватності й витік конфіденційних даних.
Віталій Матвєєв, адвокат, керівник ГО "Прожектор":
Наші судді використовують ChatGPT при винесенні судового рішення. При цьому, якщо використовуємо ChatGPT - вводимо персональні дані особи, яку ми слухаємо, наприклад. Це прізвище, ім'я, по батькові, місце проживання. І де гарантія, що інший користувач ChatGPT, коли буде також шукати якусь інформацію, то ця інформація не випливе разом з персональними даними?
У Норвегії чоловік подав у суд на штучний інтелект через те, що той неправильно навів його біографію. Розробник відреагував: випустив нову модель з функцією вебпошуку, що знизить імовірність помилок.
Тетяна Авдєєва, старша юристка Лабораторії цифрової безпеки, експертка Експертного комітету з розвитку ШІ при Мінцифрі:
Із системами штучного інтелекту питання є дещо складним, оскільки достеменно ми не знаємо, що в них під капотом, тобто ми не знаємо, як саме вони обробляють інформацію, як саме вона зберігається.
Етика - найтонша грань правосуддя, яка не до снаги машині. Штучний інтелект не має ні інтуїції, ні совісті, ні емпатії. А тому останнє слово має бути за людиною. Як і відповідальність за ухвалене спільно з нейромережею рішення. Це у правосудді пояснює так звана "Дилема Кентавра" - виклик у визначенні меж відповідальності між суддею та ШІ.
Ян Берназюк, суддя Касаційного адміністративного суду у складі Верховного суду:
"Дилема Кентавра" – це пошук відповіді на запитання, як знайти ту золоту середину, баланс, як витримати принцип пропорційності в поєднанні сильних сторін і невід'ємних основ людини й можливостей технології.
В Україні немає законодавства, яке б регулювало використання штучного інтелекту. Але торік з'їзд суддів затвердив нову редакцію Кодексу суддівської етики, де чітко визначив: використання суддями ШІ - допустиме. Але з 4 обмеженнями:
- технології не мають впливати на упередженість судді;
- на ухвалення рішення;
- ШІ не може бути використаний суддею для оцінки доказів;
- співпраця судді та штучного інтелекту не має суперечити закону.
Ян Берназюк, суддя Касаційного адміністративного суду у складі Верховного суду:
Це мала б бути автономна технологія, яка захищена і яка використовує як джерело інформації, на мою думку, три головні бази. Це база законодавства Верховної Ради України, це Реєстр судових рішень і Реєстр рішень Європейського Суду з прав людини.
ШІ у правосудді можливий лише як помічник, підсумовують правники. Прозорий, контрольований, у чітких рамках, бо алгоритм може прорахувати закон, але не відчути справедливості.