Нефантастична історія: навіщо ЄС взявся за регулювання штучного інтелекту
На перший погляд, це виглядає як сюжет фантастичного фільму.
Європейська комісія вже підготувала проєкт правил для регулювання штучного інтелекту (AI).
Це перша у світі спроба комплексного врегулювання такої технології. Проте виникає запитання, чи не зарано починати втілювати у життя сюжети фантастичних книжок?
І чому саме ЄС перехопив першість у цьому питанні?
Заради прав людини
Почнемо відповідь із останнього питання: чому саме ЄС?
Насправді першість Євросоюзу є закономірною, адже стрімкий розвиток технології АІ несе значні ризики для фундаментальних прав людини, захистом яких найбільше опікуються саме в країнах ЄС.
Ці ризики значною мірою зумовлені використанням машинного навчання (ML) із застосуванням штучних нейронних мереж.
Штучні нейромережі певною мірою імітують біологічні. Завдяки цьому класичний спосіб програмування (створення програм, які здатні вибирати наперед запрограмовані варіанти поведінки для можливих і наперед визначених ситуацій) був доповнений можливістю "навчання" систем на наборах даних.
Системи АІ навчаються обирати оптимальні варіанти поведінки, запам'ятовуючи правильні реакції на вхідні дані. Потім вони використовують такі знання для майбутніх ситуацій, які можуть бути не ідентичними тим, що використовувалися при навчанні.
Такий підхід дав можливість створення систем АІ, які можуть ухвалювати рішення за фактично необмеженої кількості вхідних даних в ситуаціях, які не були наперед запрограмовані.
При цьому недоліком є те, що такі рішення приймаються в результаті непрозорої внутрішньої роботи АІ-систем (принцип чорної скриньки). Такі системи хоч і забезпечують з високою ймовірністю ухвалення правильних рішень, однак повністю не гарантують цього.
Такий недолік набуває особливого значення, коли неправильні рішення систем АІ можуть створювати загрозу життю і здоров'ю людей. Для прикладу, коли такі системи забезпечують роботу автопілота.
Непрозорість процесу ухвалення рішення системами АІ також може ускладнювати ефективний захист прав людини.
Адже складно відповісти на питання, чиї дії стали причиною їхнього порушення або призвели до заподіяння шкоди.
Крім того, можливості систем АІ відстежувати і аналізувати значні обсяги даних і приймати на їхній основі рішення в реальному часі можуть бути використані для відстеження поведінки людей та їхньої класифікації за певними критеріями.
Це створює ризики для таких фундаментальних прав людини, як право на недоторканність особистого і сімейного життя, право на повагу до честі та гідності, а також призвести до дискримінації за расовою, гендерною та іншими ознаками.
Як оминути ризики?
Отже, що пропонує ЄС? І як нові правила допоможуть мінімізувати ризики від АІ?
Запропоновані Євросоюзом правила спрямовані на те, щоб мінімізувати ризики та забезпечити ефективний захист прав, які порушуються внаслідок використання таких систем.
Відповідно вони створюють умови для розвитку та застосування надійного АІ.
У проєкті Комісії запропоновано підхід, заснований на оцінці ризиків використання таких систем, який передбачає різні рівні:
Неприйнятний ризик – системи AI, використання яких є найбільш шкідливим, оскільки суперечить цінностям ЄС та порушує основні права.
Стосується соціального оцінювання громадян урядами; використання вразливості дітей; застосування методів впливу на підсвідомість; біометричної дистанційної ідентифікації у реальному часі в загальнодоступних місцях для правоохоронних цілей, за окремими винятками (пошук конкретних жертв злочинів, включаючи зниклих дітей; протидія безпосередній загрозі теракту; виявлення та встановлення осіб, які вчинили тяжкі злочини).
Використання таких систем буде заборонено.
Високий ризик – системи АІ, які створюють значний ризик несприятливого впливу на безпеку та здоров’я людей, їхні основні права.
Перелік систем АІ з високим ризиком є досить широким. Він включає системи з різних сфер: від систем для забезпечення безпеки управління дорожнім рухом до систем оцінки кредитоспроможності фізичних осіб при наданні послуг з кредитування.
Цей перелік у подальшому може бути доповнений. Для цього передбачена спеціальна процедура.
До таких систем також належать компоненти безпеки продукції, яка підлягає незалежній оцінці відповідності в силу галузевого законодавства Євросоюзу (наприклад, системи АІ для роботів, які застосовуються в хірургії), та системи дистанційної біометричної ідентифікації фізичних осіб.
Задля ефективного захисту основних прав людини для систем АІ з високим ризиком передбачені жорсткі технічні вимоги. Вони стосуються, наприклад, імплементації адекватних систем пом'якшення ризиків, яким неможливо запобігти, запобігання дискримінаційним результатам, забезпечення прозорості та простежуваності результатів роботи системи, а також високого рівня надійності, кібербезпеки та точності.
Перш ніж розміщувати систему AI з високим ризиком на ринку ЄС або іншим чином вводити її в експлуатацію, постачальники повинні провести її оцінку відповідності. Для окремих систем АІ до цього процесу також слід залучати незалежний орган.
Вимоги до систем АІ з високим ризиком та їхньої оцінки будуть актуальні й для українських розробників, які планують їх розміщення чи використання на ринку ЄС.
Для інших систем АІ, що не мають високого ризику, додаткові вимоги не встановлюються або встановлюються несуттєві зобов’язання.
Наприклад, їх можуть зобов'язати надавати користувачу інформацію, що він взаємодіє з машиною. До цієї категорії належить переважна більшість систем АІ, які наразі використовуються.
* * * * *
Наостанок треба зазначити, що новими правилами ЄС не регулюється питання про надання AI-системам статусу самостійних суб’єктів правовідносин та про співіснування людини з такими новими суб’єктами.
Відповідні питання набудуть практичного значення лише після того, як системам АІ стане властиве самоусвідомлення.
Втім, не виключено, що це відбудеться набагато раніше, ніж ми очікуємо.
Зокрема, за прогнозами відомого американського винахідника, футуролога та технічного директора Google Реймонда Курцвейла, AI стане таким же розумним, як і людина, вже до 2029 року.
Відтак у людства є зовсім небагато часу, щоб підготуватися до таких змін і розробити відповідне правове регулювання.
Автор: Віталій Кулинич,
старший юрист юридичної фірми "Астерс"