Регулювання штучного інтелекту в Європі
- Софія Войнича
- 18 жовт. 2022 р.
- Читати 8 хв
Ми вже настільки звикли до “розумних” електронних помічників та вбивць від автомобіля та кухні до фронту, що забуваємо про те як вони з'явилися. Поки хтось згадує серію фільмів про термінатора, законодавці світу намагаються врегулювати процедуру створення і застосування штучного інтелекту в повсякденному житті. І, як не дивно, ця діяльність безпосередньо стосується комфорту споживачів. Тому ми вирішили розказати про неї читачам “Служби комфорту споживачів”.
Це було напружене літо для прихильників різноманітних європейських нормативних пропозицій щодо запровадження більшого регуляторного нагляду за штучним інтелектом. ЄС намагається вирішити внутрішні розбіжності у підходах до регулювання, тоді як пропозиції, опубліковані Великобританією, мають більш легкий, проінноваційний підхід.
Закон про штучний інтелект (The Artificial Intelligence Act)
У квітні 2021 року Комісія ЄС опублікувала пропозицію щодо Закону ЄС про штучний інтелект у формі Регламенту щодо штучного інтелекту, який негайно набуде чинності на всій території ЄС. Ця пропозиція викликала жваве обговорення серед держав-членів ЄС, зацікавлених сторін і політичних партій у Європейському парламенті, породивши кілька тисяч пропозицій поправок. На основі спільного проекту звіту, опублікованого в квітні 2022 року парламентськими комітетами, які розглядають пропозиції, парламент ЄС зараз намагається виробити компромісний текст. Крім того, поточне головування Чехії в Раді ЄС внесло окремі нові пропозиції, щоб спробувати досягти компромісу.
Запропонований Регламент ШІ застосовуватиметься до постачальників і користувачів систем ШІ незалежно від країни їх заснування, якщо система ШІ доступна на ринку ЄС або її результати використовуються в ЄС (див. наш детальний аналіз пропозиції ). Пропозиція включає:
заборона певних методів штучного інтелекту (таких як специфічні соціальні оцінки та використання біометричної ідентифікації), які створюють явну загрозу безпеці, засобам існування та правам людей; і
правила щодо інших застосувань ШІ відповідно до їх класифікації за ризиком. Постачальники та користувачі систем штучного інтелекту без високого ризику зможуть вибирати, чи застосовувати добровільні кодекси поведінки, але системи штучного інтелекту, які взаємодіють з людьми та/або використовуються для виявлення емоцій або генерування глибоких фейків, повинні дотримуватися певних зобов’язань щодо прозорості. Системи штучного інтелекту з високим рівнем ризику (тобто системи, що створюють високий ризик для здоров’я та безпеки або основних прав фізичних осіб) підлягають попередній перевірці (тобто, попередня) оцінка відповідності. Постачальники таких систем штучного інтелекту з високим рівнем ризику повинні вживати додаткових заходів, наприклад, впроваджувати системи управління ризиками та якістю, дотримуватися певних стандартів щодо навчальних даних, документувати вихідні дані системи, запроваджувати прозору інформацію для користувачів і реєструватися. їх попередньо оцінена система ШІ з публічною базою даних ЄС.
Країни-члени ЄС (а також політичні партії в Європейському парламенті) виступають за різні підходи до регулювання штучного інтелекту, які охоплюються двома останніми компромісними пропозиціями нинішнього головування Чехії в Раді ЄС, випущеними у вересні 2022 року. спірними моментами цих пропозицій є:
визначення «систем штучного інтелекту» – яке деякі представники галузі вважають надто широким і загрозливим для відкритих і дослідницьких програм; тоді як інші виступають за видалення списку методів і підходів штучного інтелекту в Додатку I, щоб зберегти Регламент ШІ відкритим для майбутніх технічних розробок;
сфера дії Регламенту щодо штучного інтелекту , яку доповідач Комітету Європейського парламенту з громадянських свобод, юстиції та внутрішніх справ запропонував розширити, щоб включити додатки штучного інтелекту в Metaverse, а також в блокчейн-активах, таких як криптовалюти та NFT;
заборона на використання біометрії обличчя в правоохоронних органах – хоча деякі держави-члени хочуть виключити з Регламенту AI будь-яке використання програм AI для цілей національної безпеки (пропозиції виключають системи AI, розроблені або використані «виключно» для військових цілей; проте, останній чеський компромісний текст скасовує критерій ексклюзивності). Нещодавно Німеччина виступила за те, щоб виключити віддалену біометричну ідентифікацію в режимі реального часу в громадських місцях, але дозволити ретроспективну ідентифікацію ( наприклад , під час оцінки доказів), і просить чітко заборонити використання систем штучного інтелекту, які замінюють суддів, для оцінки ризиків правоохоронні органи та для систематичного спостереження та моніторингу роботи працівників;
класифікація систем високого ризику, яку нинішнє головування Чехії в Раді ЄС прагне обмежити випадками значного впливу на процеси прийняття рішень, тобто, не лише будучи допоміжним у прийнятті рішення. Чеське головування також вилучило відсутність перевірки персоналом як критерій класифікації систем високого ризику. Німеччина запропонувала змінити чеський компроміс, включивши значний шкідливий вплив на навколишнє середовище як критерій для систем ШІ високого ризику. Подальші обговорення стосуються попередньо встановленого списку використання з високим ризиком у Додатку III і того, чи повинні постачальники ШІ замість цього самостійно оцінювати ризики своєї системи. Для систем штучного інтелекту загального призначення, які можуть або не можуть використовуватися для додатків із високим рівнем ризику, чеське головування пропонує поточні акти щодо імплементації, які мають бути видані Комісією на основі оцінки впливу та громадських консультацій;
управління на національному рівні та виконання Регламенту щодо штучного інтелекту , якого деякі держави-члени побоюються, що вони не зможуть належним чином дотримуватися (тоді як перший пілот регуляторної пісочниці щодо штучного інтелекту був представлений Іспанією в червні). Пропоновані рішення включають посилення допоміжної ролі Європейської ради з штучного інтелекту або тестування на рівні ЄС; і
рівень пропонованих штрафів (до 10-30 мільйонів євро або 2-6% від загального річного обороту), які деякі стверджують, що слід знизити в цілому (або, принаймні, для МСП), тоді як інші виступають за навіть вищі санкції. Головування Чехії запропонувало знизити верхню межу можливих штрафів для МСП з 3% річного обороту до 2%.
Очікується, що парламент ЄС проголосує за компромісний текст у листопаді 2022 року. Остаточне узгодження між парламентом, Радою та Комісією може розпочатися на початку 2023 року.
Перегляд Директиви ЄС про відповідальність за якість продукції, пов’язаний зі штучним інтелектом
У вересні 2022 року Комісія ЄС опублікувала свій проект для перегляду Директиви про відповідальність за продукт (PLD). PLD передбачає сувору цивільно-правову відповідальність виробників за збитки, спричинені дефектною продукцією. Перегляд був необхідний, щоб включити нові категорії продуктів, що виникли з цифрових технологій, таких як AI. PLD визначає конкретні обставини, за яких продукт вважатиметься «дефектним» для цілей позову про відшкодування збитків, включаючи презумпцію причинно-наслідкового зв’язку , коли продукт буде визнано дефектним і пошкодження, як правило, відповідає цьому дефекту.
Щодо систем штучного інтелекту, перегляд PLD має на меті уточнити, що:
Системи штучного інтелекту та товари з підтримкою штучного інтелекту вважаються «продуктами», тому на них поширюється дія PLD; і
якщо системи штучного інтелекту мають дефекти та завдають шкоди майну, фізичної шкоди або втрати даних, потерпіла сторона може вимагати компенсації без вини від постачальника системи штучного інтелекту або від виробника, який інтегрує систему в інший продукт.
Не специфічно для штучного інтелекту, переглянута PLD додатково пояснює, що:
постачальники програмного забезпечення та цифрових послуг, що впливають на функціональність продуктів, можуть бути притягнуті до відповідальності так само, як і виробники обладнання;
виробники можуть бути притягнуті до відповідальності за наступні зміни, внесені до продуктів, які вже розміщені на ринку, наприклад , шляхом оновлення програмного забезпечення або машинного навчання; і
відшкодування шкоди майну згідно з PLD буде поширено на предмети меншої вартості вартістю менше 500 євро.
Пропозиція щодо Директиви ЄС про відповідальність за AI
Разом із переглянутою PLD Комісія ЄС також опублікувала свій проект Директиви про відповідальність проти штучного інтелекту , яку, на відміну від Закону про штучний інтелект, країни-члени мають перенести в національне законодавство протягом двох років. Запропонована Директива про відповідальність за штучний інтелект має на меті сприяти виконанню цивільно-правової компенсації за шкоду, заподіяну системами штучного інтелекту. Вона доповнює PLD – так, наприклад, у той час як PLD накладає сувору відповідальність за дефектні продукти незалежно від будь-якої «провини» виробника чи виробника, Директива про відповідальність AI стосується випадків, коли шкода заподіяна внаслідок протиправної поведінки ( наприклад , порушення конфіденційності чи безпеки чи дискримінація через програми ШІ).
Запропонована Директива тісно пов’язана з Регламентом AI. Наприклад:
визначення «системи штучного інтелекту» узгоджується з Регламентом щодо штучного інтелекту, включаючи його поняття систем високого ризику. Відповідно, потенційні зміни в Регламенті ШІ, ймовірно, будуть відображені в запропонованій Директиві під час законодавчого процесу;
запропонована Директива передбачає право потерпілої сторони вимагати від постачальника інформацію про систему ШІ високого ризику, яку постачальник зобов’язаний документувати та зберігати відповідно до Регламенту ШІ. Відмова постачальника виконувати вимоги може бути оскаржена в суді та оцінюватиметься відповідно до принципів пропорційності та захисту комерційної таємниці; і
запропонована Директива встановлює спростовну презумпцію про те, що невиконання зобов’язань Регламенту AI спричинило шкоду, яку зазнав позивач. Ця презумпція причинно-наслідкового зв’язку звільняє позивачів від тягаря доводити, як шкідливий результат міг бути спричинений конкретною дією чи бездіяльністю постачальника або користувача ШІ.
Інновації перед регулюванням:
Великобританія використовує фрагментарний підхід
Тим часом за межами ЄС уряд Великої Британії опублікував Політику щодо регулювання штучного інтелекту та « План дій щодо штучного інтелекту », підтверджуючи, що він має намір відійти від регуляторного режиму ЄС. А в червні 2022 року Велика Британія внесла пропозиції щодо одного з ключових аспектів ШІ – поводження з правами інтелектуальної власності. В обох випадках Великобританія, схоже, дотримується підходу, який віддає перевагу інноваціям, а не регулюванню.
Зміни до закону Великобританії про інтелектуальну власність: інтелектуальний аналіз тексту та даних, авторське право та патенти на комп’ютерні роботи
Велика Британія планує запровадити новий виняток щодо авторського права та права на базу даних, який дозволить інтелектуальний аналіз тексту та даних (TDM) для будь-яких цілей . Власники прав на інтелектуальну власність не зможуть відмовитися від цього права, але все одно матимуть гарантії для захисту свого вмісту – насамперед, вимога щодо законного доступу до вмісту, який підлягає TDM. Таким чином, правовласники зможуть обирати платформи, де вони будуть доступні для своїх творів, зокрема стягувати плату за доступ. Вони також зможуть вжити відповідних заходів для забезпечення цілісності та безпеки своїх систем.
Передбачається, що виняток прискорить процес TDM, який часто є попередником розвитку штучного інтелекту, і допоможе зробити Великобританію більш конкурентоспроможною як місце для розробників штучного інтелекту. Раніше виняток TDM застосовувався лише в некомерційних цілях.
З іншого боку, уряд Великобританії відхилив інші свої пропозиції. Велика Британія не планує змінювати законодавство щодо інтелектуальної власності в роботах, створених комп’ютером. Це означає, що твори, які не мають автора-людини, збережуть захист авторських прав – унікальне положення в Європі. Уряд переглядатиме закон і може змінити, замінити або скасувати захист у майбутньому, якщо це буде підтверджено доказами.
Також не буде змінено патентне законодавство Великої Британії щодо захисту винаходів, створених штучним інтелектом. У відповідь на урядові консультації більшість респондентів погодилися, що зміни до закону про винахідництво мають бути узгоджені на міжнародному рівні, а не впроваджуватися по частинах. Одна з точок зору полягає в тому, що правила патентоспроможності слід змінити, враховуючи зростаючий внесок ШІ в процес досліджень і розробок, і що, коли технологія ШІ досягне такої стадії, коли вона зможе справді «винаходити», будь-які винаходи, розроблені ШІ, повинні бути патентоспроможними. Незважаючи на те, що неминучих змін у політиці не буде, Верховний суд Великобританії розгляне тестову справу з цього питання протягом наступних двох років (перегляньте наші попередні звіти про перевірку кількох юрисдикцій тут, а також у Сполучених Штатах ).
Бізнес знає найкраще: консолідовані принципи для інформування багаторегуляторів, легкий режим
Окремо уряд Великобританії Політика регулювання штучного інтелекту та План дій щодо штучного інтелекту підтверджують, що Велика Британія насамперед прагне сприяти інноваціям. Спочатку Сполучене Королівство не створюватиме спеціалізований орган або нормативний акт, що займатиметься штучним інтелектом, або навіть намагатиметься дати визначення «ШІ». Швидше, ця відповідальність буде делегована промисловості та вже створеним регуляторам ( наприклад , Офісу Уповноваженого з інформації). Це розроблено, щоб задовольнити різні виклики, з якими стикаються різні сектори. Однак узгоджений підхід буде підкріплено низкою міжгалузевих принципів. Як зазначалося раніше в стратегії штучного інтелекту Великобританії, принципи будуть нестатутними, щоб зберегти гнучкість.
Документ дотримується позиції, згідно з якою відповідальність за такі режими завжди повинна нести особа, яку можна ідентифікувати. Буде заохочуватися легкий підхід – наприклад, керівництво та добровільні заходи. Важливі питання, які обумовлюють централізоване регулювання штучного інтелекту в ЄС, такі як безпека, захист, прозорість і справедливість, натомість будуть інтерпретуватися окремими регуляторами в контексті цієї галузі. Це може призвести до подальших затримок і розбіжностей у Великій Британії – ми, звичайно, можемо очікувати, що деякі регулятори будуть менш активними та заборонними, ніж інші. У програмному документі визначено, що такі органи та групи, як Форум співробітництва в цифровому регулюванні, повинні будуть відігравати ключову роль для забезпечення більш скоординованого режиму. Подальші подробиці будуть оголошені в майбутній білій книзі – тим часом,
Але цей попередній підхід не затримує інші зацікавлені органи. Комісія з питань рівності та прав людини опублікувала вказівки щодо використання штучного інтелекту в державних службах, підтверджуючи свій намір зробити штучний інтелект ключовим у своєму трирічному стратегічному плані. Зважаючи на ризик дискримінації під час використання штучного інтелекту для прийняття рішень, посібник містить поради щодо дотримання законодавства про рівність (Закон про рівність 2010 року) та контрольний список для державних органів під час використання штучного інтелекту.
Morrison & Foerster LLP - Патрісія К. Ернст , Алістер Моган і Джорджія Райт
Comments