Ця сторінка доступна рідною мовою. Перейти на українську

Основні тенденції розвитку штучного інтелекту: погляд юриста

Реклама

Онлайн-словник англійської мови Collins Dictionary оголосив, що словом 2023 року є штучний інтелект (далі - "ШІ").

ШІ вже давно став невід'ємною частиною нашого життя: це й індивідуальні рекомендації у соціальних мережах Facebook, Instagram, Tik-Tok; віртуальні голосові помічники Siri, Alexa, Windows Hello; технології розпізнавання обличчя та онлайн-карти, які прокладають маршрути з точки А у точку Б за лічені секунди.

Інформаційний вибух, пов'язаний із запуском чат-бота СhatGPT компанії OpenAI у листопаді 2022 року, призвів до поновлення обговорення щодо необхідності регулювання та контролю за технологіями ШІ.

Основними правовими проблемами, які спричинені та стосуються ШІ є: правосуб'єктність (чи здатний ШІ бути учасником правових відносин та нести відповідальність за свої дії?), право інтелектуальної власності (чи здатний ШІ бути суб'єктом авторського та патентного права?), захист персональних даних (чи порушує ШІ цифрові права людини через збирання та обробку інформації?).

Контролювати ШІ, поки не сталося навпаки: досвід Європи

8 грудня 2023 року за результатами тривалих перемовин Європейський парламент та Рада ЄС попередньо погодили текст першого у світі нормативно-правового акту регіонального характеру стосовно штучного інтелекту - Регламент про штучний інтелект, також Закон про штучний інтелект (англ. "AI Act").

Регламент ще не набрав чинності. Попереднє погодження - важливе політичне рішення, яке означає, що законодавчі органи дійшли згоди щодо положень закону. Наступним кроком буде прийняття остаточного акту, який пророкують на початок 2024 року. При цьому Регламент - правовий акт прямої дії, а отже буде діяти на усій території ЄС.

З огляду на те, що остаточний текст Закону про ШІ ще не опублікований, наш аналіз буде ґрунтуватися на загальних концепціях Регламенту та останній редакції із запропонованими змінами Європейського парламенту до пропозицій Європейської комісії.

Мета Регламенту: сприяти впровадженню людиноцентричного та безпечного ШІ; забезпечити високий рівень захисту здоров'я, безпеки, основоположних прав, демократії та верховенства права, а також середовища без шкідливих наслідків діяльності систем ШІ на території ЄС, одночасно підтримуючи інновації. Системи ШІ, які розроблені для військових цілей, не підпадають під дію Регламенту.

1. Визначення ШІ.

Жоден міжнародний договір не містить визначення ШІ. У доктрині зустрічається безліч підходів: ШІ визначають як галузь інформатики; як метод та наукове рішення; як комп'ютерну систему.

Проєкт Регламенту встановлює, що система штучного інтелекту - це машинна система, розроблена для оперування з різними рівнями автономності та яка здатна, з явною метою та за її відсутності, генерувати такі результати, як прогнози, рекомендації чи рішення, які впливають на фізичне чи віртуальне середовище.

Таке формулювання відповідає визначенню ШІ, яке запропонувала Організація економічного співробітництва та розвитку ще у 2019 році.

Примітно, що у попередній редакції Регламенту зі змінами, запропонованими Європейською комісією, Регламент визначав штучний інтелект як "програмне забезпечення", яке може "генерувати" контент, рішення тощо.

Як впливає певна норма закону на вашу бізнес-діяльність? Відповідь надасть Legal Solution. Знаходьте пов'язану аналітику та довідкову інформацію для будь-якого закону. Більше переваг за посиланням.   

2. Основні принципи, застосовні до усіх систем ШІ.

Система ШІ повинна поважати загальні принципи, серед яких захист основоположних прав, залучення людини та нагляд за діяльністю, технологічна стійкість та безпека, приватність та управління даними, прозорість, недискримінація, справедливість, соціальний та зовнішній добробут.

3. Пропорційний розподіл ризиків.

Регламент класифікує системи ШІ відповідно до рівня ризику, які вони несуть для користувачів та третіх сторін:

(1) Якщо системи ШІ суперечать цінностям ЄС, вони становлять неприйнятний рівень ризику. Регламент забороняє використовувати такі системи.

(2) Якщо системи ШІ несуть негативний вплив на права, передбачені Хартією основоположних прав ЄС (напр., повага до приватного та сімейного життя, захист персональних даних, свобода вираження поглядів та інформації тощо) або системи перелічені у Додатку ІІІ до Регламенту (напр., системи, які використовуються органами для перевірки автентичності документів), вони становлять високий рівень ризику.

Регламент передбачає обов'язкову та добровільну реєстрацію використання систем такого рівня ризику у спеціальній базі даних у кожному окремому випадку.

(3) Якщо системи ШІ загального призначення взаємодіють з людиною напряму (напр., ChatGPT, DALL-E), вони становлять обмежений рівень ризику. Регламент вимагає від них "прозорості", наприклад повідомляти належним чином, що контент згенерований ШІ.

(4) Якщо системи ШІ частково інтегровані у продукт (напр., у комп'ютерні ігри, Instagram та Snapchat фільтри, які модифікують обличчя) та фактично не обробляють персональні дані, вони становлять низький рівень ризику. Обмеження для таких систем не передбачені.

4. Органи контролю.

Регламентом засновується спеціальний орган - Офіс штучного інтелекту ЄС - для забезпечення імплементації Регламенту. Офіс матиме консультативну та координаційну функції, які включатимуть підготовку висновків та рекомендацій з питань, пов'язаних із застосуванням положень Регламенту.

Крім того, кожна держава-член ЄС повинна призначити національний наглядовий орган для контролю за застосовуванням та імплементацією Регламенту, а також представництва своєї держави в Офісі штучного інтелекту. Будь-яка особа матиме право звернутися зі скаргою до наглядового органу, якщо вважатиме, що система ШІ порушує норми Регламенту.

5. Регуляторні платформи (англ. sandboxes).

Регламент зобов'язує держав-членів створити хоча б одну регуляторну платформу ШІ (віртуальну або гібридну) для сприяння розвитку та проведення тестувань або експериментів систем ШІ до того, як такі системи вийдуть на ринок або стануть доступні споживачу іншим способом.

Відтак, Регламент регулюватиме широкий спектр питань, серед яких визначення ШІ, встановлення рівнів ризику, база даних систем ШІ, які становлять високий рівень ризику, створення контрольних органів та регуляторних платформ - це єдиний у світі документ такого масштабу.

Європейська комісія вперше запропонувала проєкт Регламенту ще у квітні 2021 року. Ще раніше Європейська комісія зазначала про необхідність удосконалення законодавства для регулювання ШІ у Білій книзі "Про штучний інтелект - європейський підхід до досконалості та довіри" від лютого 2020 року. Тоді Біла книга окреслила основні ризики, які пов'язані з виходом товару, в який інтегрований ШІ на єдиний ринок ЄС, зокрема, непрозорість системи ШІ, відсутність інструментів для ідентифікації та доведення вчинення порушення.

Всі джерела інформації для вашої роботи - в новому рішенні LIGA360 PRO. Доступ до найповнішої бази законодавства, судових рішень та інструментів перевірки контрагентів. Дізнайтеся більше переваг за посиланням 

Держави готові сформувати єдиний підхід до регулювання ШІ.

Ще однією подією у сфер ШІ став Саміт Безпеки ШІ, який проходив з 1 по 2 листопада у Великобританії. Цілями заходу, як не дивно, стали ризики ШІ та їх подолання за допомогою міжнародних скоординованих дій.

Саміт відвідали 28 держав з усього світу, серед яких Україна, США, Китай, Об'єднані Арабські Емірати та ЄС. За результатами заходу держави ухвалили Декларацію Блетчлі (місто, де проходив саміт, англ. Bletchley Declaration), яка визначила основний план співпраці - виявлення загальних ризиків, пов'язаних з безпекою ШІ, та розробка відповідної політики для забезпечення безпеки при подоланні таких ризиків.

Саміт Безпеки ШІ - важливий крок у подальшій співпраці держав щодо використання ШІ та показник зацікавленості у правовому регулюванні таких систем.

ШІ як зброя: ООН попереджає

1 листопада 2023 року Генеральна Асамблея ООН (далі - "ГА ООН") прийняла проєкт першої резолюції A/C.1/78/L.56 щодо автономної зброї.

Проєкту резолюції передувала спільна заява Генерального Секретаря ООН та Президента Червоного Хреста у жовтні 2023 року, яка закликала лідерів держав встановити нові міжнародно-правові норми щодо автономної зброї.

Як пояснюється в заяві, автономна зброя - це система озброєння, яка обирає цілі та вражає їх автоматично без втручання людини, а тому може спричинити серйозні гуманітарні, правові, етичні те безпекові проблеми.

У проєкті резолюції ГА ООН визнає швидкий розвиток технологій та їхній потенціал для підвищення рівня людського добробуту, а також пам'ятає про серйозні виклики застосування новітніх технологій у військовій сфері, зокрема, тих, які пов'язані із ШІ.

Крім того, ГА ООН просить Генерального Секретаря запитати думку держав-членів, держав-спостерігачів, міжнародних та регіональних організацій щодо застосування автономної зброї та шляхів розв'язання проблем, які така зброя може створити. За результатами отриманих відповідей ГА ООН просить Генерального секретаря підготувати доповідь та представити її на 79-й сесії, яка запланована на 2024 рік.

Чи зможе ООН однозначно заборонити використання автономної зброї? Напевно, що ні. У цьому контексті варто згадати Консультативний висновок Міжнародного суду ООН про законність застосування ядерної зброї від 1996 року. Міжнародний суд дійшов висновку, що міжнародне право не містить заборони погрози або застосування ядерної зброї як такої, але зазначив, що держави обмежені у свободі вибору зброї.

Висновки

Тенденцією 2023 року стало бажання держав врегулювати ШІ як на національному, так і на міжнародному рівнях. Помітна закономірність: чим швидше розвиваються системи ШІ (деякі системи вже зараз можуть з легкістю пройти тест Тюрінга), тим частіше на порядку денному стоїть питання ризиків, які пов'язані з технологіями.

Регламент ЄС про штучний інтелект - це перший документ, який намагається охопити широкий спектр питань та створити механізм контролю за ШІ.

Україна також не лишилась осторонь: Міністерство цифрової трансформації України опублікувало Дорожню карту з регулювання штучного інтелекту в Україні, яка визначила готовність України "рано чи пізно" імплементувати Регламент ЄС про штучний інтелект.

Сподіваємось, що у 2024 році міжнародна спільнота продовжить й надалі активно реагувати на виклики, які становить ШІ - інакше наступний міжнародний інструмент ШІ згенерує самостійно.

Єва Бабенко, членкиня АПУ, Юристка Aequo

LIGA360 дає змогу перевіряти компанії у світових санкційних списках, зокрема країн ЄС та США, а також санкційних списках України (РНБОУ, АМКУ). Спробуйте інструмент для перевірки токсичних бізнес-зв'язків прямо зараз. Більше про можливості LIGA360 для контролю compliance ризиків - за посиланням.

Читайте також: Штучний Інтелект та авторське право: що врахувати юристу?

Робота на підприємстві. Що має знати юрист?

Форс-мажор як інструмент допомоги бізнесу

Обшук на підприємстві: як діяти?

Залиште коментар
Увійдіть щоб залишити коментар
Увійти

Схожі новини