Європейський Союз робить кроки для криміналізації використання штучного інтелекту (ШІ) для створення зображень сексуального насильства над дітьми та фейкового контенту. Європейська комісія оголосила, що зображення, створені за допомогою штучного інтелекту, та інші форми підробок, що зображують сексуальне насильство над дітьми (СНД), можуть бути криміналізовані в ЄС. Існують плани оновити чинне законодавство, щоб йти в ногу з технологічним розвитком. Європейський блок готовий забезпечити, щоб виробництво такого контенту стало кримінальним злочином.
Зображення сексуального насильства над дітьми, створені за допомогою штучного інтелекту
ЄС вважає, що діти здебільшого невинні та що суспільство повинно їх захищати. Поширення згенерованих штучним інтелектом зображень сексуального насильства над дітьми викликає серйозне занепокоєння. Занепокоєння пов’язане з тим, що ці зображення можуть заполонити інтернет. Хоча чинні закони США, Великобританії та інших країн вважають більшість таких зображень незаконними, правоохоронні органи постають перед труднощами в боротьбі з ними. Європейський Союз закликають посилити законодавство, щоб полегшити боротьбу зі зловживаннями, породженими штучним інтелектом. Основна увага приділяється запобіганню повторній віктимізації попередніх жертв насильства.
Криміналізація контенту, створеного штучним інтелектом
ЄС має намір криміналізувати поширення графічних зображень, створених за допомогою штучного інтелекту. Це стосується зображень сексуального насильства над дітьми, порно з метою помсти та фейкового контенту. Як повідомляє Politico, цей план повністю матеріалізується в законі до середини 2027 року. Це рішення було прийнято після таких інцидентів, як створення фальшивих графічних зображень популярної попсуперзірки Тейлор Свіфт, згенерованих штучним інтелектом, які широко розповсюджувалися в соціальних мережах.
ЄС також запропонував зробити пряму трансляцію сексуального насильства над дітьми новим кримінальним злочином. Крім того, згідно з планом, буде криміналізовано володіння та обмін “посібниками для педофілів”. В рамках більш широких заходів ЄС заявляє, що буде спрямований на посилення профілактики СНД. ЄС прагне підвищити обізнаність про ризики в Інтернеті та надати підтримку жертвам. Він також хоче полегшити жертвам повідомлення про злочини і, можливо, запропонувати фінансову компенсацію за підтверджені випадки КНС.
Перед тим, як подати пропозицію, комітет також провів оцінку впливу. Він дійшов висновку, що збільшення кількості дітей в Інтернеті та “новітні технологічні розробки” створюють нові можливості для вчинення СНД. Відмінності в правових системах держав-членів можуть перешкоджати боротьбі з насильством, тому пропозиція спрямована на заохочення держав-членів більше інвестувати в “підвищення обізнаності” та “зменшення безкарності, яка пронизує сексуальне насильство та експлуатацію дітей в Інтернеті”. ЄС сподівається покращити поточні “обмежені” зусилля щодо запобігання СНД та допомоги жертвам.
Попереднє законодавство ЄС щодо CSA
Ще у травні 2022 року ЄС представив окремий проєкт закону про CSA. Він має на меті встановити рамки, які вимагатимуть від цифрових сервісів використовувати автоматизовані технології для виявлення та повідомлення про наявні або нові випадки сексуального насильства над дітьми. Він також хоче, щоб про ці наявні або нові випадки повідомлялося швидко для вжиття відповідних заходів.
Програма сканування CSAM (Матеріали про сексуальне насильство над дітьми) виявилася суперечливою. Вона продовжує розділяти законодавців у Парламенті та Раді ЄС. Цей розкол викликає підозри щодо відносин між Європейською Комісією та лобістами технологій безпеки дітей. Менш ніж через два роки після того, як була запропонована схема сканування приватної інформації, різко зросла стурбованість щодо ризиків глибоких підробок і зображень, згенерованих штучним інтелектом. Зокрема, йдеться про побоювання, що технологія може бути використана для створення CSAM. Існують також побоювання, що фейковий контент може ускладнити для правоохоронних органів ідентифікацію реальних жертв. Таким чином, вірусний бум технологій, створених за допомогою штучного інтелекту, спонукає законодавців переглянути правила.
Як і у випадку з програмою сканування CSAM, остаточну форму пропозиції ухвалюватимуть співзаконодавці в Парламенті та Раді ЄС. Але сьогоднішня пропозиція щодо боротьби з CSA, швидше за все, викличе набагато менше розбіжностей, ніж план сканування інформації. Тому цей план, швидше за все, буде ухвалений, тоді як інший план все ще перебуває в глухому куті.
За словами Комісії, як тільки буде досягнуто згоди щодо внесення змін до чинної директиви про боротьбу з CSA, вона набуде чинності через 20 днів після опублікування в Офіційному журналі Європейського Союзу. До того часу законопроєкт забезпечить важливі гарантії для запобігання сексуальному насильству над дітьми, спричиненому ШІ, та захисту жертв.
Правові наслідки
Використання штучного інтелекту для створення матеріалів про сексуальне насильство над дітьми викликало дискусії про законність таких дій. Нещодавні випадки, такі як арешт людини в Іспанії за використання програмного забезпечення для обробки зображень зі штучним інтелектом для створення “глибоко фальшивих” матеріалів про насильство над дітьми, викликали дискусії про правовий режим таких матеріалів. Чинні кримінальні закони проти дитячої порнографії застосовуються до контенту, створеного ШІ. Докладаються зусилля для вирішення правових складнощів, пов’язаних з використанням ШІ в мерзенних цілях.
Виклики та рішення
Широка доступність інструментів штучного інтелекту спростила створення фейкового контенту, зокрема зображень сексуального насильства над дітьми. Це створило проблеми для правоохоронних органів і постачальників технологій у боротьбі з розповсюдженням такого контенту. Докладаються зусилля для розробки технічних рішень, таких як навчання АІ-моделей для виявлення та блокування зображень АІ CSA. Однак ці рішення мають свої власні проблеми та потенційну шкоду.
Завершальні слова
Рішення ЄС криміналізувати використання ШІ для створення зображень сексуального насильства над дітьми та фейкового контенту відображає наростальне занепокоєння щодо можливості зловживання ШІ в негідних цілях. Це рішення є значним кроком на шляху до розв’язання цих проблем. Однак воно також підкреслює правові та технічні проблеми, пов’язані з боротьбою з поширенням образливого та фальшивого контенту, створеного за допомогою штучного інтелекту.