Наша компанія допомогла технологічній компанії Wantent підготувати продукти на основі штучного інтелекту до роботи на ринку Європейського Союзу після ухвалення регламенту EU AI Act. У межах державної та індустріальної ініціативи Sandbox команда Wantent звернулася з питанням, як адаптувати свої AI-рішення до нових регуляторних вимог ЄС, не втративши при цьому бізнес-цінності технології.
Ми здійснили комплексне юридичне структурування діяльності Wantent, що дозволило компанії відповідально впроваджувати AI-системи, відповідати новим вимогам регуляції та підготуватися до масштабування на європейські ринки.
Wantent — продуктова технологічна компанія, яка використовує алгоритмічні моделі для аналізу поведінки аудиторій та медіаконтенту. Після ухвалення EU AI Act перед компанією постала необхідність оцінити відповідність своїх продуктів новим правилам регулювання штучного інтелекту в ЄС.
Зокрема, необхідно було визначити рівень ризику AI-систем відповідно до підходу, закладеного в AI Act, зрозуміти майбутні регуляторні вимоги до таких систем, оцінити потенційні ризики невідповідності та їхній вплив на співпрацю з європейськими клієнтами. Окрему увагу потрібно було приділити роботі з даними, зокрема агрегованими та поведінковими, щоб забезпечити відповідність вимогам GDPR та нових норм AI Act.
Також перед компанією стояло завдання побудувати внутрішні процеси AI governance, які відповідатимуть вимогам прозорості, оцінки ризиків, документації та контролю моделей, не обмежуючи інноваційний розвиток продукту.
Команда Juscutum провела комплексний аналіз роботи AI-систем Wantent та класифікувала їх відповідно до risk-based approach, передбаченого EU AI Act. У результаті було визначено рівні ризику для окремих компонентів системи, а також підготовлено карту класифікації моделей, яку компанія може використовувати при подальшому розвитку продукту.
Ми надали детальні рекомендації щодо відповідності вимогам AI Act, зокрема щодо технічної документації моделей, прозорості результатів роботи алгоритмів, процедур оцінки ризиків та моніторингу AI-систем. Окремо було підготовлено рекомендації щодо валідації тренувальних даних, їхнього походження та правил розкриття інформації для користувачів.
Також було проведено аналіз роботи Wantent з агрегованими даними. Ми дослідили джерела даних, визначили ризики повторної ідентифікації користувачів та запропонували підходи до їх мінімізації. Команда Juscutum розробила рекомендації щодо документування процесів агрегації та очищення даних, а також перевірки технічних партнерів і постачальників даних.
Крім того, для компанії було сформовано модель AI governance, яка включає визначення ключових ролей у роботі з AI-системами, процедури оцінки ризиків моделей, процеси моніторингу та аудиту, а також рекомендації щодо внутрішніх політик і технічної документації. Запропонований підхід дозволяє Wantent відповідати базовим вимогам AI Act та очікуванням європейських замовників.
Цей кейс демонструє, як технологічні компанії можуть підготувати свої AI-продукти до нових регуляторних вимог Європейського Союзу, зберігаючи інноваційність та конкурентоспроможність.
Завдяки юридичній підтримці Juscutum компанія Wantent отримала чітке розуміння вимог EU AI Act, адаптувала свої AI-системи до майбутнього регуляторного середовища та створила основу для масштабування продукту на європейських ринках.