Європейське управління зі страхування та професійних пенсій European Insurance and Occupational Pensions Authority опублікувало висновок щодо використання штучного інтелекту, зазначивши, що новий Закон про штучний інтелект має на меті зосередитися на системах з високим рівнем ризику, залишаючись при цьому достатньо гнучким, щоб враховувати варіації в системах штучного інтелекту окремих компаній.
За даними EIOPA, керівні принципи були розроблені з урахуванням ризиків та пропорційного підходу, і охоплюють справедливість та етику, управління даними, ведення обліку, прозорість та «пояснення», а також те, як використовується людський нагляд. Нормативні акти також охоплюють точність, надійність та кібербезпеку.
За словами EIOPA, керівні принципи відповідають визначенню ШІ, наведеному в законі, яке включає системи машинного навчання з різним рівнем автономії, які можуть адаптуватися після розгортання.
Однак це виключає системи, які виконують лише «базову обробку даних» та використовуються для оптимізації завдань. Це також виключає системи, які мають добре встановлені варіанти використання.
Після того, як цей висновок буде діяти протягом двох років, EIOPA заявила, що перегляне, як місцеві регулятори впроваджують та забезпечують дотримання правил, щоб забезпечити їх однакове застосування в усьому Європейському Союзі.
За оцінками, близько половини ризикових страховиків використовують штучний інтелект, згідно з оцінкою впливу, проведеною EIOPA. Майже 25% страховиків життя заявили, що використовують штучний інтелект.
У майбутньому 30% ризикових страховиків планують використовувати штучний інтелект протягом наступних трьох років, тоді як 39% страховиків життя заявили те саме.
Однак, штучний інтелект може створювати нові ризики та посилювати існуючі через обмежену здатність пояснювати деякі системи штучного інтелекту, що EIOPA назвала «ефектом чорної скриньки».
Крім того, здатність штучного інтелекту обробляти дедалі детальніші дані може мати як позитивні, так і негативні наслідки, зазначає EIOPA. Наприклад, телематичні програми можуть допомогти молодим водіям отримати доступніші тарифи на автострахування, але ці системи також можуть призвести до того, що водіям з вищим ризиком буде повністю відмовлено в покритті.
EIOPA заявила, що висновок просто пропонує рекомендації щодо тлумачення чинних правил, що стосуються страхування та систем штучного інтелекту, і не створює жодних вимог і не змінює Закон про штучний інтелект жодним чином.
Закон про штучний інтелект був першою спробою встановити захисні бар'єри навколо технології, щоб «роботи-андеррайтери не перетворилися на науково-фантастичних лиходіїв», за словами Пітера Керстенса, радника з питань цифровізації, технологічних інновацій та кібербезпеки в DG FISMA Європейської комісії. У щорічному звіті Insurance Europe він написав, що ці правила, ймовірно, вдарять по страховиках, «де це було найбільш важливо».
Окрім інноваційності та точності, Керстенс сказав, що системи штучного інтелекту також повинні бути демонстративно справедливими та зрозумілими. EIOPA заявила, що цього можна досягти, використовуючи зрозумілі алгоритми замість непрозорих, «чорних скриньок».
Керстенс порівняв цю зрозумілість із застосуванням системи штучного інтелекту до терапії, щоб розкрити «чому», що стоїть за прийняттям рішень.
Закон про штучний інтелект вимагає не лише відповідей, але й документації, структур управління та планів зменшення ризиків
«І якщо ваш штучний інтелект почне поводитися неправильно, вам можуть загрожувати штрафи, які змусять навіть вашого постачальника перестрахування попітніти», — написав Керстенсю





