60% компаній не розглядають етичні ризики, пов'язані зі штучним інтелектом, окремо


60% компаній не розглядають етичні ризики, повЗгідно з опитуванням, проведеним британською асоціацією фахівців з ризиків і страхування Airmic, майже 60% компаній не розглядають етичні ризики, пов'язані зі штучним інтелектом (АІ), окремо від інших етичних проблем.

Оскільки компанії швидко інтегрують програми штучного інтелекту у свої структури, занепокоєння щодо пов'язаних з ними етичних ризиків залишається значною мірою незвіданою територією. У зв'язку з цим респонденти вважають за доцільне приділити цим ризикам додаткову видимість та увагу в рамках своїх структур та процесів управління ризиками.

Ця тенденція збігається зі зростаючими закликами створювати комітети з етики АІ та розробляти окремі системи оцінки ризиків для навігації в спірних етичних ситуаціях.

Джулія Грем, генеральний директор Airmic, підкреслює: «Етичні ризики штучного інтелекту ще недостатньо вивчені, і можна було б приділити додаткову увагу їх розумінню, хоча з часом наші члени очікують, що ці ризики будуть враховуватися поряд з іншими етичними ризиками».

Це вимагає більше дискусій про те, як управляються етичні ризики штучного інтелекту. Незважаючи на це, компанії повинні ретельно розглянути наслідки потенційно дублюючих структур управління ризиками.

З огляду на те, що штучний інтелект зараз впливає на усі аспекти життя, кількість страхових ризиків з впровадженням АІ за останні роки різко зросла, вважають аналітики Munich Re, продемонструвавши у звіті, як ризик штучного інтелекту в страхуванні може стати "неочікуваним" для страховиків.

«Одним із прикладів є чисті економічні втрати. Наприклад, якщо компанія використовує внутрішні операції АІ. Скажімо, банк використовує штучний інтелект для отримання інформації з документів, але тоді, якщо штучний інтелект по суті створює забагато помилок, тоді те, що було отримано, є великою кількістю невірної інформації. Це означатиме, що людям потрібно буде виконувати роботу знову, що спричинить багато додаткових витрат», вважають аналітики Munich Re.

З іншого боку, може існувати дискримінація АІ. Прикладом можуть бути заявки на отримання кредитної картки та ліміти кредитної картки. AI може бути використаний для визначення відповідного кредитного ліміту для заявника, і при цьому може виникнути дискримінація, яка не покриватиметься іншими страховими полісами. Або взагалі, заявнику можуть відмовити у кредитному ліміті через рішення АІ.

На думку перестраховика, ризик штучного інтелекту в традиційних страхових полісах може стати значним і неочікуваним ризиком для страховика.   | Форіншурер