Искусственный интеллект для автоматизации финансового сектора

PR служба
11 Июля 2019

Руководитель корпоративной практики ДКИС ALP Group Александр Казённов поделился своими соображениями по поводу использования технологий искусственного интеллекта для автоматизации процессов в финансовом секторе новостному ресурсу ИТ-Текст.

 Однозначный ответ на данный вопрос дать нельзя, так как всё зависит от решаемой задачи. Например, анализ финансовой благонадёжности контрагента можно отдать на откуп продвинутым алгоритмам, именуемым в современности ИИ, и более того, мы уверены, что банки над этим сейчас работают. Также подобным алгоритмам на откуп будут отданы вопросы одобрения потребительских кредитов и анализа всех сделок с указанных контрагентом или физическим лицом. Особенно, если банки договорятся о формировании информации о своих клиентах, используя блокчейн по всей цепочке операций конкретного лица в сфере финансов и сделок. Имеются ввиду не только прямые сделки внутри банков, но и финансовые операции, выполняемые человеком/компанией и известные нашим фин. институтам (оформляет специалист КАСКО или ОСАГО, покупает технику в рассрочку или полностью, объем операций на расчётных счетах и как они соотносятся между операциями с его контрагентами).

С точки зрения крупных финансовых сделок ИИ уже используется и далее будет наращивать своё присутствие в операциях моделирования и прогнозирования ситуации на рынках. Учитывая, что объем обрабатываемых данных растёт, т.е. растёт база для обучения ИИ, качество будет повышаться. Но вот решения по ключевым и самым объемным сделкам, в нашем понимании, по-прежнему будут оставаться на откуп людей. Но, и это важно отметить, люди будут принимать решения на основании данных, обработанных ИИ: либо смоделированных ситуациях, либо на "очищенных" с помощью ИИ аналитических и бизнес-данных.

Самыми существенными рисками при использовании ИИ в области финансов по-прежнему остаются:

1. Возможные ошибки разработчиков библиотек ИИ, которые могут проявить себя достаточно неожиданно в аналитических моделях.

2. Вопросы безопасности: это и доступ к конфиденциальным данным в рамках сделок, и различные проникновения злоумышленников в логику ИИ, и действия злоумышленников, направленные на "ложное" обучение ИИ. Последний тезис он не столько про алгоритмы ИИ, сколько про данные, которые подаются ему "на вход" для самообучения.

3. По-прежнему логика принятия решения ИИ - "чёрный ящик", т.к. для большинства библиотек у нас нет возможности раскрутить цепочку принятия решений, чтобы оценить качество принятых ИИ решений и прогнозов. Специалисты работают над данной проблематикой, и у некоторых есть первые успехи, но говорить об успехе в промышленном масштабе пока не приходится.