Главный вопрос: кто отвечает за ошибки, если решение принимает интеллектуальная или адаптивная система? С адаптивной системой проще, она настраивается под текущие условия работы и, главное, у неё есть разработчик, который должен учесть все варианты, а вот с интеллектуальной — сложнее. Потому что её ответ не прогнозируем, она выходит на какой-то уровень, её отслеживают, и она стабилизирует своё решение. Однако бывают ситуации, когда решения могут быть не стабилизируемы и какой получится результат — не понятно.
Вопрос ответственности за неправильное решение интеллектуальной и адаптивной системы управления до сих пор не ясен ни с юридической точки зрения, ни даже с философской. Думаю, в перспективе человек должен просто передать эти функции машине, решив, как со всеми случайными факторами — будь что будет. Какие риски при этом возникают, и найдутся ли алгоритмы, контролирующие такие интеллектуальные системы — вопрос открытый.
При очевидных плюсах цифровой трансформации минусы идут рядом: человек не может контролировать информативность большого количества данных. При машинной обработке теряются нюансы и детали, которые могут быть как раз самыми значимыми. В итоге может быть принято ошибочное решение. Оценка значимости информации — очень сложный вопрос. Она неотрывна от целеполагания: информацию обрабатывает машина, а целеполагание — приоритет человека. По мере получения информации меняется не просто модель, может измениться и её цель.